Notice: This page requires JavaScript to function properly.
Please enable JavaScript in your browser settings or update your browser.
Aprende Contenerización con Docker | Sección
Fundamentos de MLOps

bookContenerización con Docker

En MLOps, Docker desempeña un papel fundamental al permitir empaquetar tu aplicación, sus dependencias e incluso tus modelos de aprendizaje automático entrenados en una única imagen de contenedor portátil. Esta imagen puede ejecutarse en cualquier máquina que soporte Docker, garantizando que el entorno permanezca consistente desde tu portátil de desarrollo local hasta un servidor de producción o un entorno en la nube. Al eliminar los problemas de "funciona en mi máquina", Docker te ayuda a ofrecer implementaciones fiables y reproducibles para tus servicios de modelos basados en FastAPI.

Note
Nota

La contenerización con Docker facilita considerablemente la escalabilidad horizontal de tus servicios de aprendizaje automático y su despliegue en infraestructuras en la nube o locales. Puedes iniciar múltiples contenedores idénticos para manejar una mayor carga, o mover rápidamente tu servicio entre diferentes entornos sin preocuparte por conflictos de dependencias.

# Start from the official Python base image
FROM python:3.12.4-slim

# Set the working directory in the container
WORKDIR /app

# Copy the requirements file and install dependencies
COPY requirements.txt .
RUN pip install --no-cache-dir -r requirements.txt

# Copy the FastAPI app and model files into the container
COPY . .

# Expose the port FastAPI will run on
EXPOSE 8000

# Command to run the FastAPI app using uvicorn
CMD ["uvicorn", "main:app", "--host", "0.0.0.0", "--port", "8000"]
question mark

¿Por qué es importante Docker en el proceso de despliegue de modelos de ML?

Select the correct answer

¿Todo estuvo claro?

¿Cómo podemos mejorarlo?

¡Gracias por tus comentarios!

Sección 1. Capítulo 8

Pregunte a AI

expand

Pregunte a AI

ChatGPT

Pregunte lo que quiera o pruebe una de las preguntas sugeridas para comenzar nuestra charla

bookContenerización con Docker

Desliza para mostrar el menú

En MLOps, Docker desempeña un papel fundamental al permitir empaquetar tu aplicación, sus dependencias e incluso tus modelos de aprendizaje automático entrenados en una única imagen de contenedor portátil. Esta imagen puede ejecutarse en cualquier máquina que soporte Docker, garantizando que el entorno permanezca consistente desde tu portátil de desarrollo local hasta un servidor de producción o un entorno en la nube. Al eliminar los problemas de "funciona en mi máquina", Docker te ayuda a ofrecer implementaciones fiables y reproducibles para tus servicios de modelos basados en FastAPI.

Note
Nota

La contenerización con Docker facilita considerablemente la escalabilidad horizontal de tus servicios de aprendizaje automático y su despliegue en infraestructuras en la nube o locales. Puedes iniciar múltiples contenedores idénticos para manejar una mayor carga, o mover rápidamente tu servicio entre diferentes entornos sin preocuparte por conflictos de dependencias.

# Start from the official Python base image
FROM python:3.12.4-slim

# Set the working directory in the container
WORKDIR /app

# Copy the requirements file and install dependencies
COPY requirements.txt .
RUN pip install --no-cache-dir -r requirements.txt

# Copy the FastAPI app and model files into the container
COPY . .

# Expose the port FastAPI will run on
EXPOSE 8000

# Command to run the FastAPI app using uvicorn
CMD ["uvicorn", "main:app", "--host", "0.0.0.0", "--port", "8000"]
question mark

¿Por qué es importante Docker en el proceso de despliegue de modelos de ML?

Select the correct answer

¿Todo estuvo claro?

¿Cómo podemos mejorarlo?

¡Gracias por tus comentarios!

Sección 1. Capítulo 8
some-alt