Notice: This page requires JavaScript to function properly.
Please enable JavaScript in your browser settings or update your browser.
Lære Containerisering med Docker | Sektion
Mlops Grundlæggende

bookContainerisering med Docker

Stryg for at vise menuen

I MLOps spiller Docker en afgørende rolle ved at gøre det muligt at pakke din applikation, dens afhængigheder og endda dine trænede maskinlæringsmodeller i et enkelt, portabelt container-image. Dette image kan køres på enhver maskine, der understøtter Docker, hvilket sikrer, at miljøet forbliver konsistent fra din lokale udviklingsbærbar til en produktionsserver eller cloud-miljø. Ved at eliminere "virker på min maskine"-problemer hjælper Docker dig med at levere pålidelige, reproducerbare udrulninger af dine FastAPI-baserede modeltjenester.

Note
Bemærk

Containerisering med Docker gør det meget nemmere at skalere dine maskinlæringstjenester horisontalt og udrulle dem i cloud- eller on-premise-infrastruktur. Du kan starte flere identiske containere for at håndtere øget belastning eller hurtigt flytte din tjeneste mellem forskellige miljøer uden at bekymre dig om afhængighedskonflikter.

# Start from the official Python base image
FROM python:3.12.4-slim

# Set the working directory in the container
WORKDIR /app

# Copy the requirements file and install dependencies
COPY requirements.txt .
RUN pip install --no-cache-dir -r requirements.txt

# Copy the FastAPI app and model files into the container
COPY . .

# Expose the port FastAPI will run on
EXPOSE 8000

# Command to run the FastAPI app using uvicorn
CMD ["uvicorn", "main:app", "--host", "0.0.0.0", "--port", "8000"]
question mark

Hvorfor er Docker vigtig i ML-modeludrulningsprocessen?

Select the correct answer

Var alt klart?

Hvordan kan vi forbedre det?

Tak for dine kommentarer!

Sektion 1. Kapitel 8

Spørg AI

expand

Spørg AI

ChatGPT

Spørg om hvad som helst eller prøv et af de foreslåede spørgsmål for at starte vores chat

Sektion 1. Kapitel 8
some-alt