Pruebas y Ejecución de la API
Una vez que haya containerizado su aplicación FastAPI y haya iniciado el contenedor Docker, debe verificar que la API esté funcionando correctamente y devolviendo predicciones como se espera. Para ejecutar su contenedor Docker, utilice un comando como:
Reemplace your_image_name con el nombre de su imagen construida. Este comando asigna el puerto 8000 de su máquina local al puerto 8000 dentro del contenedor, haciendo que la aplicación FastAPI sea accesible en:
La prueba del endpoint /predict puede realizarse utilizando herramientas de línea de comandos como curl o enviando una solicitud HTTP desde Python. Siempre asegúrese de que sus datos de entrada coincidan con el formato esperado definido por su modelo FastAPI. Por ejemplo, si su modelo espera una carga útil JSON con ciertos campos, sus solicitudes de prueba deben incluir esos campos con valores de ejemplo apropiados.
import requests
# Replace with the actual URL if running on a different host or port
url = "http://localhost:8000/predict"
# Example input data matching the expected schema of your FastAPI model
input_data = {
"feature1": 3.5,
"feature2": 1.2,
"feature3": 0.8
}
response = requests.post(url, json=input_data)
if response.status_code == 200:
print("Prediction:", response.json())
else:
print("Error:", response.status_code, response.text)
Advertencia: siempre validar los datos de entrada y gestionar los errores de manera adecuada en las APIs de producción. No asumir nunca que los clientes enviarán datos bien formados o esperados. Utilizar las funciones de validación de FastAPI e implementar mensajes de error claros para ayudar a los usuarios y proteger el servicio de entradas inesperadas.
¡Gracias por tus comentarios!
Pregunte a AI
Pregunte a AI
Pregunte lo que quiera o pruebe una de las preguntas sugeridas para comenzar nuestra charla
Genial!
Completion tasa mejorada a 6.67
Pruebas y Ejecución de la API
Desliza para mostrar el menú
Una vez que haya containerizado su aplicación FastAPI y haya iniciado el contenedor Docker, debe verificar que la API esté funcionando correctamente y devolviendo predicciones como se espera. Para ejecutar su contenedor Docker, utilice un comando como:
Reemplace your_image_name con el nombre de su imagen construida. Este comando asigna el puerto 8000 de su máquina local al puerto 8000 dentro del contenedor, haciendo que la aplicación FastAPI sea accesible en:
La prueba del endpoint /predict puede realizarse utilizando herramientas de línea de comandos como curl o enviando una solicitud HTTP desde Python. Siempre asegúrese de que sus datos de entrada coincidan con el formato esperado definido por su modelo FastAPI. Por ejemplo, si su modelo espera una carga útil JSON con ciertos campos, sus solicitudes de prueba deben incluir esos campos con valores de ejemplo apropiados.
import requests
# Replace with the actual URL if running on a different host or port
url = "http://localhost:8000/predict"
# Example input data matching the expected schema of your FastAPI model
input_data = {
"feature1": 3.5,
"feature2": 1.2,
"feature3": 0.8
}
response = requests.post(url, json=input_data)
if response.status_code == 200:
print("Prediction:", response.json())
else:
print("Error:", response.status_code, response.text)
Advertencia: siempre validar los datos de entrada y gestionar los errores de manera adecuada en las APIs de producción. No asumir nunca que los clientes enviarán datos bien formados o esperados. Utilizar las funciones de validación de FastAPI e implementar mensajes de error claros para ayudar a los usuarios y proteger el servicio de entradas inesperadas.
¡Gracias por tus comentarios!