Cómo los Modelos de Lenguaje Grandes Comprenden los Prompts
Los modelos de lenguaje grandes (LLMs) procesan los prompts descomponiendo el texto de entrada en unidades más pequeñas llamadas tokens. El modelo utiliza estos tokens para comprender el significado y el contexto de tus instrucciones, y luego genera una respuesta basada en patrones aprendidos a partir de grandes cantidades de datos.
Token es un fragmento de texto, como una palabra o parte de una palabra, que el modelo procesa de forma individual.
Los LLMs no "piensan" como los humanos. Predicen la siguiente palabra o frase en función del prompt de entrada y sus datos de entrenamiento.
Si tu prompt es demasiado largo, el modelo puede ignorar partes anteriores de la entrada. Este tamaño de la entrada se denomina ventana de contexto.
Ventana de contexto es el número máximo de tokens que un LLM puede considerar al mismo tiempo al generar una respuesta.
Ejemplo
Si preguntas, Write a poem about the ocean, el modelo interpreta cada palabra como un token y utiliza el contexto para generar un poema relevante. Si agregas más detalles, como Write a four-line poem about the ocean using vivid imagery, el modelo usa el contexto adicional para adaptar su respuesta.
Ser consciente de la ventana de contexto ayuda a evitar la pérdida de información importante en prompts extensos.
¡Gracias por tus comentarios!
Pregunte a AI
Pregunte a AI
Pregunte lo que quiera o pruebe una de las preguntas sugeridas para comenzar nuestra charla
Awesome!
Completion rate improved to 11.11
Cómo los Modelos de Lenguaje Grandes Comprenden los Prompts
Desliza para mostrar el menú
Los modelos de lenguaje grandes (LLMs) procesan los prompts descomponiendo el texto de entrada en unidades más pequeñas llamadas tokens. El modelo utiliza estos tokens para comprender el significado y el contexto de tus instrucciones, y luego genera una respuesta basada en patrones aprendidos a partir de grandes cantidades de datos.
Token es un fragmento de texto, como una palabra o parte de una palabra, que el modelo procesa de forma individual.
Los LLMs no "piensan" como los humanos. Predicen la siguiente palabra o frase en función del prompt de entrada y sus datos de entrenamiento.
Si tu prompt es demasiado largo, el modelo puede ignorar partes anteriores de la entrada. Este tamaño de la entrada se denomina ventana de contexto.
Ventana de contexto es el número máximo de tokens que un LLM puede considerar al mismo tiempo al generar una respuesta.
Ejemplo
Si preguntas, Write a poem about the ocean, el modelo interpreta cada palabra como un token y utiliza el contexto para generar un poema relevante. Si agregas más detalles, como Write a four-line poem about the ocean using vivid imagery, el modelo usa el contexto adicional para adaptar su respuesta.
Ser consciente de la ventana de contexto ayuda a evitar la pérdida de información importante en prompts extensos.
¡Gracias por tus comentarios!