Notice: This page requires JavaScript to function properly.
Please enable JavaScript in your browser settings or update your browser.
Aprende Cómo los Modelos de Lenguaje Grandes Comprenden los Prompts | Fundamentos de la Ingeniería de Prompts
Fundamentos de Ingeniería de Prompts

bookCómo los Modelos de Lenguaje Grandes Comprenden los Prompts

Los modelos de lenguaje grandes (LLMs) procesan los prompts descomponiendo el texto de entrada en unidades más pequeñas llamadas tokens. El modelo utiliza estos tokens para comprender el significado y el contexto de tus instrucciones, y luego genera una respuesta basada en patrones aprendidos a partir de grandes cantidades de datos.

Note
Definición

Token es un fragmento de texto, como una palabra o parte de una palabra, que el modelo procesa de forma individual.

Los LLMs no "piensan" como los humanos. Predicen la siguiente palabra o frase en función del prompt de entrada y sus datos de entrenamiento.

Si tu prompt es demasiado largo, el modelo puede ignorar partes anteriores de la entrada. Este tamaño de la entrada se denomina ventana de contexto.

Note
Definición

Ventana de contexto es el número máximo de tokens que un LLM puede considerar al mismo tiempo al generar una respuesta.

Ejemplo

Si preguntas, Write a poem about the ocean, el modelo interpreta cada palabra como un token y utiliza el contexto para generar un poema relevante. Si agregas más detalles, como Write a four-line poem about the ocean using vivid imagery, el modelo usa el contexto adicional para adaptar su respuesta.

Note
Recordatorio rápido

Ser consciente de la ventana de contexto ayuda a evitar la pérdida de información importante en prompts extensos.

question mark

¿Qué es un token en el contexto de los LLM?

Select the correct answer

¿Todo estuvo claro?

¿Cómo podemos mejorarlo?

¡Gracias por tus comentarios!

Sección 1. Capítulo 2

Pregunte a AI

expand

Pregunte a AI

ChatGPT

Pregunte lo que quiera o pruebe una de las preguntas sugeridas para comenzar nuestra charla

Awesome!

Completion rate improved to 11.11

bookCómo los Modelos de Lenguaje Grandes Comprenden los Prompts

Desliza para mostrar el menú

Los modelos de lenguaje grandes (LLMs) procesan los prompts descomponiendo el texto de entrada en unidades más pequeñas llamadas tokens. El modelo utiliza estos tokens para comprender el significado y el contexto de tus instrucciones, y luego genera una respuesta basada en patrones aprendidos a partir de grandes cantidades de datos.

Note
Definición

Token es un fragmento de texto, como una palabra o parte de una palabra, que el modelo procesa de forma individual.

Los LLMs no "piensan" como los humanos. Predicen la siguiente palabra o frase en función del prompt de entrada y sus datos de entrenamiento.

Si tu prompt es demasiado largo, el modelo puede ignorar partes anteriores de la entrada. Este tamaño de la entrada se denomina ventana de contexto.

Note
Definición

Ventana de contexto es el número máximo de tokens que un LLM puede considerar al mismo tiempo al generar una respuesta.

Ejemplo

Si preguntas, Write a poem about the ocean, el modelo interpreta cada palabra como un token y utiliza el contexto para generar un poema relevante. Si agregas más detalles, como Write a four-line poem about the ocean using vivid imagery, el modelo usa el contexto adicional para adaptar su respuesta.

Note
Recordatorio rápido

Ser consciente de la ventana de contexto ayuda a evitar la pérdida de información importante en prompts extensos.

question mark

¿Qué es un token en el contexto de los LLM?

Select the correct answer

¿Todo estuvo claro?

¿Cómo podemos mejorarlo?

¡Gracias por tus comentarios!

Sección 1. Capítulo 2
some-alt