Notice: This page requires JavaScript to function properly.
Please enable JavaScript in your browser settings or update your browser.
Aprende Cómo "Piensan" los Modelos de Lenguaje | Cómo Funciona la IA Moderna
Comprensión de la IA para el Trabajo

bookCómo "Piensan" los Modelos de Lenguaje

Desliza para mostrar el menú

No necesitas entender cómo funciona el motor de un coche para conducir, pero saber que funciona con combustible te ayuda a evitar quedarte sin gasolina. Lo mismo ocurre con la IA. No necesitas un título en informática, pero comprender una idea central hará que todo lo demás en este curso tenga sentido.

Predicción, la idea central

Los grandes modelos de lenguaje (LLM), la tecnología detrás de ChatGPT, Claude, Gemini y otros, funcionan prediciendo lo que viene después.

Dada una secuencia de palabras, el modelo calcula qué palabra (o frase) es más probable que siga, basándose en patrones que aprendió de enormes cantidades de texto: libros, artículos, sitios web, código y más.

Es similar al autocompletado en tu teléfono, pero entrenado con prácticamente todo internet y con mucha más sofisticación.

Descripción de la captura de pantalla: Un diagrama horizontal y limpio con tres pasos conectados por flechas. Paso 1 — un cuadro de texto etiquetado como "Tu entrada" que contiene: "The weather today is…". Paso 2 — un cuadro etiquetado como "El modelo predice la siguiente palabra más probable" mostrando tres opciones con probabilidades: "sunny" 42%, "cold" 31%, "unpredictable" 27%. Paso 3 — un cuadro etiquetado como "La salida se construye palabra por palabra". Diseño simple y plano, sin jerga técnica en el diagrama.

¿Qué son los tokens?

La IA no lee las palabras como lo haces tú. Divide el texto en pequeños fragmentos llamados tokens, que corresponden aproximadamente a palabras o partes de palabras.

Por ejemplo:

  • "running" podría ser un token;
  • "unbelievable" podría dividirse en "un" + "believ" + "able";
  • Incluso los espacios y la puntuación son tokens.

Por eso la IA a veces maneja palabras inusuales de manera extraña, o por qué las entradas muy largas ralentizan el proceso: cada token requiere potencia de procesamiento.

Para el uso práctico, lo principal que debes saber es esto: cuantos más tokens haya en tu conversación, más contexto tiene el modelo — y mayor es el costo de ejecución (por eso los planes gratuitos tienen límites).

Por qué la IA a veces inventa cosas

El modelo predice lo que suena correcto, pero no siempre produce lo que es correcto desde el punto de vista factual. Cuando se encuentra con un tema fuera de sus datos de entrenamiento, o una pregunta que no puede responder con confianza, no dice "No lo sé"; en cambio, genera una respuesta que suena plausible.

A esto se le llama alucinación.

No es un error, ni la IA te está mintiendo. Es una propiedad fundamental de cómo funciona la predicción. Saber esto es el primer paso para usar la IA de manera segura. Lo abordaremos en profundidad en la Sección 3.

La IA predice — no sabe realmente. Esta idea explica por qué los buenos prompts son importantes, por qué debes verificar los datos importantes y por qué el juicio humano nunca es opcional al trabajar con IA.

1. ¿Cuál es la idea principal detrás del funcionamiento de los grandes modelos de lenguaje como ChatGPT?

2. ¿Por qué la IA a veces genera respuestas que no son correctas desde el punto de vista factual?

question mark

¿Cuál es la idea principal detrás del funcionamiento de los grandes modelos de lenguaje como ChatGPT?

Selecciona la respuesta correcta

question mark

¿Por qué la IA a veces genera respuestas que no son correctas desde el punto de vista factual?

Selecciona la respuesta correcta

¿Todo estuvo claro?

¿Cómo podemos mejorarlo?

¡Gracias por tus comentarios!

Sección 1. Capítulo 2

Pregunte a AI

expand

Pregunte a AI

ChatGPT

Pregunte lo que quiera o pruebe una de las preguntas sugeridas para comenzar nuestra charla

Sección 1. Capítulo 2
some-alt