Notice: This page requires JavaScript to function properly.
Please enable JavaScript in your browser settings or update your browser.
Aprende Inferencia Bayesiana y Procesos de Markov | Fundamentos Teóricos
IA Generativa

bookInferencia Bayesiana y Procesos de Markov

Comprensión de la Inferencia Bayesiana en IA

¿Qué es la Inferencia Bayesiana?

La inferencia bayesiana es un método estadístico utilizado para actualizar probabilidades en función de nueva evidencia. Los sistemas de IA emplean la inferencia bayesiana para refinar sus predicciones a medida que recopilan más datos.

Imagina que estás prediciendo el clima. Si normalmente hace sol en tu ciudad pero ves que se forman nubes oscuras, ajustas tu expectativa y predices lluvia. Así funciona la inferencia bayesiana: comienza con una creencia inicial (priori), incorpora nuevos datos y actualiza la creencia en consecuencia.

P(HD)=P(DH)P(H)P(D)P(H|D)=\frac{P(D|H)\cdot P(H)}{P(D)}

donde:

  • P(HD)P(H|D) es la probabilidad posterior, la probabilidad actualizada de la hipótesis HH dado el dato DD;
  • P(DH)P(D|H) es la verosimilitud, que representa qué tan bien la hipótesis HH explica el dato DD;
  • P(H)P(H) es la probabilidad previa, la creencia inicial antes de observar DD;
  • P(D)P(D) es la verosimilitud marginal, que actúa como una constante de normalización.

Enunciado del problema: Un filtro de spam de IA utiliza clasificación bayesiana.

  • El 20% de los correos electrónicos son spam (P(Spam) = 0.2);
  • El 80% de los correos electrónicos no son spam (P(Not Spam) = 0.8);
  • El 90% de los correos de spam contienen la palabra “urgent” (P(Urgent | Spam) = 0.9);
  • El 10% de los correos normales contienen la palabra “urgent” (P(Urgent | Not Spam) = 0.1).

Pregunta:
Si un correo electrónico contiene la palabra "urgent", ¿cuál es la probabilidad de que sea spam (P(Spam | Urgent))?

Procesos de Markov: Predicción del futuro

¿Qué es una cadena de Markov?

Una cadena de Markov es un modelo matemático donde el siguiente estado depende únicamente del estado actual y no de los anteriores. Se utiliza ampliamente en IA para modelar datos secuenciales y procesos de toma de decisiones. A continuación se presentan las fórmulas clave utilizadas en los procesos de Markov:

1. Fórmula de probabilidad de transición
La probabilidad de que un sistema esté en el estado SjS_j en el tiempo tt dado su estado previo SiS_i en el tiempo t1t-1:

P(SjSi)=TijP(S_j|S_i)=T_{ij}

donde TijT_{ij} es la probabilidad de transición del estado SiS_i al estado SjS_j;

2. Actualización de la probabilidad de estado
La distribución de probabilidad sobre los estados en el tiempo tt:

Pt=Pt1TP_t=P_{t-1}\cdot T

donde:

  • PtP_t es la probabilidad de estado en el tiempo tt.
  • Pt1P_{t-1} es la probabilidad de estado en el tiempo t1t-1.
  • TT es la matriz de transición.

3. Probabilidad en Estado Estacionario (Comportamiento a Largo Plazo)
Para un proceso de Markov que se ejecuta durante mucho tiempo, la probabilidad en estado estacionario PsP_s satisface:

Ps=PsTP_s=P_s \cdot T

Esta ecuación se resuelve para encontrar la distribución de equilibrio donde las probabilidades no cambian con el tiempo.

Enunciado del Problema: En cierta ciudad, el clima transita entre días Soleados y Lluviosos. La probabilidad de transición entre estos estados está dada por la siguiente matriz de transición:

T=[0.70.30.60.4]T = \begin{bmatrix} 0.7&0.3\\0.6&0.4 \end{bmatrix}

Donde:

  • 0.7 es la probabilidad de que después de un día Soleado siga otro día Soleado;
  • 0.3 es la probabilidad de que un día Soleado se convierta en Lluvioso;
  • 0.6 es la probabilidad de que un día Lluvioso se convierta en Soleado;
  • 0.4 es la probabilidad de que después de un día Lluvioso siga otro día Lluvioso.

Si hoy el clima es Soleado, ¿cuál es la probabilidad de que en dos días sea Lluvioso?

Procesos de Decisión de Markov (MDPs): Enseñando a la IA a Tomar Decisiones

Los MDPs amplían las cadenas de Markov al introducir acciones y recompensas, permitiendo que la IA tome decisiones óptimas en lugar de solo predecir estados.

Ejemplo: Un Robot en un Laberinto

Un robot que navega por un laberinto aprende qué caminos conducen a la salida considerando:

  • Acciones: moverse a la izquierda, derecha, arriba o abajo;
  • Recompensas: alcanzar con éxito el objetivo, chocar contra una pared o encontrar un obstáculo;
  • Estrategia Óptima: elegir acciones que maximicen la recompensa.

Los MDPs se utilizan ampliamente en IA para juegos, robótica y sistemas de recomendación para optimizar la toma de decisiones.

Modelos Ocultos de Markov (HMMs): Comprendiendo Patrones No Observados

Un HMM es un modelo de Markov donde algunos estados son ocultos, y la IA debe inferirlos a partir de los datos observados.

Ejemplo: Reconocimiento de Voz

Cuando hablas con Siri o Alexa, la IA no ve directamente las palabras. En su lugar, procesa las ondas sonoras e intenta determinar la secuencia más probable de palabras.

Los HMMs son esenciales en:

  • Reconocimiento de Voz y Texto: la IA descifra el lenguaje hablado y la escritura a mano;
  • Predicciones del Mercado de Valores: la IA modela tendencias ocultas para pronosticar fluctuaciones del mercado;
  • Robótica y Juegos: los agentes controlados por IA infieren estados ocultos a partir de eventos observables.

Conclusión

La inferencia bayesiana proporciona un método riguroso para actualizar creencias en modelos de IA, mientras que los procesos de Markov ofrecen herramientas potentes para modelar dependencias secuenciales. Estos principios sustentan aplicaciones clave de IA generativa, incluyendo aprendizaje por refuerzo, modelos gráficos probabilísticos y generación estructurada de secuencias.

1. ¿Cuál es el papel principal de la inferencia bayesiana en la IA?

2. En un Proceso de Decisión de Markov, ¿qué considera una IA al tomar una decisión?

3. ¿Cuál de las siguientes es una aplicación de los Modelos Ocultos de Markov?

question mark

¿Cuál es el papel principal de la inferencia bayesiana en la IA?

Select the correct answer

question mark

En un Proceso de Decisión de Markov, ¿qué considera una IA al tomar una decisión?

Select the correct answer

question mark

¿Cuál de las siguientes es una aplicación de los Modelos Ocultos de Markov?

Select the correct answer

¿Todo estuvo claro?

¿Cómo podemos mejorarlo?

¡Gracias por tus comentarios!

Sección 2. Capítulo 2

Pregunte a AI

expand

Pregunte a AI

ChatGPT

Pregunte lo que quiera o pruebe una de las preguntas sugeridas para comenzar nuestra charla

Awesome!

Completion rate improved to 4.76

bookInferencia Bayesiana y Procesos de Markov

Desliza para mostrar el menú

Comprensión de la Inferencia Bayesiana en IA

¿Qué es la Inferencia Bayesiana?

La inferencia bayesiana es un método estadístico utilizado para actualizar probabilidades en función de nueva evidencia. Los sistemas de IA emplean la inferencia bayesiana para refinar sus predicciones a medida que recopilan más datos.

Imagina que estás prediciendo el clima. Si normalmente hace sol en tu ciudad pero ves que se forman nubes oscuras, ajustas tu expectativa y predices lluvia. Así funciona la inferencia bayesiana: comienza con una creencia inicial (priori), incorpora nuevos datos y actualiza la creencia en consecuencia.

P(HD)=P(DH)P(H)P(D)P(H|D)=\frac{P(D|H)\cdot P(H)}{P(D)}

donde:

  • P(HD)P(H|D) es la probabilidad posterior, la probabilidad actualizada de la hipótesis HH dado el dato DD;
  • P(DH)P(D|H) es la verosimilitud, que representa qué tan bien la hipótesis HH explica el dato DD;
  • P(H)P(H) es la probabilidad previa, la creencia inicial antes de observar DD;
  • P(D)P(D) es la verosimilitud marginal, que actúa como una constante de normalización.

Enunciado del problema: Un filtro de spam de IA utiliza clasificación bayesiana.

  • El 20% de los correos electrónicos son spam (P(Spam) = 0.2);
  • El 80% de los correos electrónicos no son spam (P(Not Spam) = 0.8);
  • El 90% de los correos de spam contienen la palabra “urgent” (P(Urgent | Spam) = 0.9);
  • El 10% de los correos normales contienen la palabra “urgent” (P(Urgent | Not Spam) = 0.1).

Pregunta:
Si un correo electrónico contiene la palabra "urgent", ¿cuál es la probabilidad de que sea spam (P(Spam | Urgent))?

Procesos de Markov: Predicción del futuro

¿Qué es una cadena de Markov?

Una cadena de Markov es un modelo matemático donde el siguiente estado depende únicamente del estado actual y no de los anteriores. Se utiliza ampliamente en IA para modelar datos secuenciales y procesos de toma de decisiones. A continuación se presentan las fórmulas clave utilizadas en los procesos de Markov:

1. Fórmula de probabilidad de transición
La probabilidad de que un sistema esté en el estado SjS_j en el tiempo tt dado su estado previo SiS_i en el tiempo t1t-1:

P(SjSi)=TijP(S_j|S_i)=T_{ij}

donde TijT_{ij} es la probabilidad de transición del estado SiS_i al estado SjS_j;

2. Actualización de la probabilidad de estado
La distribución de probabilidad sobre los estados en el tiempo tt:

Pt=Pt1TP_t=P_{t-1}\cdot T

donde:

  • PtP_t es la probabilidad de estado en el tiempo tt.
  • Pt1P_{t-1} es la probabilidad de estado en el tiempo t1t-1.
  • TT es la matriz de transición.

3. Probabilidad en Estado Estacionario (Comportamiento a Largo Plazo)
Para un proceso de Markov que se ejecuta durante mucho tiempo, la probabilidad en estado estacionario PsP_s satisface:

Ps=PsTP_s=P_s \cdot T

Esta ecuación se resuelve para encontrar la distribución de equilibrio donde las probabilidades no cambian con el tiempo.

Enunciado del Problema: En cierta ciudad, el clima transita entre días Soleados y Lluviosos. La probabilidad de transición entre estos estados está dada por la siguiente matriz de transición:

T=[0.70.30.60.4]T = \begin{bmatrix} 0.7&0.3\\0.6&0.4 \end{bmatrix}

Donde:

  • 0.7 es la probabilidad de que después de un día Soleado siga otro día Soleado;
  • 0.3 es la probabilidad de que un día Soleado se convierta en Lluvioso;
  • 0.6 es la probabilidad de que un día Lluvioso se convierta en Soleado;
  • 0.4 es la probabilidad de que después de un día Lluvioso siga otro día Lluvioso.

Si hoy el clima es Soleado, ¿cuál es la probabilidad de que en dos días sea Lluvioso?

Procesos de Decisión de Markov (MDPs): Enseñando a la IA a Tomar Decisiones

Los MDPs amplían las cadenas de Markov al introducir acciones y recompensas, permitiendo que la IA tome decisiones óptimas en lugar de solo predecir estados.

Ejemplo: Un Robot en un Laberinto

Un robot que navega por un laberinto aprende qué caminos conducen a la salida considerando:

  • Acciones: moverse a la izquierda, derecha, arriba o abajo;
  • Recompensas: alcanzar con éxito el objetivo, chocar contra una pared o encontrar un obstáculo;
  • Estrategia Óptima: elegir acciones que maximicen la recompensa.

Los MDPs se utilizan ampliamente en IA para juegos, robótica y sistemas de recomendación para optimizar la toma de decisiones.

Modelos Ocultos de Markov (HMMs): Comprendiendo Patrones No Observados

Un HMM es un modelo de Markov donde algunos estados son ocultos, y la IA debe inferirlos a partir de los datos observados.

Ejemplo: Reconocimiento de Voz

Cuando hablas con Siri o Alexa, la IA no ve directamente las palabras. En su lugar, procesa las ondas sonoras e intenta determinar la secuencia más probable de palabras.

Los HMMs son esenciales en:

  • Reconocimiento de Voz y Texto: la IA descifra el lenguaje hablado y la escritura a mano;
  • Predicciones del Mercado de Valores: la IA modela tendencias ocultas para pronosticar fluctuaciones del mercado;
  • Robótica y Juegos: los agentes controlados por IA infieren estados ocultos a partir de eventos observables.

Conclusión

La inferencia bayesiana proporciona un método riguroso para actualizar creencias en modelos de IA, mientras que los procesos de Markov ofrecen herramientas potentes para modelar dependencias secuenciales. Estos principios sustentan aplicaciones clave de IA generativa, incluyendo aprendizaje por refuerzo, modelos gráficos probabilísticos y generación estructurada de secuencias.

1. ¿Cuál es el papel principal de la inferencia bayesiana en la IA?

2. En un Proceso de Decisión de Markov, ¿qué considera una IA al tomar una decisión?

3. ¿Cuál de las siguientes es una aplicación de los Modelos Ocultos de Markov?

question mark

¿Cuál es el papel principal de la inferencia bayesiana en la IA?

Select the correct answer

question mark

En un Proceso de Decisión de Markov, ¿qué considera una IA al tomar una decisión?

Select the correct answer

question mark

¿Cuál de las siguientes es una aplicación de los Modelos Ocultos de Markov?

Select the correct answer

¿Todo estuvo claro?

¿Cómo podemos mejorarlo?

¡Gracias por tus comentarios!

Sección 2. Capítulo 2
some-alt