Notice: This page requires JavaScript to function properly.
Please enable JavaScript in your browser settings or update your browser.
Lernen Bayessche Inferenz und Markow-Prozesse | Theoretische Grundlagen
Generative KI

bookBayessche Inferenz und Markow-Prozesse

Verständnis der Bayesschen Inferenz in der KI

Was ist Bayessche Inferenz?

Die Bayessche Inferenz ist eine statistische Methode zur Aktualisierung von Wahrscheinlichkeiten auf Basis neuer Evidenz. KI-Systeme nutzen die Bayessche Inferenz, um ihre Vorhersagen zu verfeinern, sobald sie mehr Daten sammeln.

Stellen Sie sich vor, Sie sagen das Wetter voraus. In Ihrer Stadt ist es normalerweise sonnig, aber Sie sehen dunkle Wolken aufziehen, daher passen Sie Ihre Erwartung an und prognostizieren Regen. So funktioniert die Bayessche Inferenz – sie beginnt mit einer anfänglichen Annahme (Prior), bezieht neue Daten ein und aktualisiert die Annahme entsprechend.

P(HD)=P(DH)P(H)P(D)P(H|D)=\frac{P(D|H)\cdot P(H)}{P(D)}

wobei:

  • P(HD)P(H|D) die posterior probability ist, die aktualisierte Wahrscheinlichkeit der Hypothese HH gegeben den Daten DD;
  • P(DH)P(D|H) die likelihood ist, die angibt, wie gut die Hypothese HH die Daten DD erklärt;
  • P(H)P(H) die prior probability ist, die anfängliche Annahme vor Beobachtung von DD;
  • P(D)P(D) die marginal likelihood ist, die als Normalisierungskonstante dient.

Problemstellung: Ein KI-Spamfilter verwendet die Bayessche Klassifikation.

  • 20% der E-Mails sind Spam (P(Spam) = 0.2);
  • 80% der E-Mails sind kein Spam (P(Nicht Spam) = 0.8);
  • 90% der Spam-E-Mails enthalten das Wort „urgent“ (P(Urgent | Spam) = 0.9);
  • 10% der regulären E-Mails enthalten das Wort „urgent“ (P(Urgent | Nicht Spam) = 0.1).

Frage:
Wenn eine E-Mail das Wort "urgent" enthält, wie hoch ist die Wahrscheinlichkeit, dass es sich um Spam handelt (P(Spam | Urgent))?

Markow-Prozesse: Vorhersage der Zukunft

Was ist eine Markow-Kette?

Eine Markow-Kette ist ein mathematisches Modell, bei dem der nächste Zustand nur vom aktuellen Zustand abhängt und nicht von den vorherigen. Sie wird in der KI häufig verwendet, um sequenzielle Daten und Entscheidungsprozesse zu modellieren. Hier sind die wichtigsten Formeln, die in Markow-Prozessen verwendet werden:

1. Übergangswahrscheinlichkeitsformel
Die Wahrscheinlichkeit, dass sich ein System zum Zeitpunkt tt im Zustand SjS_j befindet, gegeben den vorherigen Zustand SiS_i zum Zeitpunkt t1t-1:

P(SjSi)=TijP(S_j|S_i)=T_{ij}

wobei TijT_{ij} die Übergangswahrscheinlichkeit vom Zustand SiS_i zu SjS_j ist;

2. Zustandswahrscheinlichkeits-Update
Die Wahrscheinlichkeitsverteilung über die Zustände zum Zeitpunkt tt:

Pt=Pt1TP_t=P_{t-1}\cdot T

wobei:

  • PtP_t die Zustandswahrscheinlichkeit zum Zeitpunkt tt ist.
  • Pt1P_{t-1} die Zustandswahrscheinlichkeit zum Zeitpunkt t1t-1 ist.
  • TT die Übergangsmatrix ist.

3. Stationäre Wahrscheinlichkeit (Langzeitverhalten)
Für einen lang andauernden Markov-Prozess erfüllt die stationäre Wahrscheinlichkeit PsP_s die folgende Gleichung:

Ps=PsTP_s=P_s \cdot T

Diese Gleichung wird gelöst, um die Gleichgewichtsverteilung zu finden, bei der sich die Wahrscheinlichkeiten im Zeitverlauf nicht mehr ändern.

Problemstellung: In einer bestimmten Stadt wechselt das Wetter zwischen sonnigen und regnerischen Tagen. Die Übergangswahrscheinlichkeiten zwischen diesen Zuständen sind durch die folgende Übergangsmatrix gegeben:

T=[0.70.30.60.4]T = \begin{bmatrix} 0.7&0.3\\0.6&0.4 \end{bmatrix}

Dabei gilt:

  • 0.7 ist die Wahrscheinlichkeit, dass auf einen sonnigen Tag erneut ein sonniger Tag folgt;
  • 0.3 ist die Wahrscheinlichkeit, dass ein sonniger Tag in einen regnerischen Tag übergeht;
  • 0.6 ist die Wahrscheinlichkeit, dass ein regnerischer Tag in einen sonnigen Tag übergeht;
  • 0.4 ist die Wahrscheinlichkeit, dass auf einen regnerischen Tag erneut ein regnerischer Tag folgt.

Wenn das heutige Wetter sonnig ist, wie groß ist die Wahrscheinlichkeit, dass es in zwei Tagen regnerisch ist?

Markow-Entscheidungsprozesse (MDPs): KI das Treffen von Entscheidungen beibringen

MDPs erweitern Markow-Ketten durch die Einführung von Aktionen und Belohnungen, wodurch KI optimale Entscheidungen treffen kann, anstatt nur Zustände vorherzusagen.

Beispiel: Ein Roboter in einem Labyrinth

Ein Roboter, der ein Labyrinth durchquert, lernt, welche Wege zum Ausgang führen, indem er Folgendes berücksichtigt:

  • Aktionen: nach links, rechts, oben oder unten bewegen;
  • Belohnungen: erfolgreiches Erreichen des Ziels, gegen eine Wand stoßen oder auf ein Hindernis treffen;
  • Optimale Strategie: Auswahl von Aktionen, die die Belohnung maximieren.

MDPs werden häufig in Spiel-KI, Robotik und Empfehlungssystemen eingesetzt, um Entscheidungsfindung zu optimieren.

Versteckte Markow-Modelle (HMMs): Verborgene Muster erkennen

Ein HMM ist ein Markow-Modell, bei dem einige Zustände verborgen sind und die KI diese anhand beobachteter Daten erschließen muss.

Beispiel: Spracherkennung

Wenn Sie mit Siri oder Alexa sprechen, sieht die KI die Wörter nicht direkt. Stattdessen verarbeitet sie Schallwellen und versucht, die wahrscheinlichste Wortfolge zu bestimmen.

HMMs sind unerlässlich für:

  • Sprach- und Texterkennung: KI entschlüsselt gesprochene Sprache und Handschrift;
  • Aktienmarktprognosen: KI modelliert verborgene Trends, um Marktschwankungen vorherzusagen;
  • Robotik und Spiele: KI-gesteuerte Agenten erschließen verborgene Zustände aus beobachtbaren Ereignissen.

Fazit

Bayessche Inferenz bietet eine präzise Methode zur Aktualisierung von Überzeugungen in KI-Modellen, während Markow-Prozesse leistungsstarke Werkzeuge zur Modellierung sequentieller Abhängigkeiten bereitstellen. Diese Prinzipien bilden die Grundlage wichtiger generativer KI-Anwendungen, einschließlich Verstärkungslernen, probabilistischer grafischer Modelle und strukturierter Sequenzgenerierung.

1. Was ist die Hauptaufgabe der Bayesschen Inferenz in der KI?

2. Was berücksichtigt eine KI bei der Entscheidungsfindung in einem Markow-Entscheidungsprozess?

3. Welche der folgenden Anwendungen ist ein Anwendungsfall für versteckte Markow-Modelle?

question mark

Was ist die Hauptaufgabe der Bayesschen Inferenz in der KI?

Select the correct answer

question mark

Was berücksichtigt eine KI bei der Entscheidungsfindung in einem Markow-Entscheidungsprozess?

Select the correct answer

question mark

Welche der folgenden Anwendungen ist ein Anwendungsfall für versteckte Markow-Modelle?

Select the correct answer

War alles klar?

Wie können wir es verbessern?

Danke für Ihr Feedback!

Abschnitt 2. Kapitel 2

Fragen Sie AI

expand

Fragen Sie AI

ChatGPT

Fragen Sie alles oder probieren Sie eine der vorgeschlagenen Fragen, um unser Gespräch zu beginnen

Awesome!

Completion rate improved to 4.76

bookBayessche Inferenz und Markow-Prozesse

Swipe um das Menü anzuzeigen

Verständnis der Bayesschen Inferenz in der KI

Was ist Bayessche Inferenz?

Die Bayessche Inferenz ist eine statistische Methode zur Aktualisierung von Wahrscheinlichkeiten auf Basis neuer Evidenz. KI-Systeme nutzen die Bayessche Inferenz, um ihre Vorhersagen zu verfeinern, sobald sie mehr Daten sammeln.

Stellen Sie sich vor, Sie sagen das Wetter voraus. In Ihrer Stadt ist es normalerweise sonnig, aber Sie sehen dunkle Wolken aufziehen, daher passen Sie Ihre Erwartung an und prognostizieren Regen. So funktioniert die Bayessche Inferenz – sie beginnt mit einer anfänglichen Annahme (Prior), bezieht neue Daten ein und aktualisiert die Annahme entsprechend.

P(HD)=P(DH)P(H)P(D)P(H|D)=\frac{P(D|H)\cdot P(H)}{P(D)}

wobei:

  • P(HD)P(H|D) die posterior probability ist, die aktualisierte Wahrscheinlichkeit der Hypothese HH gegeben den Daten DD;
  • P(DH)P(D|H) die likelihood ist, die angibt, wie gut die Hypothese HH die Daten DD erklärt;
  • P(H)P(H) die prior probability ist, die anfängliche Annahme vor Beobachtung von DD;
  • P(D)P(D) die marginal likelihood ist, die als Normalisierungskonstante dient.

Problemstellung: Ein KI-Spamfilter verwendet die Bayessche Klassifikation.

  • 20% der E-Mails sind Spam (P(Spam) = 0.2);
  • 80% der E-Mails sind kein Spam (P(Nicht Spam) = 0.8);
  • 90% der Spam-E-Mails enthalten das Wort „urgent“ (P(Urgent | Spam) = 0.9);
  • 10% der regulären E-Mails enthalten das Wort „urgent“ (P(Urgent | Nicht Spam) = 0.1).

Frage:
Wenn eine E-Mail das Wort "urgent" enthält, wie hoch ist die Wahrscheinlichkeit, dass es sich um Spam handelt (P(Spam | Urgent))?

Markow-Prozesse: Vorhersage der Zukunft

Was ist eine Markow-Kette?

Eine Markow-Kette ist ein mathematisches Modell, bei dem der nächste Zustand nur vom aktuellen Zustand abhängt und nicht von den vorherigen. Sie wird in der KI häufig verwendet, um sequenzielle Daten und Entscheidungsprozesse zu modellieren. Hier sind die wichtigsten Formeln, die in Markow-Prozessen verwendet werden:

1. Übergangswahrscheinlichkeitsformel
Die Wahrscheinlichkeit, dass sich ein System zum Zeitpunkt tt im Zustand SjS_j befindet, gegeben den vorherigen Zustand SiS_i zum Zeitpunkt t1t-1:

P(SjSi)=TijP(S_j|S_i)=T_{ij}

wobei TijT_{ij} die Übergangswahrscheinlichkeit vom Zustand SiS_i zu SjS_j ist;

2. Zustandswahrscheinlichkeits-Update
Die Wahrscheinlichkeitsverteilung über die Zustände zum Zeitpunkt tt:

Pt=Pt1TP_t=P_{t-1}\cdot T

wobei:

  • PtP_t die Zustandswahrscheinlichkeit zum Zeitpunkt tt ist.
  • Pt1P_{t-1} die Zustandswahrscheinlichkeit zum Zeitpunkt t1t-1 ist.
  • TT die Übergangsmatrix ist.

3. Stationäre Wahrscheinlichkeit (Langzeitverhalten)
Für einen lang andauernden Markov-Prozess erfüllt die stationäre Wahrscheinlichkeit PsP_s die folgende Gleichung:

Ps=PsTP_s=P_s \cdot T

Diese Gleichung wird gelöst, um die Gleichgewichtsverteilung zu finden, bei der sich die Wahrscheinlichkeiten im Zeitverlauf nicht mehr ändern.

Problemstellung: In einer bestimmten Stadt wechselt das Wetter zwischen sonnigen und regnerischen Tagen. Die Übergangswahrscheinlichkeiten zwischen diesen Zuständen sind durch die folgende Übergangsmatrix gegeben:

T=[0.70.30.60.4]T = \begin{bmatrix} 0.7&0.3\\0.6&0.4 \end{bmatrix}

Dabei gilt:

  • 0.7 ist die Wahrscheinlichkeit, dass auf einen sonnigen Tag erneut ein sonniger Tag folgt;
  • 0.3 ist die Wahrscheinlichkeit, dass ein sonniger Tag in einen regnerischen Tag übergeht;
  • 0.6 ist die Wahrscheinlichkeit, dass ein regnerischer Tag in einen sonnigen Tag übergeht;
  • 0.4 ist die Wahrscheinlichkeit, dass auf einen regnerischen Tag erneut ein regnerischer Tag folgt.

Wenn das heutige Wetter sonnig ist, wie groß ist die Wahrscheinlichkeit, dass es in zwei Tagen regnerisch ist?

Markow-Entscheidungsprozesse (MDPs): KI das Treffen von Entscheidungen beibringen

MDPs erweitern Markow-Ketten durch die Einführung von Aktionen und Belohnungen, wodurch KI optimale Entscheidungen treffen kann, anstatt nur Zustände vorherzusagen.

Beispiel: Ein Roboter in einem Labyrinth

Ein Roboter, der ein Labyrinth durchquert, lernt, welche Wege zum Ausgang führen, indem er Folgendes berücksichtigt:

  • Aktionen: nach links, rechts, oben oder unten bewegen;
  • Belohnungen: erfolgreiches Erreichen des Ziels, gegen eine Wand stoßen oder auf ein Hindernis treffen;
  • Optimale Strategie: Auswahl von Aktionen, die die Belohnung maximieren.

MDPs werden häufig in Spiel-KI, Robotik und Empfehlungssystemen eingesetzt, um Entscheidungsfindung zu optimieren.

Versteckte Markow-Modelle (HMMs): Verborgene Muster erkennen

Ein HMM ist ein Markow-Modell, bei dem einige Zustände verborgen sind und die KI diese anhand beobachteter Daten erschließen muss.

Beispiel: Spracherkennung

Wenn Sie mit Siri oder Alexa sprechen, sieht die KI die Wörter nicht direkt. Stattdessen verarbeitet sie Schallwellen und versucht, die wahrscheinlichste Wortfolge zu bestimmen.

HMMs sind unerlässlich für:

  • Sprach- und Texterkennung: KI entschlüsselt gesprochene Sprache und Handschrift;
  • Aktienmarktprognosen: KI modelliert verborgene Trends, um Marktschwankungen vorherzusagen;
  • Robotik und Spiele: KI-gesteuerte Agenten erschließen verborgene Zustände aus beobachtbaren Ereignissen.

Fazit

Bayessche Inferenz bietet eine präzise Methode zur Aktualisierung von Überzeugungen in KI-Modellen, während Markow-Prozesse leistungsstarke Werkzeuge zur Modellierung sequentieller Abhängigkeiten bereitstellen. Diese Prinzipien bilden die Grundlage wichtiger generativer KI-Anwendungen, einschließlich Verstärkungslernen, probabilistischer grafischer Modelle und strukturierter Sequenzgenerierung.

1. Was ist die Hauptaufgabe der Bayesschen Inferenz in der KI?

2. Was berücksichtigt eine KI bei der Entscheidungsfindung in einem Markow-Entscheidungsprozess?

3. Welche der folgenden Anwendungen ist ein Anwendungsfall für versteckte Markow-Modelle?

question mark

Was ist die Hauptaufgabe der Bayesschen Inferenz in der KI?

Select the correct answer

question mark

Was berücksichtigt eine KI bei der Entscheidungsfindung in einem Markow-Entscheidungsprozess?

Select the correct answer

question mark

Welche der folgenden Anwendungen ist ein Anwendungsfall für versteckte Markow-Modelle?

Select the correct answer

War alles klar?

Wie können wir es verbessern?

Danke für Ihr Feedback!

Abschnitt 2. Kapitel 2
some-alt