Notice: This page requires JavaScript to function properly.
Please enable JavaScript in your browser settings or update your browser.
Lernen Herausforderung: Erstellung von Wort-Einbettungen | Wort-Einbettungen
Einführung in NLP
course content

Kursinhalt

Einführung in NLP

Einführung in NLP

1. Grundlagen der Textvorverarbeitung
2. Stemming und Lemmatisierung
3. Grundlegende Textmodelle
4. Wort-Einbettungen

book
Herausforderung: Erstellung von Wort-Einbettungen

Aufgabe

Swipe to start coding

Jetzt ist es an der Zeit, dass Sie ein Word2Vec-Modell trainieren, um Wort-Embeddings für das gegebene Korpus zu generieren:

  1. Importieren Sie die Klasse zur Erstellung eines Word2Vec-Modells.
  2. Tokenisieren Sie jeden Satz in der 'Document'-Spalte des corpus, indem Sie jeden Satz in durch Leerzeichen getrennte Wörter aufteilen. Speichern Sie das Ergebnis in der Variablen sentences.
  3. Initialisieren Sie das Word2Vec-Modell, indem Sie sentences als erstes Argument übergeben und die folgenden Werte als Schlüsselwortargumente in dieser Reihenfolge festlegen:
    • Embedding-Größe: 50;
    • Kontextfenstergröße: 2;
    • minimale Häufigkeit der Wörter, die im Modell enthalten sein sollen: 1;
    • Modell: Skip-Gram.
  4. Drucken Sie die Top-3 der ähnlichsten Wörter zum Wort 'bowl'.

Lösung

Switch to desktopWechseln Sie zum Desktop, um in der realen Welt zu übenFahren Sie dort fort, wo Sie sind, indem Sie eine der folgenden Optionen verwenden
War alles klar?

Wie können wir es verbessern?

Danke für Ihr Feedback!

Abschnitt 4. Kapitel 4
toggle bottom row

book
Herausforderung: Erstellung von Wort-Einbettungen

Aufgabe

Swipe to start coding

Jetzt ist es an der Zeit, dass Sie ein Word2Vec-Modell trainieren, um Wort-Embeddings für das gegebene Korpus zu generieren:

  1. Importieren Sie die Klasse zur Erstellung eines Word2Vec-Modells.
  2. Tokenisieren Sie jeden Satz in der 'Document'-Spalte des corpus, indem Sie jeden Satz in durch Leerzeichen getrennte Wörter aufteilen. Speichern Sie das Ergebnis in der Variablen sentences.
  3. Initialisieren Sie das Word2Vec-Modell, indem Sie sentences als erstes Argument übergeben und die folgenden Werte als Schlüsselwortargumente in dieser Reihenfolge festlegen:
    • Embedding-Größe: 50;
    • Kontextfenstergröße: 2;
    • minimale Häufigkeit der Wörter, die im Modell enthalten sein sollen: 1;
    • Modell: Skip-Gram.
  4. Drucken Sie die Top-3 der ähnlichsten Wörter zum Wort 'bowl'.

Lösung

Switch to desktopWechseln Sie zum Desktop, um in der realen Welt zu übenFahren Sie dort fort, wo Sie sind, indem Sie eine der folgenden Optionen verwenden
War alles klar?

Wie können wir es verbessern?

Danke für Ihr Feedback!

Abschnitt 4. Kapitel 4
Switch to desktopWechseln Sie zum Desktop, um in der realen Welt zu übenFahren Sie dort fort, wo Sie sind, indem Sie eine der folgenden Optionen verwenden
We're sorry to hear that something went wrong. What happened?
some-alt