Kursinhalt
Einführung in NLP
Einführung in NLP
2. Stemming und Lemmatisierung
Herausforderung: Erstellung von Wort-Einbettungen
Aufgabe
Swipe to start coding
Jetzt ist es an der Zeit, dass Sie ein Word2Vec-Modell trainieren, um Wort-Embeddings für das gegebene Korpus zu generieren:
- Importieren Sie die Klasse zur Erstellung eines Word2Vec-Modells.
- Tokenisieren Sie jeden Satz in der
'Document'
-Spalte descorpus
, indem Sie jeden Satz in durch Leerzeichen getrennte Wörter aufteilen. Speichern Sie das Ergebnis in der Variablensentences
. - Initialisieren Sie das Word2Vec-Modell, indem Sie
sentences
als erstes Argument übergeben und die folgenden Werte als Schlüsselwortargumente in dieser Reihenfolge festlegen:- Embedding-Größe: 50;
- Kontextfenstergröße: 2;
- minimale Häufigkeit der Wörter, die im Modell enthalten sein sollen: 1;
- Modell: Skip-Gram.
- Drucken Sie die Top-3 der ähnlichsten Wörter zum Wort 'bowl'.
Lösung
War alles klar?
Danke für Ihr Feedback!
Abschnitt 4. Kapitel 4
Herausforderung: Erstellung von Wort-Einbettungen
Aufgabe
Swipe to start coding
Jetzt ist es an der Zeit, dass Sie ein Word2Vec-Modell trainieren, um Wort-Embeddings für das gegebene Korpus zu generieren:
- Importieren Sie die Klasse zur Erstellung eines Word2Vec-Modells.
- Tokenisieren Sie jeden Satz in der
'Document'
-Spalte descorpus
, indem Sie jeden Satz in durch Leerzeichen getrennte Wörter aufteilen. Speichern Sie das Ergebnis in der Variablensentences
. - Initialisieren Sie das Word2Vec-Modell, indem Sie
sentences
als erstes Argument übergeben und die folgenden Werte als Schlüsselwortargumente in dieser Reihenfolge festlegen:- Embedding-Größe: 50;
- Kontextfenstergröße: 2;
- minimale Häufigkeit der Wörter, die im Modell enthalten sein sollen: 1;
- Modell: Skip-Gram.
- Drucken Sie die Top-3 der ähnlichsten Wörter zum Wort 'bowl'.
Lösung
War alles klar?
Danke für Ihr Feedback!
Abschnitt 4. Kapitel 4