Desafío: Lematización con Etiquetado POS
Tarea
Swipe to start coding
Se proporciona un texto en la variable text. La tarea consiste en realizar una lematización con etiquetas de partes del discurso (POS) sobre este texto. Para ello:
- Convertir
texta minúsculas y guardar el resultado entext_lower. - Tokenizar la cadena
text_lowery guardar el resultado entokens. - Cargar las stop words en inglés, convertirlas en un
sety guardar enstop_words. - Filtrar las stop words utilizando una comprensión de listas y guardar el resultado en
filtered_tokens. - Realizar el etiquetado POS utilizando la función correspondiente y guardar el resultado en
tagged_tokens. - Crear un lematizador de WordNet y guardarlo en
lemmatizer. - Lematizar los tokens teniendo en cuenta sus etiquetas POS mediante una comprensión de listas y guardar el resultado en
lemmatized_tokens.
Solución
¿Todo estuvo claro?
¡Gracias por tus comentarios!
Sección 2. Capítulo 8
single
Pregunte a AI
Pregunte a AI
Pregunte lo que quiera o pruebe una de las preguntas sugeridas para comenzar nuestra charla
Suggested prompts:
Can you explain this in simpler terms?
What are some examples related to this topic?
Where can I learn more about this?
Awesome!
Completion rate improved to 3.45
Desafío: Lematización con Etiquetado POS
Desliza para mostrar el menú
Tarea
Swipe to start coding
Se proporciona un texto en la variable text. La tarea consiste en realizar una lematización con etiquetas de partes del discurso (POS) sobre este texto. Para ello:
- Convertir
texta minúsculas y guardar el resultado entext_lower. - Tokenizar la cadena
text_lowery guardar el resultado entokens. - Cargar las stop words en inglés, convertirlas en un
sety guardar enstop_words. - Filtrar las stop words utilizando una comprensión de listas y guardar el resultado en
filtered_tokens. - Realizar el etiquetado POS utilizando la función correspondiente y guardar el resultado en
tagged_tokens. - Crear un lematizador de WordNet y guardarlo en
lemmatizer. - Lematizar los tokens teniendo en cuenta sus etiquetas POS mediante una comprensión de listas y guardar el resultado en
lemmatized_tokens.
Solución
¿Todo estuvo claro?
¡Gracias por tus comentarios!
Sección 2. Capítulo 8
single