Notice: This page requires JavaScript to function properly.
Please enable JavaScript in your browser settings or update your browser.
Вивчайте Завдання: Лематизація з Використанням POS-Тегування | Стемінг і лематизація
Вступ до NLP

bookЗавдання: Лематизація з Використанням POS-Тегування

Завдання

Swipe to start coding

Вам надано текст у змінній text. Ваше завдання — виконати лематизацію з урахуванням частин мови для цього тексту. Для цього:

  1. Перетворіть text у нижній регістр і збережіть у text_lower.
  2. Токенізуйте рядок text_lower і збережіть результат у tokens.
  3. Завантажте англійські стоп-слова, перетворіть їх у set і збережіть у stop_words.
  4. Відфільтруйте стоп-слова за допомогою list comprehension і збережіть результат у filtered_tokens.
  5. Виконайте POS-тегування за допомогою відповідної функції та збережіть результат у tagged_tokens.
  6. Створіть лематизатор WordNet і збережіть його у lemmatizer.
  7. Проведіть лематизацію токенів з урахуванням їхніх POS-тегів за допомогою list comprehension і збережіть результат у lemmatized_tokens.

Рішення

Все було зрозуміло?

Як ми можемо покращити це?

Дякуємо за ваш відгук!

Секція 2. Розділ 8
single

single

Запитати АІ

expand

Запитати АІ

ChatGPT

Запитайте про що завгодно або спробуйте одне із запропонованих запитань, щоб почати наш чат

Suggested prompts:

Can you explain this in simpler terms?

What are some examples related to this topic?

Where can I learn more about this?

close

Awesome!

Completion rate improved to 3.45

bookЗавдання: Лематизація з Використанням POS-Тегування

Свайпніть щоб показати меню

Завдання

Swipe to start coding

Вам надано текст у змінній text. Ваше завдання — виконати лематизацію з урахуванням частин мови для цього тексту. Для цього:

  1. Перетворіть text у нижній регістр і збережіть у text_lower.
  2. Токенізуйте рядок text_lower і збережіть результат у tokens.
  3. Завантажте англійські стоп-слова, перетворіть їх у set і збережіть у stop_words.
  4. Відфільтруйте стоп-слова за допомогою list comprehension і збережіть результат у filtered_tokens.
  5. Виконайте POS-тегування за допомогою відповідної функції та збережіть результат у tagged_tokens.
  6. Створіть лематизатор WordNet і збережіть його у lemmatizer.
  7. Проведіть лематизацію токенів з урахуванням їхніх POS-тегів за допомогою list comprehension і збережіть результат у lemmatized_tokens.

Рішення

Switch to desktopПерейдіть на комп'ютер для реальної практикиПродовжуйте з того місця, де ви зупинились, використовуючи один з наведених нижче варіантів
Все було зрозуміло?

Як ми можемо покращити це?

Дякуємо за ваш відгук!

Секція 2. Розділ 8
single

single

some-alt