Notice: This page requires JavaScript to function properly.
Please enable JavaScript in your browser settings or update your browser.
Вивчайте Завдання: Створення Перцептрона | Нейронна Мережа з Нуля
Вступ до нейронних мереж з Python

bookЗавдання: Створення Перцептрона

Для побудови багатошарового перцептрона (MLP) доцільно визначити клас Perceptron. Він зберігає список об'єктів Layer, які складають мережу:

class Perceptron:
    def __init__(self, layers):
        self.layers = layers

MLP використовує три значення:

  • input_size: кількість вхідних ознак;
  • hidden_size: кількість нейронів у кожному прихованому шарі;
  • output_size: кількість нейронів у вихідному шарі.

Таким чином, модель складається з:

  1. Вхідного шару;
  2. Двох прихованих шарів (однакова кількість нейронів, ReLU);
  3. Вихідного шару (сигмоїда).
Завдання

Swipe to start coding

Ваше завдання — реалізувати базову структуру цієї багатошарової нейронної мережі (MLP).

1. Ініціалізація параметрів шару (__init__)

  • Створити матрицю ваг розміром (n_neurons, n_inputs);
  • Створити вектор зсувів (bias) розміром (n_neurons, 1);
  • Заповнити їх випадковими значеннями в діапазоні [-1, 1) за допомогою np.random.uniform().

2. Реалізація прямого поширення (forward)

  • Обчислити сирі виходи нейронів:
np.dot(self.weights, self.inputs) + self.biases
  • Застосувати призначену активаційну функцію та повернути результат.

3. Визначення шарів MLP

  • Два приховані шари, кожен з hidden_size нейронами та активацією ReLU;
  • Один вихідний шар з output_size нейронами та активацією sigmoid.

Рішення

Все було зрозуміло?

Як ми можемо покращити це?

Дякуємо за ваш відгук!

Секція 2. Розділ 4
single

single

Запитати АІ

expand

Запитати АІ

ChatGPT

Запитайте про що завгодно або спробуйте одне із запропонованих запитань, щоб почати наш чат

Suggested prompts:

Can you explain how to implement the Layer class for this MLP?

What activation functions should I use for each layer?

How do I connect the layers together in the Perceptron class?

close

Awesome!

Completion rate improved to 4

bookЗавдання: Створення Перцептрона

Свайпніть щоб показати меню

Для побудови багатошарового перцептрона (MLP) доцільно визначити клас Perceptron. Він зберігає список об'єктів Layer, які складають мережу:

class Perceptron:
    def __init__(self, layers):
        self.layers = layers

MLP використовує три значення:

  • input_size: кількість вхідних ознак;
  • hidden_size: кількість нейронів у кожному прихованому шарі;
  • output_size: кількість нейронів у вихідному шарі.

Таким чином, модель складається з:

  1. Вхідного шару;
  2. Двох прихованих шарів (однакова кількість нейронів, ReLU);
  3. Вихідного шару (сигмоїда).
Завдання

Swipe to start coding

Ваше завдання — реалізувати базову структуру цієї багатошарової нейронної мережі (MLP).

1. Ініціалізація параметрів шару (__init__)

  • Створити матрицю ваг розміром (n_neurons, n_inputs);
  • Створити вектор зсувів (bias) розміром (n_neurons, 1);
  • Заповнити їх випадковими значеннями в діапазоні [-1, 1) за допомогою np.random.uniform().

2. Реалізація прямого поширення (forward)

  • Обчислити сирі виходи нейронів:
np.dot(self.weights, self.inputs) + self.biases
  • Застосувати призначену активаційну функцію та повернути результат.

3. Визначення шарів MLP

  • Два приховані шари, кожен з hidden_size нейронами та активацією ReLU;
  • Один вихідний шар з output_size нейронами та активацією sigmoid.

Рішення

Switch to desktopПерейдіть на комп'ютер для реальної практикиПродовжуйте з того місця, де ви зупинились, використовуючи один з наведених нижче варіантів
Все було зрозуміло?

Як ми можемо покращити це?

Дякуємо за ваш відгук!

Секція 2. Розділ 4
single

single

some-alt