Notice: This page requires JavaScript to function properly.
Please enable JavaScript in your browser settings or update your browser.
Вивчайте Виклик: Створення Перцептрона | Розділ
Основи нейронних мереж
Секція 1. Розділ 11
single

single

bookВиклик: Створення Перцептрона

Свайпніть щоб показати меню

Для побудови багатошарового перцептрона (MLP) доцільно визначити клас Perceptron. Він зберігає список об'єктів Layer, які складають мережу:

class Perceptron:
    def __init__(self, layers):
        self.layers = layers

MLP використовує три значення:

  • input_size: кількість вхідних ознак;
  • hidden_size: кількість нейронів у кожному прихованому шарі;
  • output_size: кількість нейронів у вихідному шарі.

Таким чином, модель складається з:

  1. Вхідного шару;
  2. Двох прихованих шарів (однакова кількість нейронів, ReLU);
  3. Вихідного шару (сигмоїда).
Завдання

Swipe to start coding

Ваше завдання — реалізувати базову структуру цієї багатошарової нейронної мережі (MLP).

1. Ініціалізація параметрів шару (__init__)

  • Створіть матрицю ваг розміром (n_neurons, n_inputs);
  • Створіть вектор зсувів (bias) розміром (n_neurons, 1);
  • Заповніть їх випадковими значеннями в діапазоні [-1, 1) за допомогою np.random.uniform().

2. Реалізація прямого поширення (forward)

  • Обчисліть сирі виходи нейронів:
np.dot(self.weights, self.inputs) + self.biases
  • Застосуйте призначену активаційну функцію та поверніть результат.

3. Визначення шарів MLP

  • Два приховані шари, кожен з hidden_size нейронами та активацією ReLU;
  • Один вихідний шар з output_size нейронами та активацією sigmoid.

Рішення

Switch to desktopПерейдіть на комп'ютер для реальної практикиПродовжуйте з того місця, де ви зупинились, використовуючи один з наведених нижче варіантів
Все було зрозуміло?

Як ми можемо покращити це?

Дякуємо за ваш відгук!

Секція 1. Розділ 11
single

single

Запитати АІ

expand

Запитати АІ

ChatGPT

Запитайте про що завгодно або спробуйте одне із запропонованих запитань, щоб почати наш чат

some-alt