Завдання: Створення Перцептрона
Для побудови багатошарового перцептрона (MLP) доцільно визначити клас Perceptron. Він зберігає список об'єктів Layer, які складають мережу:
class Perceptron:
def __init__(self, layers):
self.layers = layers
MLP використовує три значення:
input_size: кількість вхідних ознак;hidden_size: кількість нейронів у кожному прихованому шарі;output_size: кількість нейронів у вихідному шарі.
Таким чином, модель складається з:
- Вхідного шару;
- Двох прихованих шарів (однакова кількість нейронів, ReLU);
- Вихідного шару (сигмоїда).
Swipe to start coding
Ваше завдання — реалізувати базову структуру цієї багатошарової нейронної мережі (MLP).
1. Ініціалізація параметрів шару (__init__)
- Створити матрицю ваг розміром
(n_neurons, n_inputs); - Створити вектор зсувів (bias) розміром
(n_neurons, 1); - Заповнити їх випадковими значеннями в діапазоні [-1, 1) за допомогою
np.random.uniform().
2. Реалізація прямого поширення (forward)
- Обчислити сирі виходи нейронів:
np.dot(self.weights, self.inputs) + self.biases
- Застосувати призначену активаційну функцію та повернути результат.
3. Визначення шарів MLP
- Два приховані шари, кожен з
hidden_sizeнейронами та активацією ReLU; - Один вихідний шар з
output_sizeнейронами та активацією sigmoid.
Рішення
Дякуємо за ваш відгук!
single
Запитати АІ
Запитати АІ
Запитайте про що завгодно або спробуйте одне із запропонованих запитань, щоб почати наш чат
Can you explain how to implement the Layer class for this MLP?
What activation functions should I use for each layer?
How do I connect the layers together in the Perceptron class?
Awesome!
Completion rate improved to 4
Завдання: Створення Перцептрона
Свайпніть щоб показати меню
Для побудови багатошарового перцептрона (MLP) доцільно визначити клас Perceptron. Він зберігає список об'єктів Layer, які складають мережу:
class Perceptron:
def __init__(self, layers):
self.layers = layers
MLP використовує три значення:
input_size: кількість вхідних ознак;hidden_size: кількість нейронів у кожному прихованому шарі;output_size: кількість нейронів у вихідному шарі.
Таким чином, модель складається з:
- Вхідного шару;
- Двох прихованих шарів (однакова кількість нейронів, ReLU);
- Вихідного шару (сигмоїда).
Swipe to start coding
Ваше завдання — реалізувати базову структуру цієї багатошарової нейронної мережі (MLP).
1. Ініціалізація параметрів шару (__init__)
- Створити матрицю ваг розміром
(n_neurons, n_inputs); - Створити вектор зсувів (bias) розміром
(n_neurons, 1); - Заповнити їх випадковими значеннями в діапазоні [-1, 1) за допомогою
np.random.uniform().
2. Реалізація прямого поширення (forward)
- Обчислити сирі виходи нейронів:
np.dot(self.weights, self.inputs) + self.biases
- Застосувати призначену активаційну функцію та повернути результат.
3. Визначення шарів MLP
- Два приховані шари, кожен з
hidden_sizeнейронами та активацією ReLU; - Один вихідний шар з
output_sizeнейронами та активацією sigmoid.
Рішення
Дякуємо за ваш відгук!
single