Завдання: Створення Перцептрона
Оскільки мета полягає у створенні багатошарового перцептрона, визначення класу Perceptron допомагає ефективно організувати та ініціалізувати модель. Клас міститиме одну атрибуту, layers, яка є списком об'єктів Layer, що представляють структуру мережі:
class Perceptron:
def __init__(self, layers):
self.layers = layers
Змінні, які використовуються для ініціалізації шарів:
input_size: кількість вхідних ознак;hidden_size: кількість нейронів у кожному прихованому шарі (у цьому випадку обидва приховані шари матимуть однакову кількість нейронів);output_size: кількість нейронів у вихідному шарі.
Структура отриманого багатошарового перцептрона включатиме:
- Вхідний шар → отримує дані;
- Два приховані шари → обробляють вхідні дані та виділяють закономірності;
- Вихідний шар → формує фінальний прогноз.
Swipe to start coding
Ваша мета — налаштувати базову структуру багатошарового перцептрона (MLP), реалізувавши код для його шарів.
Дотримуйтесь наступних кроків:
- Ініціалізуйте параметри шару у методі
__init__():
- Створіть матрицю ваг розміром
(n_neurons, n_inputs); - Створіть вектор зсувів (bias) розміром
(n_neurons, 1);- Заповніть обидва випадковими значеннями з рівномірного розподілу в діапазоні [−1,1) за допомогою
np.random.uniform().
- Заповніть обидва випадковими значеннями з рівномірного розподілу в діапазоні [−1,1) за допомогою
- Реалізуйте пряме поширення (forward propagation) у методі
forward():
- Обчисліть сире значення виходу кожного нейрона за допомогою скалярного добутку:
np.dot(self.weights, self.inputs) + self.biases
- Застосуйте призначену активаційну функцію до цього результату та поверніть активований вихід.
- Визначте шари перцептрона:
- Створіть два приховані шари, кожен з
hidden_sizeнейронами та з активаційною функцією ReLU; - Створіть один вихідний шар з
output_sizeнейроном(ами) та активаційною функцією sigmoid.
Рішення
Дякуємо за ваш відгук!
single
Запитати АІ
Запитати АІ
Запитайте про що завгодно або спробуйте одне із запропонованих запитань, щоб почати наш чат
Can you explain how the `Layer` class should be defined?
What activation functions are typically used in the hidden and output layers?
How do I initialize the layers using `input_size`, `hidden_size`, and `output_size`?
Awesome!
Completion rate improved to 4
Завдання: Створення Перцептрона
Свайпніть щоб показати меню
Оскільки мета полягає у створенні багатошарового перцептрона, визначення класу Perceptron допомагає ефективно організувати та ініціалізувати модель. Клас міститиме одну атрибуту, layers, яка є списком об'єктів Layer, що представляють структуру мережі:
class Perceptron:
def __init__(self, layers):
self.layers = layers
Змінні, які використовуються для ініціалізації шарів:
input_size: кількість вхідних ознак;hidden_size: кількість нейронів у кожному прихованому шарі (у цьому випадку обидва приховані шари матимуть однакову кількість нейронів);output_size: кількість нейронів у вихідному шарі.
Структура отриманого багатошарового перцептрона включатиме:
- Вхідний шар → отримує дані;
- Два приховані шари → обробляють вхідні дані та виділяють закономірності;
- Вихідний шар → формує фінальний прогноз.
Swipe to start coding
Ваша мета — налаштувати базову структуру багатошарового перцептрона (MLP), реалізувавши код для його шарів.
Дотримуйтесь наступних кроків:
- Ініціалізуйте параметри шару у методі
__init__():
- Створіть матрицю ваг розміром
(n_neurons, n_inputs); - Створіть вектор зсувів (bias) розміром
(n_neurons, 1);- Заповніть обидва випадковими значеннями з рівномірного розподілу в діапазоні [−1,1) за допомогою
np.random.uniform().
- Заповніть обидва випадковими значеннями з рівномірного розподілу в діапазоні [−1,1) за допомогою
- Реалізуйте пряме поширення (forward propagation) у методі
forward():
- Обчисліть сире значення виходу кожного нейрона за допомогою скалярного добутку:
np.dot(self.weights, self.inputs) + self.biases
- Застосуйте призначену активаційну функцію до цього результату та поверніть активований вихід.
- Визначте шари перцептрона:
- Створіть два приховані шари, кожен з
hidden_sizeнейронами та з активаційною функцією ReLU; - Створіть один вихідний шар з
output_sizeнейроном(ами) та активаційною функцією sigmoid.
Рішення
Дякуємо за ваш відгук!
single