Notice: This page requires JavaScript to function properly.
Please enable JavaScript in your browser settings or update your browser.
Impara Sfida: Creazione di un Percettrone | Rete Neurale da Zero
Introduzione alle Reti Neurali con Python

bookSfida: Creazione di un Percettrone

Per costruire un percettrone multistrato (MLP), è utile definire una classe Perceptron. Questa memorizza una lista di oggetti Layer che costituiscono la rete:

class Perceptron:
    def __init__(self, layers):
        self.layers = layers

L'MLP utilizzerà tre valori:

  • input_size: numero di caratteristiche in ingresso;
  • hidden_size: numero di neuroni in ciascun livello nascosto;
  • output_size: numero di neuroni nel livello di uscita.

Quindi, il modello è composto da:

  1. Un livello di input;
  2. Due livelli nascosti (stesso numero di neuroni, ReLU);
  3. Un livello di output (sigmoide).
Compito

Swipe to start coding

Il tuo compito è implementare la struttura di base di questo MLP.

1. Inizializzazione dei parametri del layer (__init__)

  • Creare una matrice dei pesi di forma (n_neurons, n_inputs);
  • Creare un vettore dei bias di forma (n_neurons, 1);
  • Riempirli con valori casuali in [-1, 1) utilizzando np.random.uniform().

2. Implementazione della propagazione in avanti (forward)

  • Calcolare le uscite grezze dei neuroni:
np.dot(self.weights, self.inputs) + self.biases
  • Applicare la funzione di attivazione assegnata e restituire l'output.

3. Definizione dei layer dell'MLP

  • Due layer nascosti, ciascuno con hidden_size neuroni e attivazione ReLU;
  • Un layer di output con output_size neuroni e attivazione sigmoide.

Soluzione

Tutto è chiaro?

Come possiamo migliorarlo?

Grazie per i tuoi commenti!

Sezione 2. Capitolo 4
single

single

Chieda ad AI

expand

Chieda ad AI

ChatGPT

Chieda pure quello che desidera o provi una delle domande suggerite per iniziare la nostra conversazione

close

bookSfida: Creazione di un Percettrone

Scorri per mostrare il menu

Per costruire un percettrone multistrato (MLP), è utile definire una classe Perceptron. Questa memorizza una lista di oggetti Layer che costituiscono la rete:

class Perceptron:
    def __init__(self, layers):
        self.layers = layers

L'MLP utilizzerà tre valori:

  • input_size: numero di caratteristiche in ingresso;
  • hidden_size: numero di neuroni in ciascun livello nascosto;
  • output_size: numero di neuroni nel livello di uscita.

Quindi, il modello è composto da:

  1. Un livello di input;
  2. Due livelli nascosti (stesso numero di neuroni, ReLU);
  3. Un livello di output (sigmoide).
Compito

Swipe to start coding

Il tuo compito è implementare la struttura di base di questo MLP.

1. Inizializzazione dei parametri del layer (__init__)

  • Creare una matrice dei pesi di forma (n_neurons, n_inputs);
  • Creare un vettore dei bias di forma (n_neurons, 1);
  • Riempirli con valori casuali in [-1, 1) utilizzando np.random.uniform().

2. Implementazione della propagazione in avanti (forward)

  • Calcolare le uscite grezze dei neuroni:
np.dot(self.weights, self.inputs) + self.biases
  • Applicare la funzione di attivazione assegnata e restituire l'output.

3. Definizione dei layer dell'MLP

  • Due layer nascosti, ciascuno con hidden_size neuroni e attivazione ReLU;
  • Un layer di output con output_size neuroni e attivazione sigmoide.

Soluzione

Switch to desktopCambia al desktop per esercitarti nel mondo realeContinua da dove ti trovi utilizzando una delle opzioni seguenti
Tutto è chiaro?

Come possiamo migliorarlo?

Grazie per i tuoi commenti!

Sezione 2. Capitolo 4
single

single

some-alt