Notice: This page requires JavaScript to function properly.
Please enable JavaScript in your browser settings or update your browser.
Oppiskele Yksittäisen Neuronin Toteutus | Neuroverkon Rakentaminen Alusta Alkaen
Johdatus neuroverkkoihin

bookYksittäisen Neuronin Toteutus

Note
Määritelmä

Neuroni on neuroverkon peruslaskentayksikkö. Se käsittelee useita syötteitä ja tuottaa yhden ulostulon, mahdollistaen verkon oppimisen ja ennusteiden tekemisen.

Tässä vaiheessa rakennetaan neuroverkko, jossa on vain yksi neuroni. Esimerkkinä käytetään binääriluokittelutehtävää, kuten roskapostin tunnistusta, jossa 0 tarkoittaa tavallista (ei-roskaposti) sähköpostia ja 1 tarkoittaa roskapostia.

Neuroni ottaa syötteinä sähköposteihin liittyviä numeerisia piirteitä ja tuottaa ulostulon väliltä 0 ja 1, mikä kuvaa todennäköisyyttä, että sähköposti on roskapostia.

Vaiheittainen eteneminen:

  1. Jokainen syöte kerrotaan vastaavalla painolla. Painot ovat opittavia parametreja, jotka määrittävät kunkin syötteen merkityksen;
  2. Kaikki painotetut syötteet lasketaan yhteen;
  3. Lisätään ylimääräinen parametri nimeltä bias syötesummaan. Bias mahdollistaa neuronin ulostulon siirtämisen ylös- tai alaspäin, mikä tuo mallille joustavuutta;
  4. Syötesumma syötetään aktivointifunktion läpi. Koska käytössä on vain yksi neuroni, joka tuottaa suoraan lopullisen ulostulon (todennäköisyyden), käytetään sigmoidifunktiota, joka puristaa arvot välille (0,1)(0, 1).
Note
Huomio

Neuronin bias on myös opetettava parametri.

Neuroniluokka

Neuronin täytyy tallentaa painonsa ja biasinsa, joten luokka on luonnollinen tapa ryhmitellä nämä ominaisuudet.

Note
Huomio

Vaikka tämä luokka ei ole osa lopullista neuroverkkototeutusta, se havainnollistaa tehokkaasti keskeisiä periaatteita.

class Neuron:
    def __init__(self, n_inputs):  
        self.weights = ...
        self.bias = ...
  • weights: lista satunnaisesti alustetuista arvoista, jotka määrittävät, kuinka tärkeä kukin syöte (n_inputs on syötteiden määrä) on neuronille;
  • bias: satunnaisesti alustettu arvo, joka auttaa neuronia tekemään joustavia päätöksiä.

Painot ja bias tulee alustaa satunnaisesti pienillä arvoilla välillä -1 ja 1, käyttäen tasajakaumaa, jotta symmetria rikkoutuu ja eri neuronit oppivat erilaisia piirteitä.

Yhteenvetona, NumPy tarjoaa random.uniform()-funktion, jolla voidaan luoda satunnaisluku tai taulukko (määrittämällä size-argumentti) satunnaislukuja tasajakaumasta annetulla [low, high)-välillä.

import numpy as np

np.random.uniform(low, high, size=...)

Eteenpäinlevitys (Forward Propagation)

Lisäksi Neuron-luokassa tulisi olla activate()-metodi, joka laskee syötteiden painotetun summan ja käyttää aktivointifunktiota (tässä tapauksessa sigmoidia).

Jos meillä on kaksi yhtä pitkää vektoria (weights ja inputs), painotettu summa voidaan laskea näiden vektorien pistetulona:

Tämän avulla painotettu summa voidaan laskea yhdellä koodirivillä käyttämällä numpy.dot()-funktiota, jolloin silmukkaa ei tarvita. Bias voidaan lisätä suoraan tulokseen, jolloin saadaan input_sum_with_bias. Lopullinen tulos lasketaan käyttämällä sigmoidista aktivointifunktiota:

def activate(self, inputs):
    input_sum_with_bias = ...
    output = ...

    return output

Aktivointifunktiot

Sigmoidin kaava on seuraava, missä zz tarkoittaa syötteiden painotettua summaa, johon on lisätty bias (raaka lähtöarvo) tälle neuronille:

σ(z)=11+ez\sigma(z) = \frac1{1 + e^{-z}}

Tämän kaavan avulla sigmoid voidaan toteuttaa yksinkertaisena funktiona Pythonissa:

def sigmoid(z):
    return 1 / (1 + np.exp(-z))

ReLU-funktion kaava on seuraava; se asettaa lähtöarvoksi zz, jos se on positiivinen, ja 0 muuten:

ReLU(z)=max(0,z)ReLU(z) = max(0, z)
def relu(z):
    return np.maximum(0, z)

1. Mikä on bias-termiin rooli yksittäisessä neuronissa?

2. Miksi painot alustetaan pienillä satunnaisilla arvoilla nollien sijaan?

question mark

Mikä on bias-termiin rooli yksittäisessä neuronissa?

Select the correct answer

question mark

Miksi painot alustetaan pienillä satunnaisilla arvoilla nollien sijaan?

Select the correct answer

Oliko kaikki selvää?

Miten voimme parantaa sitä?

Kiitos palautteestasi!

Osio 2. Luku 1

Kysy tekoälyä

expand

Kysy tekoälyä

ChatGPT

Kysy mitä tahansa tai kokeile jotakin ehdotetuista kysymyksistä aloittaaksesi keskustelumme

Suggested prompts:

Can you show me how to complete the Neuron class with random initialization?

How does the activate method work in practice?

Can you explain why we use the sigmoid function for binary classification?

Awesome!

Completion rate improved to 4

bookYksittäisen Neuronin Toteutus

Pyyhkäise näyttääksesi valikon

Note
Määritelmä

Neuroni on neuroverkon peruslaskentayksikkö. Se käsittelee useita syötteitä ja tuottaa yhden ulostulon, mahdollistaen verkon oppimisen ja ennusteiden tekemisen.

Tässä vaiheessa rakennetaan neuroverkko, jossa on vain yksi neuroni. Esimerkkinä käytetään binääriluokittelutehtävää, kuten roskapostin tunnistusta, jossa 0 tarkoittaa tavallista (ei-roskaposti) sähköpostia ja 1 tarkoittaa roskapostia.

Neuroni ottaa syötteinä sähköposteihin liittyviä numeerisia piirteitä ja tuottaa ulostulon väliltä 0 ja 1, mikä kuvaa todennäköisyyttä, että sähköposti on roskapostia.

Vaiheittainen eteneminen:

  1. Jokainen syöte kerrotaan vastaavalla painolla. Painot ovat opittavia parametreja, jotka määrittävät kunkin syötteen merkityksen;
  2. Kaikki painotetut syötteet lasketaan yhteen;
  3. Lisätään ylimääräinen parametri nimeltä bias syötesummaan. Bias mahdollistaa neuronin ulostulon siirtämisen ylös- tai alaspäin, mikä tuo mallille joustavuutta;
  4. Syötesumma syötetään aktivointifunktion läpi. Koska käytössä on vain yksi neuroni, joka tuottaa suoraan lopullisen ulostulon (todennäköisyyden), käytetään sigmoidifunktiota, joka puristaa arvot välille (0,1)(0, 1).
Note
Huomio

Neuronin bias on myös opetettava parametri.

Neuroniluokka

Neuronin täytyy tallentaa painonsa ja biasinsa, joten luokka on luonnollinen tapa ryhmitellä nämä ominaisuudet.

Note
Huomio

Vaikka tämä luokka ei ole osa lopullista neuroverkkototeutusta, se havainnollistaa tehokkaasti keskeisiä periaatteita.

class Neuron:
    def __init__(self, n_inputs):  
        self.weights = ...
        self.bias = ...
  • weights: lista satunnaisesti alustetuista arvoista, jotka määrittävät, kuinka tärkeä kukin syöte (n_inputs on syötteiden määrä) on neuronille;
  • bias: satunnaisesti alustettu arvo, joka auttaa neuronia tekemään joustavia päätöksiä.

Painot ja bias tulee alustaa satunnaisesti pienillä arvoilla välillä -1 ja 1, käyttäen tasajakaumaa, jotta symmetria rikkoutuu ja eri neuronit oppivat erilaisia piirteitä.

Yhteenvetona, NumPy tarjoaa random.uniform()-funktion, jolla voidaan luoda satunnaisluku tai taulukko (määrittämällä size-argumentti) satunnaislukuja tasajakaumasta annetulla [low, high)-välillä.

import numpy as np

np.random.uniform(low, high, size=...)

Eteenpäinlevitys (Forward Propagation)

Lisäksi Neuron-luokassa tulisi olla activate()-metodi, joka laskee syötteiden painotetun summan ja käyttää aktivointifunktiota (tässä tapauksessa sigmoidia).

Jos meillä on kaksi yhtä pitkää vektoria (weights ja inputs), painotettu summa voidaan laskea näiden vektorien pistetulona:

Tämän avulla painotettu summa voidaan laskea yhdellä koodirivillä käyttämällä numpy.dot()-funktiota, jolloin silmukkaa ei tarvita. Bias voidaan lisätä suoraan tulokseen, jolloin saadaan input_sum_with_bias. Lopullinen tulos lasketaan käyttämällä sigmoidista aktivointifunktiota:

def activate(self, inputs):
    input_sum_with_bias = ...
    output = ...

    return output

Aktivointifunktiot

Sigmoidin kaava on seuraava, missä zz tarkoittaa syötteiden painotettua summaa, johon on lisätty bias (raaka lähtöarvo) tälle neuronille:

σ(z)=11+ez\sigma(z) = \frac1{1 + e^{-z}}

Tämän kaavan avulla sigmoid voidaan toteuttaa yksinkertaisena funktiona Pythonissa:

def sigmoid(z):
    return 1 / (1 + np.exp(-z))

ReLU-funktion kaava on seuraava; se asettaa lähtöarvoksi zz, jos se on positiivinen, ja 0 muuten:

ReLU(z)=max(0,z)ReLU(z) = max(0, z)
def relu(z):
    return np.maximum(0, z)

1. Mikä on bias-termiin rooli yksittäisessä neuronissa?

2. Miksi painot alustetaan pienillä satunnaisilla arvoilla nollien sijaan?

question mark

Mikä on bias-termiin rooli yksittäisessä neuronissa?

Select the correct answer

question mark

Miksi painot alustetaan pienillä satunnaisilla arvoilla nollien sijaan?

Select the correct answer

Oliko kaikki selvää?

Miten voimme parantaa sitä?

Kiitos palautteestasi!

Osio 2. Luku 1
some-alt