Notice: This page requires JavaScript to function properly.
Please enable JavaScript in your browser settings or update your browser.
Lära Översikt över Artificiella Neurala Nätverk | Teoretiska Grunder
Generativ AI

bookÖversikt över Artificiella Neurala Nätverk

Artificiella neurala nätverk (ANN) utgör grunden för modern generativ AI. De är utformade för att känna igen mönster, lära sig representationer och generera data som efterliknar verkliga fördelningar. Här ges en kortfattad och heltäckande översikt av ANN, med betoning på deras betydelse inom generativ AI.

Struktur hos neurala nätverk

Neuroner och lager

Ett neuralt nätverk består av sammankopplade enheter som kallas neuroner, vilka är organiserade i lager:

  • Ingångslager: tar emot rådata (t.ex. bilder, text, numeriska indata);
  • Dolda lager: bearbetar och transformerar data med hjälp av viktade kopplingar;
  • Utgångslager: genererar förutsägelser eller klassificeringar.

Varje neuron tillämpar en viktad summa på sina indata och skickar resultatet genom en aktiveringsfunktion:

z=i=1nωixi+bz=\sum^n_{i=1}\omega_ix_i+b

Där:

  • xix_i är indata;
  • ωi\omega_i är vikter;
  • bb är bias-termen;
  • zz är den viktade summan som skickas till aktiveringsfunktionen.

Aktiveringsfunktioner

Aktiveringsfunktioner introducerar icke-linjäritet, vilket möjliggör för nätverk att lära sig komplexa mönster. Vanliga aktiveringsfunktioner inkluderar:

  • Sigmoid, används för sannolikheter: σ(z)=11+ez\sigma(z)=\dfrac{1}{1+e^{-z}}
  • ReLU (Rectified Linear Unit), vanligt förekommande i djupa nätverk: f(z)=max(0,z)f(z)=\max(0,z)
  • Tanh, användbar för nollcentrerade utdata: tanh(z)=ezezez+ez\tanh(z)=\dfrac{e^z-e^{-z}}{e^z+e^{-z}}

Framåt- och bakåtriktad spridning

Framåtriktad spridning

Framåtriktad spridning avser att mata indata genom nätverket för att beräkna utdata. Varje neuron beräknar:

a=f(z)=f(i=1nωixi+b)a=f(z)=f\left( \sum^n_{i=1}\omega_i x_i + b \right)

där f(z)f(z) är aktiveringsfunktionen.

Bakåtriktad spridning och gradientnedstigning

För att förbättra prediktioner justerar artificiella neurala nätverk vikterna med hjälp av bakåtriktad spridning, vilket minimerar felet med gradientnedstigning. Viktuppdateringsregeln i gradientnedstigning är:

ωi(t+1)=ωi(t)ηLωi\omega^{(t+1)}_i=\omega^{(t)}_i - \eta *\frac{\partial L}{\partial \omega_i}

Där:

  • η\eta är inlärningshastigheten;
  • LL är förlustfunktionen;
  • Lωi\frac{\partial L}{\partial \omega_i} är gradienten av förlusten med avseende på ωi\omega_i.

Förlustfunktioner och träningsprocessen

Förlustfunktioner

Förlustfunktioner mäter skillnaden mellan förutsagda och faktiska värden. Vanliga förlustfunktioner inkluderar:

  • Mean Squared Error (MSE) (för regression):
MSE=1ni=1n(yiy^i2)\text{MSE}=\frac{1}{n}\sum^n_{i=1}(y_i-\hat{y}_i^2)
  • Cross-Entropy Loss (för klassificering):
L=i=1nyilog(y^i)\text{L}=-\sum^n_{i=1}y_i\log(\hat{y}_i)

Där:

  • yiy_i är den sanna etiketten;
  • y^i\hat{y}_i är den förutsagda sannolikheten.

Träningsprocess

  1. Initiera vikter slumpmässigt;
  2. Utför framåtriktad propagiering för att beräkna förutsägelser;
  3. Beräkna förlusten med vald förlustfunktion;
  4. Använd backpropagering för att beräkna viktuppdateringar;
  5. Uppdatera vikter med gradientnedstigning;
  6. Upprepa under flera epoker tills nätverket konvergerar.

Den universella approximationssatsen och djupinlärning

Universella approximationssatsen

Den universella approximationssatsen fastställer att ett neuralt nätverk med minst ett dolt lager kan approximera vilken kontinuerlig funktion som helst, givet tillräckligt många neuroner och lämpliga vikter. Detta motiverar varför artificiella neurala nätverk kan modellera mycket komplexa samband.

Djupinlärning och dess betydelse

Djupinlärning utökar artificiella neurala nätverk genom att lägga till många dolda lager, vilket möjliggör:

  • Extraktion av hierarkiska egenskaper (användbart inom bildbehandling och NLP);
  • Modellering av komplexa sannolikhetsfördelningar (avgörande för generativ AI);
  • Inlärning utan manuell egenskapsutvinning (som i självövervakad inlärning).

Slutsats

Detta kapitel introducerade de grundläggande principerna för artificiella neurala nätverk, med fokus på deras struktur, inlärningsprocess och betydelse inom djupinlärning. Dessa koncept utgör grunden för avancerade generativa AI-tekniker som GANs och VAEs, vilka förlitar sig på neurala nätverk för att generera realistisk data.

1. Vilken av följande är INTE en komponent i ett artificiellt neuralt nätverk?

2. Vad är det primära syftet med backpropagation i neurala nätverk?

3. Universal Approximation Theorem säger att ett tillräckligt stort neuralt nätverk kan approximera vilken av följande?

question mark

Vilken av följande är INTE en komponent i ett artificiellt neuralt nätverk?

Select the correct answer

question mark

Vad är det primära syftet med backpropagation i neurala nätverk?

Select the correct answer

question mark

Universal Approximation Theorem säger att ett tillräckligt stort neuralt nätverk kan approximera vilken av följande?

Select the correct answer

Var allt tydligt?

Hur kan vi förbättra det?

Tack för dina kommentarer!

Avsnitt 2. Kapitel 4

Fråga AI

expand

Fråga AI

ChatGPT

Fråga vad du vill eller prova någon av de föreslagna frågorna för att starta vårt samtal

Awesome!

Completion rate improved to 4.76

bookÖversikt över Artificiella Neurala Nätverk

Svep för att visa menyn

Artificiella neurala nätverk (ANN) utgör grunden för modern generativ AI. De är utformade för att känna igen mönster, lära sig representationer och generera data som efterliknar verkliga fördelningar. Här ges en kortfattad och heltäckande översikt av ANN, med betoning på deras betydelse inom generativ AI.

Struktur hos neurala nätverk

Neuroner och lager

Ett neuralt nätverk består av sammankopplade enheter som kallas neuroner, vilka är organiserade i lager:

  • Ingångslager: tar emot rådata (t.ex. bilder, text, numeriska indata);
  • Dolda lager: bearbetar och transformerar data med hjälp av viktade kopplingar;
  • Utgångslager: genererar förutsägelser eller klassificeringar.

Varje neuron tillämpar en viktad summa på sina indata och skickar resultatet genom en aktiveringsfunktion:

z=i=1nωixi+bz=\sum^n_{i=1}\omega_ix_i+b

Där:

  • xix_i är indata;
  • ωi\omega_i är vikter;
  • bb är bias-termen;
  • zz är den viktade summan som skickas till aktiveringsfunktionen.

Aktiveringsfunktioner

Aktiveringsfunktioner introducerar icke-linjäritet, vilket möjliggör för nätverk att lära sig komplexa mönster. Vanliga aktiveringsfunktioner inkluderar:

  • Sigmoid, används för sannolikheter: σ(z)=11+ez\sigma(z)=\dfrac{1}{1+e^{-z}}
  • ReLU (Rectified Linear Unit), vanligt förekommande i djupa nätverk: f(z)=max(0,z)f(z)=\max(0,z)
  • Tanh, användbar för nollcentrerade utdata: tanh(z)=ezezez+ez\tanh(z)=\dfrac{e^z-e^{-z}}{e^z+e^{-z}}

Framåt- och bakåtriktad spridning

Framåtriktad spridning

Framåtriktad spridning avser att mata indata genom nätverket för att beräkna utdata. Varje neuron beräknar:

a=f(z)=f(i=1nωixi+b)a=f(z)=f\left( \sum^n_{i=1}\omega_i x_i + b \right)

där f(z)f(z) är aktiveringsfunktionen.

Bakåtriktad spridning och gradientnedstigning

För att förbättra prediktioner justerar artificiella neurala nätverk vikterna med hjälp av bakåtriktad spridning, vilket minimerar felet med gradientnedstigning. Viktuppdateringsregeln i gradientnedstigning är:

ωi(t+1)=ωi(t)ηLωi\omega^{(t+1)}_i=\omega^{(t)}_i - \eta *\frac{\partial L}{\partial \omega_i}

Där:

  • η\eta är inlärningshastigheten;
  • LL är förlustfunktionen;
  • Lωi\frac{\partial L}{\partial \omega_i} är gradienten av förlusten med avseende på ωi\omega_i.

Förlustfunktioner och träningsprocessen

Förlustfunktioner

Förlustfunktioner mäter skillnaden mellan förutsagda och faktiska värden. Vanliga förlustfunktioner inkluderar:

  • Mean Squared Error (MSE) (för regression):
MSE=1ni=1n(yiy^i2)\text{MSE}=\frac{1}{n}\sum^n_{i=1}(y_i-\hat{y}_i^2)
  • Cross-Entropy Loss (för klassificering):
L=i=1nyilog(y^i)\text{L}=-\sum^n_{i=1}y_i\log(\hat{y}_i)

Där:

  • yiy_i är den sanna etiketten;
  • y^i\hat{y}_i är den förutsagda sannolikheten.

Träningsprocess

  1. Initiera vikter slumpmässigt;
  2. Utför framåtriktad propagiering för att beräkna förutsägelser;
  3. Beräkna förlusten med vald förlustfunktion;
  4. Använd backpropagering för att beräkna viktuppdateringar;
  5. Uppdatera vikter med gradientnedstigning;
  6. Upprepa under flera epoker tills nätverket konvergerar.

Den universella approximationssatsen och djupinlärning

Universella approximationssatsen

Den universella approximationssatsen fastställer att ett neuralt nätverk med minst ett dolt lager kan approximera vilken kontinuerlig funktion som helst, givet tillräckligt många neuroner och lämpliga vikter. Detta motiverar varför artificiella neurala nätverk kan modellera mycket komplexa samband.

Djupinlärning och dess betydelse

Djupinlärning utökar artificiella neurala nätverk genom att lägga till många dolda lager, vilket möjliggör:

  • Extraktion av hierarkiska egenskaper (användbart inom bildbehandling och NLP);
  • Modellering av komplexa sannolikhetsfördelningar (avgörande för generativ AI);
  • Inlärning utan manuell egenskapsutvinning (som i självövervakad inlärning).

Slutsats

Detta kapitel introducerade de grundläggande principerna för artificiella neurala nätverk, med fokus på deras struktur, inlärningsprocess och betydelse inom djupinlärning. Dessa koncept utgör grunden för avancerade generativa AI-tekniker som GANs och VAEs, vilka förlitar sig på neurala nätverk för att generera realistisk data.

1. Vilken av följande är INTE en komponent i ett artificiellt neuralt nätverk?

2. Vad är det primära syftet med backpropagation i neurala nätverk?

3. Universal Approximation Theorem säger att ett tillräckligt stort neuralt nätverk kan approximera vilken av följande?

question mark

Vilken av följande är INTE en komponent i ett artificiellt neuralt nätverk?

Select the correct answer

question mark

Vad är det primära syftet med backpropagation i neurala nätverk?

Select the correct answer

question mark

Universal Approximation Theorem säger att ett tillräckligt stort neuralt nätverk kan approximera vilken av följande?

Select the correct answer

Var allt tydligt?

Hur kan vi förbättra det?

Tack för dina kommentarer!

Avsnitt 2. Kapitel 4
some-alt