Notice: This page requires JavaScript to function properly.
Please enable JavaScript in your browser settings or update your browser.
Leer Implementatie van Neurale Netwerken | Sectie
Practice
Projects
Quizzes & Challenges
Quizzen
Challenges
/
Deep Learning met TensorFlow
Sectie 1. Hoofdstuk 15
single

single

bookImplementatie van Neurale Netwerken

Veeg om het menu te tonen

Je hebt nu een stadium bereikt waarin je beschikt over de essentiële kennis van TensorFlow om zelfstandig neurale netwerken te creëren. Hoewel de meeste neurale netwerken in de praktijk complex zijn en doorgaans worden gebouwd met behulp van high-level bibliotheken zoals Keras, zullen wij een eenvoudig netwerk opzetten met fundamentele TensorFlow-tools. Deze aanpak biedt praktische ervaring met laag-niveau tensor-manipulatie en helpt bij het begrijpen van de onderliggende processen.

In eerdere cursussen zoals Introduction to Neural Networks herinner je je wellicht hoeveel tijd en moeite het kostte om zelfs een eenvoudig neuraal netwerk te bouwen, waarbij elke neuron afzonderlijk werd behandeld.

TensorFlow vereenvoudigt dit proces aanzienlijk. Door gebruik te maken van tensors kun je complexe berekeningen inkapselen, waardoor de noodzaak voor ingewikkelde code afneemt. De primaire taak is het opzetten van een sequentiële pijplijn van tensorbewerkingen.

Hier volgt een korte herhaling van de stappen om een trainingsproces voor een neuraal netwerk te starten:

Gegevensvoorbereiding en Modelcreatie

De eerste fase van het trainen van een neuraal netwerk omvat het voorbereiden van de gegevens, bestaande uit zowel de inputs als outputs waarop het netwerk zal leren. Daarnaast worden de hyperparameters van het model vastgesteld – dit zijn de parameters die gedurende het gehele trainingsproces constant blijven. De gewichten worden geïnitialiseerd, meestal getrokken uit een normale verdeling, en de biases, die vaak op nul worden gezet.

Voorwaartse Propagatie

Bij voorwaartse propagatie doorloopt elke laag van het netwerk doorgaans de volgende stappen:

  1. Vermenigvuldig de input van de laag met de gewichten.
  2. Tel een bias op bij het resultaat.
  3. Pas een activatiefunctie toe op deze som.

Vervolgens kan de verliesfunctie worden berekend.

Achterwaartse Propagatie

De volgende stap is achterwaartse propagatie, waarbij de gewichten en biases worden aangepast op basis van hun invloed op de verliesfunctie. Deze invloed wordt weergegeven door de gradiënt, die automatisch wordt berekend door TensorFlow's Gradient Tape. De gewichten en biases worden bijgewerkt door de gradiënt, geschaald met de leersnelheid, af te trekken.

Trainingslus

Om het neuraal netwerk effectief te trainen, worden de trainingsstappen meerdere keren herhaald terwijl de prestaties van het model worden bijgehouden. Idealiter zou het verlies over de tijd (epochs) moeten afnemen.

Taak

Swipe to start coding

Maak een neuraal netwerk dat is ontworpen om de uitkomsten van de XOR-bewerking te voorspellen. Het netwerk moet bestaan uit 2 inputneuronen, een verborgen laag met 2 neuronen en 1 outputneuron.

  1. Begin met het initialiseren van de beginwaarden voor gewichten en biases. De gewichten dienen te worden geïnitialiseerd met behulp van een normale verdeling, en alle biases moeten worden geïnitialiseerd op nul. Gebruik de hyperparameters input_size, hidden_size en output_size om de juiste vormen voor deze tensors te definiëren.
  2. Gebruik een function decorator om de functie train_step() om te zetten in een TensorFlow graph.
  3. Voer voorwaartse propagatie uit door zowel de verborgen als de outputlaag van het netwerk. Gebruik de sigmoid activatiefunctie.
  4. Bepaal de gradiënten om te begrijpen hoe elk gewicht en elke bias de verliesfunctie beïnvloedt. Zorg ervoor dat de gradiënten in de juiste volgorde worden berekend, overeenkomstig de namen van de outputvariabelen.
  5. Pas de gewichten en biases aan op basis van hun respectievelijke gradiënten. Neem de learning_rate mee in dit aanpassingsproces om de grootte van elke update te bepalen.

Oplossing

Conclusie

Omdat de XOR-functie een relatief eenvoudige taak is, zijn geavanceerde technieken zoals hyperparameterafstemming, het splitsen van datasets of het opzetten van complexe datapijplijnen op dit moment niet nodig. Deze oefening is slechts een stap richting het bouwen van meer geavanceerde neurale netwerken voor toepassingen in de praktijk.

Het beheersen van deze basisprincipes is essentieel voordat u zich verdiept in geavanceerde technieken voor het bouwen van neurale netwerken in de komende cursussen, waarin we de Keras-bibliotheek zullen gebruiken en methoden zullen verkennen om de modelkwaliteit te verbeteren met de uitgebreide mogelijkheden van TensorFlow.

Switch to desktopSchakel over naar desktop voor praktijkervaringGa verder vanaf waar je bent met een van de onderstaande opties
Was alles duidelijk?

Hoe kunnen we het verbeteren?

Bedankt voor je feedback!

Sectie 1. Hoofdstuk 15
single

single

Vraag AI

expand

Vraag AI

ChatGPT

Vraag wat u wilt of probeer een van de voorgestelde vragen om onze chat te starten.

some-alt