Notice: This page requires JavaScript to function properly.
Please enable JavaScript in your browser settings or update your browser.
Leer Uitdaging: Evaluatie van de Perceptron | Neuraal Netwerk Vanaf Nul
Introductie tot Neurale Netwerken

bookUitdaging: Evaluatie van de Perceptron

Voor het evalueren van de eerder gemaakte perceptron wordt een dataset gebruikt met twee invoerkenmerken en twee verschillende klassen (0 en 1):

Deze dataset is gebalanceerd, met 500 voorbeelden uit klasse 1 en 500 voorbeelden uit klasse 0. Daarom is nauwkeurigheid een voldoende maatstaf voor evaluatie in dit geval, wat kan worden berekend met de functie accuracy_score():

accuracy_score(y_true, y_pred)

y_true staat voor de werkelijke labels, terwijl y_pred de voorspelde labels weergeeft.

De dataset is opgeslagen in perceptron.py als twee NumPy-arrays: X (invoerkenmerken) en y (overeenkomende labels), zodat deze eenvoudig geïmporteerd kunnen worden. Dit bestand bevat ook model, de instantie van de Perceptron-klasse die eerder is aangemaakt.

Taak

Swipe to start coding

Het doel is om te evalueren hoe goed het getrainde perceptronmodel presteert op niet eerder geziene data. Volg de onderstaande stappen om de dataset te splitsen, het model te trainen, voorspellingen te genereren en de nauwkeurigheid te meten.

  1. Splits de dataset in trainings- (80%) en testsets (20%) met behulp van de functie train_test_split().
  • Gebruik test_size=0.2 en random_state=10 voor reproduceerbaarheid.
  1. Train het perceptronmodel gedurende 10 epochs met een leersnelheid van 0.01 door de methode fit() aan te roepen.
  2. Verkrijg voorspellingen voor alle voorbeelden in de testset door voor elk invoervoorbeeld de forward()-methode van het model aan te roepen.
  3. Rond de voorspellingen af met np.round(), zodat waarschijnlijkheden groter dan of gelijk aan 0.5 als klasse 1 worden beschouwd, en lager dan 0.5 als klasse 0.
  4. Evalueer de nauwkeurigheid door de voorspelde labels te vergelijken met de werkelijke testlabels met behulp van de functie accuracy_score() uit sklearn.metrics.

Oplossing

Was alles duidelijk?

Hoe kunnen we het verbeteren?

Bedankt voor je feedback!

Sectie 2. Hoofdstuk 12
single

single

Vraag AI

expand

Vraag AI

ChatGPT

Vraag wat u wilt of probeer een van de voorgestelde vragen om onze chat te starten.

Suggested prompts:

How do I use the `accuracy_score()` function with my perceptron model?

Can you show me how to import the dataset and model from `perceptron.py`?

What are the next steps to evaluate the perceptron on this dataset?

close

Awesome!

Completion rate improved to 4

bookUitdaging: Evaluatie van de Perceptron

Veeg om het menu te tonen

Voor het evalueren van de eerder gemaakte perceptron wordt een dataset gebruikt met twee invoerkenmerken en twee verschillende klassen (0 en 1):

Deze dataset is gebalanceerd, met 500 voorbeelden uit klasse 1 en 500 voorbeelden uit klasse 0. Daarom is nauwkeurigheid een voldoende maatstaf voor evaluatie in dit geval, wat kan worden berekend met de functie accuracy_score():

accuracy_score(y_true, y_pred)

y_true staat voor de werkelijke labels, terwijl y_pred de voorspelde labels weergeeft.

De dataset is opgeslagen in perceptron.py als twee NumPy-arrays: X (invoerkenmerken) en y (overeenkomende labels), zodat deze eenvoudig geïmporteerd kunnen worden. Dit bestand bevat ook model, de instantie van de Perceptron-klasse die eerder is aangemaakt.

Taak

Swipe to start coding

Het doel is om te evalueren hoe goed het getrainde perceptronmodel presteert op niet eerder geziene data. Volg de onderstaande stappen om de dataset te splitsen, het model te trainen, voorspellingen te genereren en de nauwkeurigheid te meten.

  1. Splits de dataset in trainings- (80%) en testsets (20%) met behulp van de functie train_test_split().
  • Gebruik test_size=0.2 en random_state=10 voor reproduceerbaarheid.
  1. Train het perceptronmodel gedurende 10 epochs met een leersnelheid van 0.01 door de methode fit() aan te roepen.
  2. Verkrijg voorspellingen voor alle voorbeelden in de testset door voor elk invoervoorbeeld de forward()-methode van het model aan te roepen.
  3. Rond de voorspellingen af met np.round(), zodat waarschijnlijkheden groter dan of gelijk aan 0.5 als klasse 1 worden beschouwd, en lager dan 0.5 als klasse 0.
  4. Evalueer de nauwkeurigheid door de voorspelde labels te vergelijken met de werkelijke testlabels met behulp van de functie accuracy_score() uit sklearn.metrics.

Oplossing

Switch to desktopSchakel over naar desktop voor praktijkervaringGa verder vanaf waar je bent met een van de onderstaande opties
Was alles duidelijk?

Hoe kunnen we het verbeteren?

Bedankt voor je feedback!

Sectie 2. Hoofdstuk 12
single

single

some-alt