Uitdaging: Evaluatie van de Perceptron
Voor het evalueren van de eerder gemaakte perceptron wordt een dataset gebruikt met twee invoerkenmerken en twee verschillende klassen (0 en 1):
Deze dataset is gebalanceerd, met 500 voorbeelden uit klasse 1 en 500 voorbeelden uit klasse 0. Daarom is nauwkeurigheid een voldoende maatstaf voor evaluatie in dit geval, wat kan worden berekend met de functie accuracy_score():
accuracy_score(y_true, y_pred)
y_true staat voor de werkelijke labels, terwijl y_pred de voorspelde labels weergeeft.
De dataset is opgeslagen in perceptron.py als twee NumPy-arrays: X (invoerkenmerken) en y (overeenkomende labels), zodat deze eenvoudig geïmporteerd kunnen worden. Dit bestand bevat ook model, de instantie van de Perceptron-klasse die eerder is aangemaakt.
Swipe to start coding
Het doel is om te evalueren hoe goed het getrainde perceptronmodel presteert op niet eerder geziene data. Volg de onderstaande stappen om de dataset te splitsen, het model te trainen, voorspellingen te genereren en de nauwkeurigheid te meten.
- Splits de dataset in trainings- (80%) en testsets (20%) met behulp van de functie
train_test_split().
- Gebruik
test_size=0.2enrandom_state=10voor reproduceerbaarheid.
- Train het perceptronmodel gedurende 10 epochs met een leersnelheid van
0.01door de methodefit()aan te roepen. - Verkrijg voorspellingen voor alle voorbeelden in de testset door voor elk invoervoorbeeld de
forward()-methode van het model aan te roepen. - Rond de voorspellingen af met
np.round(), zodat waarschijnlijkheden groter dan of gelijk aan0.5als klasse1worden beschouwd, en lager dan0.5als klasse0. - Evalueer de nauwkeurigheid door de voorspelde labels te vergelijken met de werkelijke testlabels met behulp van de functie
accuracy_score()uitsklearn.metrics.
Oplossing
Bedankt voor je feedback!
single
Vraag AI
Vraag AI
Vraag wat u wilt of probeer een van de voorgestelde vragen om onze chat te starten.
How do I use the `accuracy_score()` function with my perceptron model?
Can you show me how to import the dataset and model from `perceptron.py`?
What are the next steps to evaluate the perceptron on this dataset?
Awesome!
Completion rate improved to 4
Uitdaging: Evaluatie van de Perceptron
Veeg om het menu te tonen
Voor het evalueren van de eerder gemaakte perceptron wordt een dataset gebruikt met twee invoerkenmerken en twee verschillende klassen (0 en 1):
Deze dataset is gebalanceerd, met 500 voorbeelden uit klasse 1 en 500 voorbeelden uit klasse 0. Daarom is nauwkeurigheid een voldoende maatstaf voor evaluatie in dit geval, wat kan worden berekend met de functie accuracy_score():
accuracy_score(y_true, y_pred)
y_true staat voor de werkelijke labels, terwijl y_pred de voorspelde labels weergeeft.
De dataset is opgeslagen in perceptron.py als twee NumPy-arrays: X (invoerkenmerken) en y (overeenkomende labels), zodat deze eenvoudig geïmporteerd kunnen worden. Dit bestand bevat ook model, de instantie van de Perceptron-klasse die eerder is aangemaakt.
Swipe to start coding
Het doel is om te evalueren hoe goed het getrainde perceptronmodel presteert op niet eerder geziene data. Volg de onderstaande stappen om de dataset te splitsen, het model te trainen, voorspellingen te genereren en de nauwkeurigheid te meten.
- Splits de dataset in trainings- (80%) en testsets (20%) met behulp van de functie
train_test_split().
- Gebruik
test_size=0.2enrandom_state=10voor reproduceerbaarheid.
- Train het perceptronmodel gedurende 10 epochs met een leersnelheid van
0.01door de methodefit()aan te roepen. - Verkrijg voorspellingen voor alle voorbeelden in de testset door voor elk invoervoorbeeld de
forward()-methode van het model aan te roepen. - Rond de voorspellingen af met
np.round(), zodat waarschijnlijkheden groter dan of gelijk aan0.5als klasse1worden beschouwd, en lager dan0.5als klasse0. - Evalueer de nauwkeurigheid door de voorspelde labels te vergelijken met de werkelijke testlabels met behulp van de functie
accuracy_score()uitsklearn.metrics.
Oplossing
Bedankt voor je feedback!
single