Udfordring: Klassificering af Blomster
Opgave
Swipe to start coding
Målet er at træne og evaluere et simpelt neuralt netværk ved hjælp af Iris-datasættet, som består af blomster-målinger og artsklassifikation.
- Opdel datasættet i trænings- og testdatasæt, hvor 20% bruges til testdatasættet, og sæt random state til
42. - Konverter
X_trainogX_testtil PyTorch-tensorer af typenfloat32. - Konverter
y_trainogy_testtil PyTorch-tensorer af typenlong. - Definér en neural netværksmodel ved at oprette klassen
IrisModel. - Implementér to fuldt forbundne lag og anvend ReLU-aktiveringsfunktionen i det skjulte lag.
- Initialisér modellen med korrekt inputstørrelse, skjult lag-størrelse sat til
16, og outputstørrelse. - Definér tabet som cross-entropy loss og optimeringsalgoritmen som Adam med en læringsrate på
0.01. - Træn modellen i 100 epoker ved at udføre fremadpropagering, beregne tab, udføre bagudpropagering og opdatere modellens parametre.
- Sæt modellen i evalueringsmode efter træning.
- Deaktiver gradientberegning under test for at forbedre effektiviteten.
- Beregn forudsigelser på testdatasættet ved hjælp af den trænede model.
- Bestem de forudsagte klasselabels baseret på de rå forudsigelser.
Løsning
Var alt klart?
Tak for dine kommentarer!
Sektion 1. Kapitel 20
single
Spørg AI
Spørg AI
Spørg om hvad som helst eller prøv et af de foreslåede spørgsmål for at starte vores chat
Fantastisk!
Completion rate forbedret til 5
Udfordring: Klassificering af Blomster
Stryg for at vise menuen
Opgave
Swipe to start coding
Målet er at træne og evaluere et simpelt neuralt netværk ved hjælp af Iris-datasættet, som består af blomster-målinger og artsklassifikation.
- Opdel datasættet i trænings- og testdatasæt, hvor 20% bruges til testdatasættet, og sæt random state til
42. - Konverter
X_trainogX_testtil PyTorch-tensorer af typenfloat32. - Konverter
y_trainogy_testtil PyTorch-tensorer af typenlong. - Definér en neural netværksmodel ved at oprette klassen
IrisModel. - Implementér to fuldt forbundne lag og anvend ReLU-aktiveringsfunktionen i det skjulte lag.
- Initialisér modellen med korrekt inputstørrelse, skjult lag-størrelse sat til
16, og outputstørrelse. - Definér tabet som cross-entropy loss og optimeringsalgoritmen som Adam med en læringsrate på
0.01. - Træn modellen i 100 epoker ved at udføre fremadpropagering, beregne tab, udføre bagudpropagering og opdatere modellens parametre.
- Sæt modellen i evalueringsmode efter træning.
- Deaktiver gradientberegning under test for at forbedre effektiviteten.
- Beregn forudsigelser på testdatasættet ved hjælp af den trænede model.
- Bestem de forudsagte klasselabels baseret på de rå forudsigelser.
Løsning
Var alt klart?
Tak for dine kommentarer!
Sektion 1. Kapitel 20
single