Wat Is Een Beslissingsboom
Voor veel praktische problemen kunnen we een beslissingsboom opstellen. In een beslissingsboom stellen we een vraag (beslissingsknoop), en op basis van het antwoord komen we tot een beslissing (bladknoop) of stellen we meer vragen (beslissingsknoop), enzovoort.
Hier is een voorbeeld van een eend/niet-eend test:
Door dezelfde logica toe te passen op de trainingsgegevens kunnen we een van de belangrijkste machine learning-algoritmen afleiden, die gebruikt kan worden voor zowel regressie- als classificatietaken. In deze cursus richten we ons op classificatie.
De volgende video laat zien hoe het werkt:
In de bovenstaande video toont 'Klassen' het aantal gegevensmonsters van elke klasse bij een knoop. Bijvoorbeeld, de wortelknoop bevat alle gegevensmonsters (4 'cookies', 4 'not cookies'). En de bladknoop aan de linkerkant heeft alleen 3 'not cookies'.
Met elk beslissingsknooppunt is het doel om de trainingsgegevens zo te splitsen dat de datapunten van elke klasse in hun eigen bladknooppunten worden gescheiden.
Een Decision Tree verwerkt ook multiclass-classificatie moeiteloos:
En classificatie met meerdere kenmerken kan ook door de decision tree worden afgehandeld. Elk beslissingsknooppunt kan de gegevens nu splitsen op basis van elk van de kenmerken.
In de bovenstaande video wordt de trainingsset geschaald met behulp van StandardScaler. Dit is niet noodzakelijk voor de Decision Tree. Deze presteert even goed op de ongeschaalde gegevens. Maar schalen verbetert de prestaties van alle andere algoritmen, dus het is verstandig om schalen altijd toe te voegen aan de preprocessing.
Bedankt voor je feedback!
Vraag AI
Vraag AI
Vraag wat u wilt of probeer een van de voorgestelde vragen om onze chat te starten.
What are the main advantages of using decision trees for classification?
Can you explain how a decision tree handles multiple features in more detail?
How does a decision tree perform multiclass classification?
Awesome!
Completion rate improved to 4.17
Wat Is Een Beslissingsboom
Veeg om het menu te tonen
Voor veel praktische problemen kunnen we een beslissingsboom opstellen. In een beslissingsboom stellen we een vraag (beslissingsknoop), en op basis van het antwoord komen we tot een beslissing (bladknoop) of stellen we meer vragen (beslissingsknoop), enzovoort.
Hier is een voorbeeld van een eend/niet-eend test:
Door dezelfde logica toe te passen op de trainingsgegevens kunnen we een van de belangrijkste machine learning-algoritmen afleiden, die gebruikt kan worden voor zowel regressie- als classificatietaken. In deze cursus richten we ons op classificatie.
De volgende video laat zien hoe het werkt:
In de bovenstaande video toont 'Klassen' het aantal gegevensmonsters van elke klasse bij een knoop. Bijvoorbeeld, de wortelknoop bevat alle gegevensmonsters (4 'cookies', 4 'not cookies'). En de bladknoop aan de linkerkant heeft alleen 3 'not cookies'.
Met elk beslissingsknooppunt is het doel om de trainingsgegevens zo te splitsen dat de datapunten van elke klasse in hun eigen bladknooppunten worden gescheiden.
Een Decision Tree verwerkt ook multiclass-classificatie moeiteloos:
En classificatie met meerdere kenmerken kan ook door de decision tree worden afgehandeld. Elk beslissingsknooppunt kan de gegevens nu splitsen op basis van elk van de kenmerken.
In de bovenstaande video wordt de trainingsset geschaald met behulp van StandardScaler. Dit is niet noodzakelijk voor de Decision Tree. Deze presteert even goed op de ongeschaalde gegevens. Maar schalen verbetert de prestaties van alle andere algoritmen, dus het is verstandig om schalen altijd toe te voegen aan de preprocessing.
Bedankt voor je feedback!