Notice: This page requires JavaScript to function properly.
Please enable JavaScript in your browser settings or update your browser.
Apprendre Récapitulatif des Fonctions d'Activation | Section
Practice
Projects
Quizzes & Challenges
Quiz
Challenges
/
Vision par Ordinateur Appliquée

bookRécapitulatif des Fonctions d'Activation

Glissez pour afficher le menu

Pourquoi les fonctions d'activation sont essentielles dans les CNN

Les fonctions d'activation introduisent la non-linéarité dans les CNN, leur permettant d'apprendre des motifs complexes au-delà de ce qu'un simple modèle linéaire peut réaliser. Sans fonctions d'activation, les CNN auraient des difficultés à détecter des relations complexes dans les données, limitant ainsi leur efficacité en reconnaissance et classification d'images. Le choix de la fonction d'activation appropriée influence la vitesse d'entraînement, la stabilité et la performance globale.

Fonctions d'activation courantes

  • ReLU (rectified linear unit) : la fonction d'activation la plus utilisée dans les CNN. Elle transmet uniquement les valeurs positives tout en mettant à zéro toutes les entrées négatives, ce qui la rend efficace en termes de calcul et prévient le problème du gradient qui disparaît. Cependant, certains neurones peuvent devenir inactifs en raison du problème du « ReLU mourant » ;
f(x)=max(0,x)f(x) = \max(0, x)
ReLU
  • Leaky ReLU : une variante de ReLU qui autorise de petites valeurs négatives au lieu de les fixer à zéro, évitant ainsi l'inactivation des neurones et améliorant la propagation du gradient ;
f(x)={x,x>0αx,x0f(x) = \begin{cases} x,\quad x > 0\\ \alpha x,\quad x \le 0 \end{cases}
Leaky ReLU
  • Sigmoïde : comprime les valeurs d'entrée dans une plage comprise entre 0 et 1, ce qui le rend utile pour la classification binaire. Cependant, il présente le problème de gradients évanescents dans les réseaux profonds ;
f(x)=11+exf(x) = \frac{1}{1+e^{-x}}
Sigmoïde
  • Tanh : similaire à la fonction sigmoïde mais produit des valeurs comprises entre -1 et 1, centrant ainsi les activations autour de zéro ;
f(x)=exexex+exf(x) = \frac{e^x - e^{-x}}{e^x + e^{-x}}
Tanh
  • Softmax : généralement utilisée dans la couche finale pour la classification multi-classes, la fonction Softmax convertit les sorties brutes du réseau en probabilités, garantissant que leur somme est égale à un pour une meilleure interprétabilité.
f(xi)=exijexjf(x_i) = \frac{e^{x_i}}{\sum_j{e^{x_j}}}
Softmax

Choix de la bonne fonction d'activation

ReLU est le choix par défaut pour les couches cachées en raison de son efficacité et de ses bonnes performances, tandis que Leaky ReLU est préférable lorsque l'inactivité des neurones devient problématique. Sigmoid et Tanh sont généralement évitées dans les CNN profonds mais peuvent rester utiles dans des applications spécifiques. Softmax demeure essentielle pour les tâches de classification multi-classes, garantissant des prédictions claires basées sur les probabilités.

La sélection de la fonction d'activation appropriée est cruciale pour optimiser les performances des CNN, équilibrer l'efficacité et prévenir des problèmes tels que les gradients évanescents ou explosifs. Chaque fonction contribue de manière unique à la façon dont un réseau traite et apprend à partir des données visuelles.

1. Pourquoi ReLU est-elle préférée à Sigmoid dans les CNN profonds ?

2. Quelle fonction d'activation est couramment utilisée dans la couche finale d'un CNN pour la classification multi-classes ?

3. Quel est l'avantage principal du Leaky ReLU par rapport au ReLU standard ?

question mark

Pourquoi ReLU est-elle préférée à Sigmoid dans les CNN profonds ?

Select the correct answer

question mark

Quelle fonction d'activation est couramment utilisée dans la couche finale d'un CNN pour la classification multi-classes ?

Select the correct answer

question mark

Quel est l'avantage principal du Leaky ReLU par rapport au ReLU standard ?

Select the correct answer

Tout était clair ?

Comment pouvons-nous l'améliorer ?

Merci pour vos commentaires !

Section 1. Chapitre 16

Demandez à l'IA

expand

Demandez à l'IA

ChatGPT

Posez n'importe quelle question ou essayez l'une des questions suggérées pour commencer notre discussion

Section 1. Chapitre 16
some-alt