Lots
Lots dans le traitement des données
Lors de l'entraînement d'un modèle d'apprentissage automatique, il est courant d'alimenter les données en petits groupes plutôt qu'en une seule fois. Ces groupes sont appelés « lots ». Au lieu de présenter au modèle un seul élément de données (comme une image ou une phrase), on peut lui fournir un lot de, par exemple, 32
éléments à la fois. Cette méthode permet de rendre l'entraînement plus stable et plus rapide.
En ce qui concerne les tenseurs, cela signifie l'ajout d'une dimension supplémentaire au début. Ainsi, si les données d'un seul élément étaient représentées par un tenseur de forme (height, width)
, un lot de ces éléments aurait la forme (batch_size, height, width)
. Dans cet exemple, si la taille du lot est de 32
, la forme devient (32, height, width)
.
Supposons que nous ayons 2048
échantillons de données, chacun ayant une forme (base shape)
. Cela nous donne un tenseur de forme (2048, base shape)
. Si nous divisons ces données en lots de 32
échantillons, nous obtiendrons 64
lots, car 64 * 32 = 2048
. La nouvelle forme sera donc (64, 32, base shape)
.
Lors de la conception de votre propre réseau de neurones ou d'un autre modèle, vous pouvez utiliser différentes formes pour les tâches mentionnées ci-dessus. Cependant, ces techniques de structuration sont standard dans Tensorflow, car elles sont organisées de manière à la fois logique et hiérarchique afin d'optimiser les performances des algorithmes d'apprentissage.
Merci pour vos commentaires !
Demandez à l'IA
Demandez à l'IA
Posez n'importe quelle question ou essayez l'une des questions suggérées pour commencer notre discussion
Can you explain why using batches makes training more stable and faster?
How do I choose the right batch size for my model?
What does the "base shape" refer to in this context?
Awesome!
Completion rate improved to 5.56
Lots
Glissez pour afficher le menu
Lots dans le traitement des données
Lors de l'entraînement d'un modèle d'apprentissage automatique, il est courant d'alimenter les données en petits groupes plutôt qu'en une seule fois. Ces groupes sont appelés « lots ». Au lieu de présenter au modèle un seul élément de données (comme une image ou une phrase), on peut lui fournir un lot de, par exemple, 32
éléments à la fois. Cette méthode permet de rendre l'entraînement plus stable et plus rapide.
En ce qui concerne les tenseurs, cela signifie l'ajout d'une dimension supplémentaire au début. Ainsi, si les données d'un seul élément étaient représentées par un tenseur de forme (height, width)
, un lot de ces éléments aurait la forme (batch_size, height, width)
. Dans cet exemple, si la taille du lot est de 32
, la forme devient (32, height, width)
.
Supposons que nous ayons 2048
échantillons de données, chacun ayant une forme (base shape)
. Cela nous donne un tenseur de forme (2048, base shape)
. Si nous divisons ces données en lots de 32
échantillons, nous obtiendrons 64
lots, car 64 * 32 = 2048
. La nouvelle forme sera donc (64, 32, base shape)
.
Lors de la conception de votre propre réseau de neurones ou d'un autre modèle, vous pouvez utiliser différentes formes pour les tâches mentionnées ci-dessus. Cependant, ces techniques de structuration sont standard dans Tensorflow, car elles sont organisées de manière à la fois logique et hiérarchique afin d'optimiser les performances des algorithmes d'apprentissage.
Merci pour vos commentaires !