Stapel
Swipe um das Menü anzuzeigen
Batches in der Datenverarbeitung
Beim Training eines Machine-Learning-Modells ist es üblich, die Daten in kleinen Abschnitten statt auf einmal zu verarbeiten. Diese Abschnitte werden als „Batches“ bezeichnet. Anstatt dem Modell ein einzelnes Datenobjekt (wie ein Bild oder einen Satz) zu zeigen, wird ihm beispielsweise ein Batch von 32 Objekten gleichzeitig zugeführt. Dieser Ansatz kann das Training stabiler und schneller machen.
Bezogen auf Tensoren bedeutet dies, dass eine zusätzliche Dimension am Anfang hinzugefügt wird. Wenn die Daten eines einzelnen Objekts durch einen Tensor der Form (height, width) dargestellt werden, hätte ein Batch dieser Objekte die Form (batch_size, height, width). In diesem Beispiel ergibt sich bei einer Batch-Größe von 32 die Form (32, height, width).
Angenommen, wir haben 2048 Datenbeispiele, jeweils mit der Form (base shape). Dies ergibt einen Tensor der Form (2048, base shape). Wenn wir diese Daten in Batches von 32 Beispielen aufteilen, erhalten wir 64 Batches, da 64 * 32 = 2048. Die neue Form ist dann (64, 32, base shape).
Beim Entwurf eines eigenen neuronalen Netzes oder eines anderen Modells können unterschiedliche Formen für die oben genannten Aufgaben verwendet werden. Diese Techniken zur Formgebung sind jedoch in Tensorflow Standard, da sie sowohl logisch als auch hierarchisch strukturiert sind, um die Leistung von Lernalgorithmen zu optimieren.
Danke für Ihr Feedback!
Fragen Sie AI
Fragen Sie AI
Fragen Sie alles oder probieren Sie eine der vorgeschlagenen Fragen, um unser Gespräch zu beginnen