Notice: This page requires JavaScript to function properly.
Please enable JavaScript in your browser settings or update your browser.
Impara Creazione di Tensori Casuali | Sezione
Fondamenti di PyTorch per Ingegneri ML

bookCreazione di Tensori Casuali

I tensori casuali sono utili per l'inizializzazione dei dati o dei pesi nei modelli di machine learning (il caso d'uso più comune).

Tensori casuali uniformi

La funzione torch.rand() viene utilizzata per creare un tensore con valori casuali estratti da una distribuzione uniforme tra 0 e 1. Analogamente alle funzioni zeros() e ones(), gli argomenti specificano la forma del tensore.

1234
import torch # Create a 6x8 tensor with random values between 0 and 1 random_tensor = torch.rand(6, 8) print(random_tensor)
copy

Tensori Normali Casuali

La funzione torch.randn() viene utilizzata per creare un tensore con valori casuali estratti da una distribuzione normale standard (media = 0, deviazione standard = 1).

1234
import torch # Create a 2x2 tensor with random values from a normal distribution normal_tensor = torch.randn(2, 2) print(normal_tensor)
copy

Tensori Interi Casuali

La funzione torch.randint() viene utilizzata per creare un tensore con valori interi casuali estratti da una distribuzione uniforme discreta.

I primi due parametri di questa funzione (low, che di default è 0, e high) specificano l'intervallo dei valori (da low a high escluso). Il parametro successivo specifica la forma del tensore come una tupla.

1234
import torch # Create a 4x3 tensor with random integers between 0 and 10 integer_tensor = torch.randint(0, 10, (4, 3)) print(integer_tensor)
copy

Impostazione del Seed Casuale

Per garantire la riproducibilità, è possibile impostare un seed manuale. Questo fissa i numeri casuali generati in modo che siano gli stessi ogni volta che si esegue il codice.

123456
import torch # Set the random seed torch.manual_seed(42) # Create a 2x3 tensor with random values seeded_tensor = torch.rand(2, 3) print(seeded_tensor)
copy
Note
Nota

È possibile impostare il seed su qualsiasi intero arbitrario, e il valore effettivo dell'intero non è rilevante nella maggior parte dei casi — determina semplicemente la sequenza di numeri casuali generata. Il punto chiave è che utilizzando lo stesso seed si otterrà sempre la stessa sequenza di numeri casuali.

Casi d'Uso Pratici per i Tensori Casuali

  • Inizializzazione dei pesi: i tensori casuali sono spesso utilizzati per inizializzare i pesi nelle reti neurali;
  • Simulazione di dati: generazione di dataset casuali per test ed esperimenti;
  • Campionamento casuale: utilizzo di tensori casuali per attività come dropout e aggiunta di rumore nei modelli.
question mark

Quale delle seguenti affermazioni sui tensori casuali in PyTorch è corretta?

Select the correct answer

Tutto è chiaro?

Come possiamo migliorarlo?

Grazie per i tuoi commenti!

Sezione 1. Capitolo 5

Chieda ad AI

expand

Chieda ad AI

ChatGPT

Chieda pure quello che desidera o provi una delle domande suggerite per iniziare la nostra conversazione

bookCreazione di Tensori Casuali

Scorri per mostrare il menu

I tensori casuali sono utili per l'inizializzazione dei dati o dei pesi nei modelli di machine learning (il caso d'uso più comune).

Tensori casuali uniformi

La funzione torch.rand() viene utilizzata per creare un tensore con valori casuali estratti da una distribuzione uniforme tra 0 e 1. Analogamente alle funzioni zeros() e ones(), gli argomenti specificano la forma del tensore.

1234
import torch # Create a 6x8 tensor with random values between 0 and 1 random_tensor = torch.rand(6, 8) print(random_tensor)
copy

Tensori Normali Casuali

La funzione torch.randn() viene utilizzata per creare un tensore con valori casuali estratti da una distribuzione normale standard (media = 0, deviazione standard = 1).

1234
import torch # Create a 2x2 tensor with random values from a normal distribution normal_tensor = torch.randn(2, 2) print(normal_tensor)
copy

Tensori Interi Casuali

La funzione torch.randint() viene utilizzata per creare un tensore con valori interi casuali estratti da una distribuzione uniforme discreta.

I primi due parametri di questa funzione (low, che di default è 0, e high) specificano l'intervallo dei valori (da low a high escluso). Il parametro successivo specifica la forma del tensore come una tupla.

1234
import torch # Create a 4x3 tensor with random integers between 0 and 10 integer_tensor = torch.randint(0, 10, (4, 3)) print(integer_tensor)
copy

Impostazione del Seed Casuale

Per garantire la riproducibilità, è possibile impostare un seed manuale. Questo fissa i numeri casuali generati in modo che siano gli stessi ogni volta che si esegue il codice.

123456
import torch # Set the random seed torch.manual_seed(42) # Create a 2x3 tensor with random values seeded_tensor = torch.rand(2, 3) print(seeded_tensor)
copy
Note
Nota

È possibile impostare il seed su qualsiasi intero arbitrario, e il valore effettivo dell'intero non è rilevante nella maggior parte dei casi — determina semplicemente la sequenza di numeri casuali generata. Il punto chiave è che utilizzando lo stesso seed si otterrà sempre la stessa sequenza di numeri casuali.

Casi d'Uso Pratici per i Tensori Casuali

  • Inizializzazione dei pesi: i tensori casuali sono spesso utilizzati per inizializzare i pesi nelle reti neurali;
  • Simulazione di dati: generazione di dataset casuali per test ed esperimenti;
  • Campionamento casuale: utilizzo di tensori casuali per attività come dropout e aggiunta di rumore nei modelli.
question mark

Quale delle seguenti affermazioni sui tensori casuali in PyTorch è corretta?

Select the correct answer

Tutto è chiaro?

Come possiamo migliorarlo?

Grazie per i tuoi commenti!

Sezione 1. Capitolo 5
some-alt