Wiskundige Bewerkingen met Tensors
Elementgewijze bewerkingen
Elementgewijze bewerkingen worden op elk element in de tensor individueel toegepast. Deze bewerkingen, zoals optellen, aftrekken en delen, werken vergelijkbaar met hoe ze in NumPy functioneren:
123456789101112131415import torch a = torch.tensor([1, 2, 3]) b = torch.tensor([4, 5, 6]) # Element-wise addition addition_result = a + b print(f"Addition: {addition_result}") # Element-wise subtraction subtraction_result = a - b print(f"Subtraction: {subtraction_result}") # Element-wise multiplication multiplication_result = a * b print(f"Multiplication: {multiplication_result}") # Element-wise division division_result = a / b print(f"Division: {division_result}")
Matrixbewerkingen
PyTorch ondersteunt ook matrixvermenigvuldiging en dotproduct, die worden uitgevoerd met de functie torch.matmul():
123456import torch x = torch.tensor([[1, 2], [3, 4]]) y = torch.tensor([[5, 6], [7, 8]]) # Matrix multiplication z = torch.matmul(x, y) print(f"Matrix multiplication: {z}")
Je kunt ook de @-operator gebruiken voor matrixvermenigvuldiging:
12345import torch x = torch.tensor([[1, 2], [3, 4]]) y = torch.tensor([[5, 6], [7, 8]]) z = x @ y print(f"Matrix Multiplication with @: {z}")
Aggregatiebewerkingen
Aggregatiebewerkingen berekenen samenvattende statistieken uit tensors, zoals som, gemiddelde, maximum- en minimumwaarden, die kunnen worden berekend met hun respectievelijke methoden.
12345678910import torch tensor = torch.tensor([[1, 2, 3], [4, 5, 6]]).float() # Sum of all elements print(f"Sum: {tensor.sum()}") # Mean of all elements print(f"Mean: {tensor.mean()}") # Maximum value print(f"Max: {tensor.max()}") # Minimum value print(f"Min: {tensor.min()}")
De float()-methode is gebruikt om het gegevenstype van de tensor om te zetten naar floating-point, omdat de mean()-methode een floating-point gegevenstype vereist. Zonder deze conversie behoudt de tensor zijn standaard integer-type, wat niet compatibel is met mean().
Aggregatiemethoden hebben ook twee optionele parameters:
dim: specificeert de dimensie (vergelijkbaar metaxisin NumPy) waarlangs de bewerking wordt uitgevoerd. Standaard, alsdimniet is opgegeven, wordt de bewerking toegepast op alle elementen van de tensor;keepdim: een booleaanse vlag (Falsestandaard). Indien ingesteld opTrue, wordt de gereduceerde dimensie behouden als een dimensie van grootte1in de uitvoer, waarbij het oorspronkelijke aantal dimensies behouden blijft.
12345678import torch tensor = torch.tensor([[1, 2, 3], [4, 5, 6]]) # Aggregation operations along specific dimensions print(f"Sum along rows (dim=1): {tensor.sum(dim=1)}") print(f"Sum along columns (dim=0): {tensor.sum(dim=0)}") # Aggregation with keepdim=True print(f"Sum along rows with keepdim (dim=1): {tensor.sum(dim=1, keepdim=True)}") print(f"Sum along columns with keepdim (dim=0): {tensor.sum(dim=0, keepdim=True)}")
Broadcasting
Broadcasting maakt bewerkingen mogelijk tussen tensors van verschillende vormen door automatisch dimensies uit te breiden. Indien een opfrissing over broadcasting nodig is, zijn meer details te vinden hier.
123456import torch a = torch.tensor([[1, 2, 3]]) # Shape (1, 3) b = torch.tensor([[4], [5]]) # Shape (2, 1) # Broadcasting addition c = a + b print(f"Broadcasted addition: {c}")
Nuttige Wiskundige Functies
PyTorch biedt ook diverse wiskundige functies zoals exponentiële, logaritmische en trigonometrische functies.
1234567tensor = torch.tensor([1.0, 2.0, 3.0]) # Exponentiation print(f"Exponent: {tensor.exp()}") # Logarithm print(f"Logarithm: {tensor.log()}") # Sine print(f"Sine: {tensor.sin()}")
Bedankt voor je feedback!
Vraag AI
Vraag AI
Vraag wat u wilt of probeer een van de voorgestelde vragen om onze chat te starten.
Geweldig!
Completion tarief verbeterd naar 5
Wiskundige Bewerkingen met Tensors
Veeg om het menu te tonen
Elementgewijze bewerkingen
Elementgewijze bewerkingen worden op elk element in de tensor individueel toegepast. Deze bewerkingen, zoals optellen, aftrekken en delen, werken vergelijkbaar met hoe ze in NumPy functioneren:
123456789101112131415import torch a = torch.tensor([1, 2, 3]) b = torch.tensor([4, 5, 6]) # Element-wise addition addition_result = a + b print(f"Addition: {addition_result}") # Element-wise subtraction subtraction_result = a - b print(f"Subtraction: {subtraction_result}") # Element-wise multiplication multiplication_result = a * b print(f"Multiplication: {multiplication_result}") # Element-wise division division_result = a / b print(f"Division: {division_result}")
Matrixbewerkingen
PyTorch ondersteunt ook matrixvermenigvuldiging en dotproduct, die worden uitgevoerd met de functie torch.matmul():
123456import torch x = torch.tensor([[1, 2], [3, 4]]) y = torch.tensor([[5, 6], [7, 8]]) # Matrix multiplication z = torch.matmul(x, y) print(f"Matrix multiplication: {z}")
Je kunt ook de @-operator gebruiken voor matrixvermenigvuldiging:
12345import torch x = torch.tensor([[1, 2], [3, 4]]) y = torch.tensor([[5, 6], [7, 8]]) z = x @ y print(f"Matrix Multiplication with @: {z}")
Aggregatiebewerkingen
Aggregatiebewerkingen berekenen samenvattende statistieken uit tensors, zoals som, gemiddelde, maximum- en minimumwaarden, die kunnen worden berekend met hun respectievelijke methoden.
12345678910import torch tensor = torch.tensor([[1, 2, 3], [4, 5, 6]]).float() # Sum of all elements print(f"Sum: {tensor.sum()}") # Mean of all elements print(f"Mean: {tensor.mean()}") # Maximum value print(f"Max: {tensor.max()}") # Minimum value print(f"Min: {tensor.min()}")
De float()-methode is gebruikt om het gegevenstype van de tensor om te zetten naar floating-point, omdat de mean()-methode een floating-point gegevenstype vereist. Zonder deze conversie behoudt de tensor zijn standaard integer-type, wat niet compatibel is met mean().
Aggregatiemethoden hebben ook twee optionele parameters:
dim: specificeert de dimensie (vergelijkbaar metaxisin NumPy) waarlangs de bewerking wordt uitgevoerd. Standaard, alsdimniet is opgegeven, wordt de bewerking toegepast op alle elementen van de tensor;keepdim: een booleaanse vlag (Falsestandaard). Indien ingesteld opTrue, wordt de gereduceerde dimensie behouden als een dimensie van grootte1in de uitvoer, waarbij het oorspronkelijke aantal dimensies behouden blijft.
12345678import torch tensor = torch.tensor([[1, 2, 3], [4, 5, 6]]) # Aggregation operations along specific dimensions print(f"Sum along rows (dim=1): {tensor.sum(dim=1)}") print(f"Sum along columns (dim=0): {tensor.sum(dim=0)}") # Aggregation with keepdim=True print(f"Sum along rows with keepdim (dim=1): {tensor.sum(dim=1, keepdim=True)}") print(f"Sum along columns with keepdim (dim=0): {tensor.sum(dim=0, keepdim=True)}")
Broadcasting
Broadcasting maakt bewerkingen mogelijk tussen tensors van verschillende vormen door automatisch dimensies uit te breiden. Indien een opfrissing over broadcasting nodig is, zijn meer details te vinden hier.
123456import torch a = torch.tensor([[1, 2, 3]]) # Shape (1, 3) b = torch.tensor([[4], [5]]) # Shape (2, 1) # Broadcasting addition c = a + b print(f"Broadcasted addition: {c}")
Nuttige Wiskundige Functies
PyTorch biedt ook diverse wiskundige functies zoals exponentiële, logaritmische en trigonometrische functies.
1234567tensor = torch.tensor([1.0, 2.0, 3.0]) # Exponentiation print(f"Exponent: {tensor.exp()}") # Logarithm print(f"Logarithm: {tensor.log()}") # Sine print(f"Sine: {tensor.sin()}")
Bedankt voor je feedback!