Challenge: Implementing Scaled Dot-Product Attention
Свайпніть щоб показати меню
Task
You now have all the pieces to implement scaled dot-product attention from scratch. Using the formula from the previous chapter, write a function scaled_dot_product_attention that:
- Takes
Q,K,Vtensors of shape(batch_size, seq_len, d_k)as input; - Accepts an optional
masktensor of shape(batch_size, seq_len_q, seq_len_k)— when provided, positions wheremask == 0should be set to-infbefore softmax; - Returns the output tensor and the attention weights.
Implement the function locally.
Все було зрозуміло?
Дякуємо за ваш відгук!
Секція 1. Розділ 3
Запитати АІ
Запитати АІ
Запитайте про що завгодно або спробуйте одне із запропонованих запитань, щоб почати наш чат
Секція 1. Розділ 3