Notice: This page requires JavaScript to function properly.
Please enable JavaScript in your browser settings or update your browser.
Aprenda Funções de Ativação | Seção
/
Fundamentos de Redes Neurais

bookFunções de Ativação

Deslize para mostrar o menu

"Chefe" de um Neurônio

Note
Definição

Funções de ativação são funções matemáticas que transformam a entrada ponderada de um neurônio em um valor de saída. Esse valor de saída determina o quão fortemente o neurônio é ativado, permitindo que redes neurais aprendam relações não lineares.

Imagine um departamento de escritório. Funcionários processam informações recebidas — esses funcionários representam os pesos de um neurônio, e a informação que recebem é a entrada. Após os funcionários concluírem seu trabalho, o chefe do departamento decide o que fazer em seguida. Nessa analogia, o chefe é a função de ativação.

Cada peso (funcionário) lida com as informações de maneira diferente, mas a decisão final é tomada pela função de ativação — o “chefe” interno do neurônio. Ela avalia o valor processado e decide se envia esse sinal adiante ou o suprime. Isso ajuda a rede a transmitir apenas as informações mais relevantes.

Note
Nota

Os trabalhadores neste exemplo atuam como conexões de neurônios. Eles recebem sua entrada e a transformam de acordo com os pesos que conhecem.

Matematicamente, uma função de ativação introduz não linearidade, permitindo que os neurônios detectem padrões complexos que funções lineares não conseguem capturar. Sem funções de ativação não lineares, uma rede neural se comportaria como um modelo linear simples, independentemente da quantidade de camadas.

Opções de Função de Ativação

Redes neurais utilizam comumente as seguintes funções de ativação:

  • Sigmoid: mapeia qualquer número real para o intervalo 0 a 1. Útil quando a saída representa uma probabilidade ou grau de certeza;
  • ReLU (Unidade Linear Retificada): retorna 0 para valores negativos e mantém valores positivos inalterados. ReLU é simples, eficiente e auxilia as redes a aprenderem padrões complexos sem o problema de gradiente desaparecendo comum em sigmoid/tanh;
  • Tanh (Tangente Hiperbólica): semelhante ao sigmoid, mas retorna valores entre –1 e 1, proporcionando um gradiente mais forte para entradas negativas e frequentemente sendo mais eficaz que o sigmoid em camadas ocultas;

Diferenças entre Funções de Ativação

Funções de ativação diferentes são utilizadas em situações distintas, dependendo da tarefa que a rede neural precisa resolver.

Se a função de ativação ReLU for utilizada, o neurônio opera por uma regra simples — mantém todos os valores importantes (positivos) e descarta todos os não importantes (negativos).

Quando um neurônio utiliza a ativação sigmoid, sua saída se torna um valor entre 0 e 1, interpretado como uma probabilidade ou pontuação de importância. Isso auxilia a rede a decidir o quanto o neurônio deve influenciar a próxima camada.

De modo geral, a função de ativação é a regra que determina como um neurônio reage às informações recebidas. Ela adiciona flexibilidade, molda como os sinais fluem pela rede e permite que o modelo aprenda padrões ricos e em camadas — tornando as redes neurais capazes de previsões precisas e adaptativas.

1. O que é uma função de ativação em uma rede neural?

2. O que a função de ativação sigmoid faz?

3. Qual é o papel da função de ativação em uma rede neural?

question mark

O que é uma função de ativação em uma rede neural?

Select the correct answer

question mark

O que a função de ativação sigmoid faz?

Select the correct answer

question mark

Qual é o papel da função de ativação em uma rede neural?

Select the correct answer

Tudo estava claro?

Como podemos melhorá-lo?

Obrigado pelo seu feedback!

Seção 1. Capítulo 6

Pergunte à IA

expand

Pergunte à IA

ChatGPT

Pergunte o que quiser ou experimente uma das perguntas sugeridas para iniciar nosso bate-papo

Seção 1. Capítulo 6
some-alt