O Que É k-NN
Vamos iniciar nossa jornada de classificação com a tarefa mais simples - classificação binária. Suponha que desejamos classificar doces como biscoitos/não biscoitos com base em uma única característica: seu peso.
Uma maneira simples de prever a classe de uma nova instância é observar seu vizinho mais próximo. No nosso exemplo, devemos encontrar o doce cujo peso seja mais semelhante ao da nova instância.
Essa é a ideia por trás do k-Nearest Neighbors (k-NN) - apenas observamos os vizinhos. O algoritmo k-NN assume que coisas semelhantes existem em proximidade. Em outras palavras, coisas semelhantes estão próximas umas das outras. O k em k-NN representa o número de vizinhos considerados ao fazer uma previsão.
No exemplo acima, consideramos apenas 1 vizinho, portanto era o 1-Nearest Neighbor. Mas geralmente, k é definido como um número maior, pois considerar apenas um vizinho pode ser não confiável:
Se k (número de vizinhos) for maior que um, escolhe-se a classe mais frequente na vizinhança como previsão. Aqui está um exemplo de previsão de duas novas instâncias com k=3:
Como pode ser observado, alterar o valor de k pode resultar em previsões diferentes.
Ocasionalmente, o k-NN produz um empate quando várias classes aparecem com a mesma frequência entre os vizinhos mais próximos. A maioria das bibliotecas, incluindo o scikit-learn, resolve empates escolhendo a primeira classe em sua ordem interna – algo importante a considerar, pois pode afetar sutilmente a reprodutibilidade e a interpretação.
Obrigado pelo seu feedback!
Pergunte à IA
Pergunte à IA
Pergunte o que quiser ou experimente uma das perguntas sugeridas para iniciar nosso bate-papo
Awesome!
Completion rate improved to 4.17
O Que É k-NN
Deslize para mostrar o menu
Vamos iniciar nossa jornada de classificação com a tarefa mais simples - classificação binária. Suponha que desejamos classificar doces como biscoitos/não biscoitos com base em uma única característica: seu peso.
Uma maneira simples de prever a classe de uma nova instância é observar seu vizinho mais próximo. No nosso exemplo, devemos encontrar o doce cujo peso seja mais semelhante ao da nova instância.
Essa é a ideia por trás do k-Nearest Neighbors (k-NN) - apenas observamos os vizinhos. O algoritmo k-NN assume que coisas semelhantes existem em proximidade. Em outras palavras, coisas semelhantes estão próximas umas das outras. O k em k-NN representa o número de vizinhos considerados ao fazer uma previsão.
No exemplo acima, consideramos apenas 1 vizinho, portanto era o 1-Nearest Neighbor. Mas geralmente, k é definido como um número maior, pois considerar apenas um vizinho pode ser não confiável:
Se k (número de vizinhos) for maior que um, escolhe-se a classe mais frequente na vizinhança como previsão. Aqui está um exemplo de previsão de duas novas instâncias com k=3:
Como pode ser observado, alterar o valor de k pode resultar em previsões diferentes.
Ocasionalmente, o k-NN produz um empate quando várias classes aparecem com a mesma frequência entre os vizinhos mais próximos. A maioria das bibliotecas, incluindo o scikit-learn, resolve empates escolhendo a primeira classe em sua ordem interna – algo importante a considerar, pois pode afetar sutilmente a reprodutibilidade e a interpretação.
Obrigado pelo seu feedback!