Testes de Software - Marlon-Souza16/Redes-Neurais-e-Proteomica GitHub Wiki
- Acurácia: Mede a proporção de todas as previsões corretas em relação ao total de previsões feitas pelo modelo. Ou seja, é a taxa de acertos globais, considerando tanto classes positivas quanto negativas.
- Precisão: Mede a proporção de previsões corretas entre todas as previsões positivas feitas pelo modelo. Em outras palavras, é a quantidade de verdadeiros positivos em relação ao total de positivos preditos.
- Recall (Sensibilidade): Proporção de positivos reais que foram corretamente identificados pelo modelo.
- AUC-ROC: Métrica que avalia a capacidade do modelo em distinguir entre as classes positivas e negativas.
Por exemplo, a matriz de confusão de um Modelo x é apresentada a seguir:
Imagine que estamos tentando prever se vai chover em Joinville-SC ou não.
- Verdadeiro Positivo (TP): O modelo previu que ia chover, e realmente choveu.
- Falso Positivo (FP): O modelo previu que ia chover, mas não choveu.
- Falso Negativo (FN): O modelo previu que não ia chover, mas choveu.
- Verdadeiro Negativo (TN): O modelo previu que não ia chover, e realmente não choveu.