Testes de Software - Marlon-Souza16/Redes-Neurais-e-Proteomica GitHub Wiki

Avaliação e teste dos modelos de IA

Métricas de Desempenho

  • Acurácia: Mede a proporção de todas as previsões corretas em relação ao total de previsões feitas pelo modelo. Ou seja, é a taxa de acertos globais, considerando tanto classes positivas quanto negativas.
  • Precisão: Mede a proporção de previsões corretas entre todas as previsões positivas feitas pelo modelo. Em outras palavras, é a quantidade de verdadeiros positivos em relação ao total de positivos preditos.
  • Recall (Sensibilidade): Proporção de positivos reais que foram corretamente identificados pelo modelo.
  • AUC-ROC: Métrica que avalia a capacidade do modelo em distinguir entre as classes positivas e negativas.

Matriz de Confusão

Por exemplo, a matriz de confusão de um Modelo x é apresentada a seguir:

confusion_example

Imagine que estamos tentando prever se vai chover em Joinville-SC ou não.

  • Verdadeiro Positivo (TP): O modelo previu que ia chover, e realmente choveu.
  • Falso Positivo (FP): O modelo previu que ia chover, mas não choveu.
  • Falso Negativo (FN): O modelo previu que não ia chover, mas choveu.
  • Verdadeiro Negativo (TN): O modelo previu que não ia chover, e realmente não choveu.
⚠️ **GitHub.com Fallback** ⚠️