Glossário IA
O dicionário completo da Inteligência Artificial
Verdadeiro Positivo (True Positive)
Caso onde o modelo prevê corretamente a classe positiva, correspondendo às observações corretamente identificadas como pertencentes à classe alvo.
Verdadeiro Negativo (True Negative)
Caso onde o modelo prevê corretamente a classe negativa, representando as observações corretamente excluídas da classe alvo.
Falso Positivo (False Positive)
Erro do tipo I onde o modelo prevê incorretamente a classe positiva, correspondendo aos falsos alarmes ou observações incorretamente classificadas como positivas.
Falso Negativo (False Negative)
Erro do tipo II onde o modelo prevê incorretamente a classe negativa, representando as falhas na detecção de observações realmente positivas.
Revocação (Recall/Sensibilidade)
Capacidade do modelo de detectar todas as observações positivas, medida pela razão TP/(TP+FN) indicando a taxa de detecção da classe alvo.
Taxa de Erro (Error Rate)
Proporção de observações incorretamente classificadas pelo modelo, calculada como (FP+FN)/(Total) representando o desempenho global de erro.
Acurácia
Proporção global de previsões corretas, calculada como (TP+TN)/(Total), medindo o desempenho geral do classificador.
Acurácia Balanceada
Média da revocação para cada classe, fornecendo uma métrica adaptada a conjuntos de dados desequilibrados ao dar peso igual a todas as classes.
MCC (Matthews Correlation Coefficient)
Coeficiente de correlação entre as observações e as previsões binárias, considerado uma medida robusta mesmo para classes desequilibradas.
Curva Precision-Recall
Gráfico que traça a precisão em relação ao recall para diferentes limiares, particularmente útil para avaliar o desempenho em conjuntos de dados desequilibrados.