Glossário IA
O dicionário completo da Inteligência Artificial
Reamostragem Justa
Técnica de pré-processamento que modifica a distribuição dos dados de treinamento, super-representando grupos minoritários ou sub-representados para reduzir as disparidades algorítmicas nas previsões do modelo.
Ponderação Inversa da Probabilidade
Método de correção de viés que atribui pesos aos exemplos de treinamento inversamente proporcionais à sua frequência na população, compensando assim o desequilíbrio entre grupos demográficos.
Aprendizagem Adversarial para Equidade
Abordagem de treinamento simultâneo de um preditor principal e um adversário que busca prever atributos sensíveis, forçando o modelo principal a gerar representações invariantes às características protegidas.
Calibração Justa das Previsões
Técnica de pós-processamento que ajusta as pontuações de previsão para garantir que as probabilidades previstas correspondam às frequências observadas de forma consistente entre diferentes grupos demográficos.
Otimização com Restrições de Equidade
Método de treinamento que integra restrições matemáticas sobre as métricas de equidade diretamente na função objetivo, garantindo o cumprimento dos critérios de justiça durante a otimização do modelo.
Equalização de Oportunidades Otimizada
Técnica de tratamento que garante taxas de verdadeiros positivos iguais entre grupos, maximizando o desempenho geral, frequentemente implementada através de funções de perda específicas ou ajustes de limiares.
Paridade Demográfica Ajustada
Método de correção que garante que as previsões positivas sejam distribuídas proporcionalmente entre diferentes grupos demográficos, independentemente de suas características intrínsecas.
Desenviesamento por Causalidade
Abordagem que utiliza grafos causais para identificar e neutralizar os caminhos de causalidade que introduzem vieses, preservando apenas as relações relevantes para a tarefa de previsão.
Aprendizagem por invariância de grupo
Técnica de treinamento que força o modelo a aprender representações invariantes às variações entre grupos demográficos, preservando as informações relevantes para a tarefa principal.
Correção pós-hoc por limiares adaptativos
Método aplicado após o treinamento, ajustando dinamicamente os limiares de decisão por grupo para equilibrar as métricas de desempenho e garantir a equidade nas previsões finais.
Redução de disparidade por reponderação
Técnica de pré-processamento que recalcula os pesos das instâncias de treinamento para minimizar a divergência estatística entre a distribuição observada e uma distribuição alvo equitativa.
Mascaramento equitativo de características (Feature masking)
Estratégia de processamento que mascara seletivamente ou transforma características potencialmente enviesadas durante o treinamento para forçar o modelo a se basear em atributos não discriminatórios.
Correção de viés de seleção
Conjunto de técnicas que identificam e compensam as distorções introduzidas por processos de amostragem não aleatórios que favorecem sistematicamente certos subgrupos da população.
Aprendizagem robusta a ataques de equidade
Metodologia de treinamento que integra exemplos adversariais projetados para amplificar os vieses, reforçando assim a resistência do modelo contra manipulações que visam degradar sua equidade.
Desenviesamento por contrafactualidade
Técnica que gera exemplos contrafactuais modificando os atributos sensíveis para treinar o modelo a produzir previsões invariantes às mudanças nessas características protegidas.
Balanceamento de distribuições por transporte ótimo
Método avançado que utiliza a teoria do transporte ótimo para transformar a distribuição dos dados de um grupo minoritário a fim de aproximá-la da do grupo majoritário, reduzindo assim os vieses sistêmicos.
Regularização Justa por Divergência
Técnica de treinamento que adiciona um termo de penalidade baseado em medidas de divergência (KL, JS, Wasserstein) entre as distribuições de previsões de diferentes grupos para garantir a equidade estatística.