Glossário IA
O dicionário completo da Inteligência Artificial
Taxa de Convergência
Medida da velocidade com que o algoritmo de aprendizagem federada atinge uma solução ótima ou um ponto estacionário, influenciada pela heterogeneidade dos dados e pela comunicação entre clientes.
Atualizações Locais
Número de iterações de otimização realizadas localmente em cada cliente antes da comunicação com o servidor central, impactando diretamente a convergência e a eficiência computacional.
Modelo Global
Modelo agregado resultante da federação das contribuições de todos os clientes participantes, representando o conhecimento coletivo do sistema distribuído.
Compressão de Gradiente
Técnica que reduz o tamanho dos gradientes transmitidos entre clientes e servidor por quantização ou amostragem, melhorando a eficiência de comunicação enquanto preserva a convergência.
Privacidade Diferencial
Quadro teórico que garante a confidencialidade ao adicionar ruído controlado às atualizações locais, impactando o compromisso entre privacidade e convergência do modelo federado.
Tolerância a Falhas Bizantinas
Robustez do sistema contra clientes maliciosos ou com falhas que enviam atualizações incorretas, exigindo mecanismos de detecção e agregação resistentes.
Aprendizagem Federada Assíncrona
Paradigma de treinamento onde os clientes atualizam o modelo global de forma assíncrona, reduzindo os tempos de espera, mas complexificando a análise de convergência.
Heterogeneidade de Modelo
Gestão da heterogeneidade arquitetônica entre modelos de clientes em sistemas federados, exigindo estratégias de agregação adaptadas para garantir a convergência.
Análise de Convergência
Estudo teórico das condições que garantem a convergência dos algoritmos federados, considerando a heterogeneidade dos dados, falhas e restrições de comunicação.
Paisagem de Otimização
Superfície de perda coletiva na aprendizagem federada, caracterizada por múltiplos ótimos locais devido à distribuição não-IID dos dados entre clientes.
Amostragem de Clientes
Estratégia de seleção de um subconjunto de clientes em cada rodada de treinamento, influenciando a velocidade de convergência e a equidade de representação no modelo global.
Momentum na Aprendizagem Federada
Técnica de aceleração de convergência usando o histórico de gradientes locais ou globais para estabilizar e acelerar a otimização em ambientes distribuídos.
Garantias de Convergência
Propriedades teóricas que asseguram que o algoritmo federado convergirá sob certas condições, incluindo limites sobre a taxa de convergência e a qualidade final do modelo.
Otimização Federada
Disciplina que estuda os métodos de otimização específicos para as restrições da aprendizagem federada, combinando teoria da otimização e sistemas distribuídos.
Heterogeneidade do Sistema
Variabilidade das capacidades computacionais e de rede entre clientes, impactando diretamente as estratégias de convergência e exigindo abordagens adaptativas.