Glossário IA
O dicionário completo da Inteligência Artificial
Aprendizado Federado
Abordagem de aprendizado distribuído onde os modelos ML treinam localmente em dispositivos edge sem compartilhar os dados brutos, apenas as atualizações do modelo sendo agregadas de forma centralizada.
Quantização de Modelo
Técnica de redução da precisão numérica dos pesos e ativações de um modelo ML (tipicamente de 32 bits para 8 bits) para otimizar seu tamanho e tempo de inferência em dispositivos edge.
TinyML
Domínio especializado do machine learning focado no deployment de modelos ultra-leves em microcontroladores com restrições extremas de memória (alguns KB) e consumo energético.
Inferência Edge
Processo de execução de previsões ML diretamente nos dispositivos edge, eliminando assim a dependência de servidores cloud e garantindo tempos de resposta sub-milissegundos.
Treinamento No Dispositivo
Capacidade de treinar ou retreinar modelos ML diretamente nos dispositivos edge, permitindo adaptação contínua com base nos dados locais sem transferência para o cloud.
Gestão de Dispositivos Edge
Conjunto de processos e ferramentas que permitem o deployment, monitoramento, manutenção e atualização remota de modelos ML em milhares de dispositivos edge distribuídos.
Aprendizado Edge Contínuo
Paradigma onde os modelos edge melhoram continuamente a partir de novos dados locais, com atualizações incrementais sincronizadas periodicamente com o cloud.
Treinamento Consciente de Largura de Banda
Estratégia de treinamento que otimiza o tamanho das atualizações do modelo e a frequência de sincronização com base nas restrições de largura de banda de rede disponíveis.
Latency-Aware Deployment
Abordagem de implantação que seleciona e otimiza as arquiteturas de modelos com base nos requisitos de latência específicos de cada aplicação edge crítica.
Resource-Constrained ML
Ramo do ML especializado no desenvolvimento de algoritmos e modelos otimizados para funcionar eficientemente sob restrições estritas de CPU, memória e energia.
Edge Model Versioning
Sistema de acompanhamento de versões de modelos ML implantados nos dispositivos edge, permitindo rollbacks rápidos e rastreabilidade completa das implantações.
Edge-to-Cloud Orchestration
Arquitetura de coordenação que otimiza a distribuição de tarefas ML entre edge e cloud com base nas restrições de tempo real, recursos disponíveis e necessidades de privacidade.
On-Device Model Compression
Técnicas aplicadas diretamente no dispositivo edge para reduzir dinamicamente o tamanho do modelo com base nas condições operacionais e no uso de recursos.
Edge Model Monitoring
Monitoramento contínuo do desempenho e do desvio dos modelos ML em produção nos dispositivos edge, com alertas e gatilhos para retreinamento automático.
Adaptive Edge Inference
Mecanismo que ajusta dinamicamente a complexidade do modelo de inferência com base nos recursos disponíveis e nos requisitos de precisão em tempo real.
Edge Model Synchronization
Processo de coordenação das atualizações de modelos entre dispositivos edge e servidor central, gerenciando conflitos e garantindo a consistência, minimizando o tráfego de rede.