🏠 Início
Avaliações
📊 Todos os Benchmarks 🦖 Dinossauro v1 🦖 Dinossauro v2 ✅ Aplicações To-Do List 🎨 Páginas Livres Criativas 🎯 FSACB - Showcase Definitivo 🌍 Benchmark de Tradução
Modelos
🏆 Top 10 Modelos 🆓 Modelos Gratuitos 📋 Todos os Modelos ⚙️ Kilo Code
Recursos
💬 Biblioteca de Prompts 📖 Glossário de IA 🔗 Links Úteis

Glossário IA

O dicionário completo da Inteligência Artificial

242
categorias
3.306
subcategorias
39.932
termos
📖
termos

Aprendizado Federado

Abordagem de aprendizado distribuído onde os modelos ML treinam localmente em dispositivos edge sem compartilhar os dados brutos, apenas as atualizações do modelo sendo agregadas de forma centralizada.

📖
termos

Quantização de Modelo

Técnica de redução da precisão numérica dos pesos e ativações de um modelo ML (tipicamente de 32 bits para 8 bits) para otimizar seu tamanho e tempo de inferência em dispositivos edge.

📖
termos

TinyML

Domínio especializado do machine learning focado no deployment de modelos ultra-leves em microcontroladores com restrições extremas de memória (alguns KB) e consumo energético.

📖
termos

Inferência Edge

Processo de execução de previsões ML diretamente nos dispositivos edge, eliminando assim a dependência de servidores cloud e garantindo tempos de resposta sub-milissegundos.

📖
termos

Treinamento No Dispositivo

Capacidade de treinar ou retreinar modelos ML diretamente nos dispositivos edge, permitindo adaptação contínua com base nos dados locais sem transferência para o cloud.

📖
termos

Gestão de Dispositivos Edge

Conjunto de processos e ferramentas que permitem o deployment, monitoramento, manutenção e atualização remota de modelos ML em milhares de dispositivos edge distribuídos.

📖
termos

Aprendizado Edge Contínuo

Paradigma onde os modelos edge melhoram continuamente a partir de novos dados locais, com atualizações incrementais sincronizadas periodicamente com o cloud.

📖
termos

Treinamento Consciente de Largura de Banda

Estratégia de treinamento que otimiza o tamanho das atualizações do modelo e a frequência de sincronização com base nas restrições de largura de banda de rede disponíveis.

📖
termos

Latency-Aware Deployment

Abordagem de implantação que seleciona e otimiza as arquiteturas de modelos com base nos requisitos de latência específicos de cada aplicação edge crítica.

📖
termos

Resource-Constrained ML

Ramo do ML especializado no desenvolvimento de algoritmos e modelos otimizados para funcionar eficientemente sob restrições estritas de CPU, memória e energia.

📖
termos

Edge Model Versioning

Sistema de acompanhamento de versões de modelos ML implantados nos dispositivos edge, permitindo rollbacks rápidos e rastreabilidade completa das implantações.

📖
termos

Edge-to-Cloud Orchestration

Arquitetura de coordenação que otimiza a distribuição de tarefas ML entre edge e cloud com base nas restrições de tempo real, recursos disponíveis e necessidades de privacidade.

📖
termos

On-Device Model Compression

Técnicas aplicadas diretamente no dispositivo edge para reduzir dinamicamente o tamanho do modelo com base nas condições operacionais e no uso de recursos.

📖
termos

Edge Model Monitoring

Monitoramento contínuo do desempenho e do desvio dos modelos ML em produção nos dispositivos edge, com alertas e gatilhos para retreinamento automático.

📖
termos

Adaptive Edge Inference

Mecanismo que ajusta dinamicamente a complexidade do modelo de inferência com base nos recursos disponíveis e nos requisitos de precisão em tempo real.

📖
termos

Edge Model Synchronization

Processo de coordenação das atualizações de modelos entre dispositivos edge e servidor central, gerenciando conflitos e garantindo a consistência, minimizando o tráfego de rede.

🔍

Nenhum resultado encontrado