🏠 Inicio
Pruebas de rendimiento
📊 Todos los benchmarks 🦖 Dinosaurio v1 🦖 Dinosaurio v2 ✅ Aplicaciones To-Do List 🎨 Páginas libres creativas 🎯 FSACB - Showcase definitivo 🌍 Benchmark de traducción
Modelos
🏆 Top 10 modelos 🆓 Modelos gratuitos 📋 Todos los modelos ⚙️ Kilo Code
Recursos
💬 Biblioteca de prompts 📖 Glosario de IA 🔗 Enlaces útiles

Glosario IA

El diccionario completo de la Inteligencia Artificial

231
categorías
2.999
subcategorías
35.535
términos
📖
términos

AutoML Integrado

Subdominio del AutoML especializado en la generación automática de modelos optimizados para las restricciones específicas de los dispositivos integrados, incluyendo la memoria limitada, la baja capacidad de cómputo y las restricciones energéticas.

📖
términos

Cuantificación de modelo

Técnica de optimización que reduce la precisión numérica de los pesos y activaciones de una red neuronal (típicamente de 32 bits a 8 bits o menos) para disminuir el tamaño del modelo y acelerar la inferencia en hardware restringido.

📖
términos

Poda neuronal

Proceso de eliminación selectiva de pesos o neuronas redundantes en una red neuronal para reducir su complejidad computacional y su tamaño de memoria preservando su precisión.

📖
términos

Destilación de conocimiento

Método de transferencia de aprendizaje donde un modelo maestro grande entrena un modelo estudiante más compacto, permitiendo conservar el rendimiento del modelo grande en una arquitectura adaptada a dispositivos Edge.

📖
términos

Optimización de la inferencia

Conjunto de técnicas que buscan reducir el tiempo y los recursos necesarios para la ejecución de un modelo entrenado, incluyendo la fusión de operaciones, la asignación eficiente de memoria y la explotación del paralelismo del hardware.

📖
términos

NAS para Edge

Búsqueda de arquitectura neuronal restringida que optimiza automáticamente las estructuras de redes considerando específicamente las limitaciones de hardware de los dispositivos Edge como la latencia objetivo y el consumo energético.

📖
términos

Compilador de modelo

Herramienta que transforma los grafos de cálculo de IA en código máquina optimizado para arquitecturas objetivo específicas, integrando optimizaciones como la cuantificación y la fusión de operaciones.

📖
términos

TensorRT

SDK de optimización y runtime de NVIDIA para el despliegue de modelos de IA en producción, utilizando la cuantificación, la fusión de capas y la optimización del kernel para maximizar el rendimiento en GPUs NVIDIA.

📖
términos

TinyML

Campo del machine learning centrado en la ejecución de modelos de IA en microcontroladores y dispositivos de consumo ultrabajo, típicamente con menos de 1MB de memoria y operando a menos de 1mW.

📖
términos

Edge TPU

Acelerador de hardware ASIC desarrollado por Google específicamente para la inferencia de IA en el borde, optimizado para ejecutar modelos TensorFlow Lite cuantificados con alta eficiencia energética.

📖
términos

Optimización de la memoria

Técnicas de reducción de la huella de memoria de los modelos que incluyen el intercambio de pesos, compresión y asignación dinámica para adaptarse a las restricciones de los dispositivos embebidos.

📖
términos

Latencia de inferencia

Tiempo transcurrido entre la entrada de un dato en un modelo y la obtención de su predicción, parámetro crítico en las aplicaciones Edge en tiempo real donde los valores típicos objetivo son inferiores a 10ms.

📖
términos

Modelo ligero

Arquitectura de red neuronal diseñada específicamente para minimizar los parámetros y las operaciones computacionales, como MobileNet o EfficientNet, optimizada para despliegues en móviles y Edge.

📖
términos

Despliegue distribuido

Estrategia de distribución de las cargas de trabajo de IA entre múltiples dispositivos Edge para optimizar los recursos globales y mejorar la escalabilidad de las aplicaciones de IA distribuidas.

📖
términos

Optimización energética

Proceso de minimización del consumo eléctrico de los modelos de IA en dispositivos Edge, crucial para las aplicaciones alimentadas por batería y los despliegues a gran escala.

📖
términos

Edge AI

Paradigma de procesamiento de la inteligencia artificial directamente en los dispositivos de borde, eliminando la necesidad de comunicación con la nube para las tareas de inferencia críticas.

📖
términos

Microcontrolador IA

Sistema en chip ultra-bajo consumo que integra aceleradores de hardware dedicados a la inferencia de IA, permitiendo la ejecución de modelos TinyML con un consumo de pocos microwatts.

📖
términos

Optimización aware hardware

Enfoque de AutoML que integra las características específicas del hardware objetivo en el proceso de diseño automático de modelos, garantizando una compatibilidad y un rendimiento óptimos.

📖
términos

Fusión de operaciones

Técnica de compilación que combina múltiples capas u operaciones adyacentes en una sola operación kernel, reduciendo la sobrecarga de memoria y mejorando la eficiencia computacional en Edge.

🔍

No se encontraron resultados