Glosario IA
El diccionario completo de la Inteligencia Artificial
Kubernetes para ML
Orquestación de contenedores Kubernetes adaptada a las cargas de trabajo de machine learning, incluyendo la gestión de GPU, el escalado horizontal de entrenamientos distribuidos y el despliegue automatizado de modelos de inferencia.
Clustering de GPU
Agregación de múltiples GPU en un clúster computacional unificado que permite el paralelismo de datos y modelos para acelerar el entrenamiento de redes neuronales profundas a gran escala.
Entrenamiento Distribuido
Técnica de entrenamiento de modelos ML que distribuye la carga computacional en varios nodos, utilizando estrategias como paralelismo de datos o paralelismo de modelos para reducir el tiempo de convergencia.
Agrupación de Recursos
Virtualización y uso compartido dinámico de recursos computacionales (CPU, GPU, memoria) entre diferentes tareas ML, optimizando la utilización y reduciendo los costos de infraestructura.
Autoscaling ML
Mecanismo de adaptación automática de recursos computacionales basado en métricas de carga de trabajo ML, garantizando un rendimiento óptimo durante los picos de entrenamiento o inferencia.
Orquestación de Contenedores
Automatización del despliegue, escalado y gestión de contenedores de aplicaciones ML, incluyendo el descubrimiento de servicios, el balanceo de carga y la resiliencia ante fallos.
Optimización de Inferencia
Conjunto de técnicas (cuantificación, poda, destilación) destinadas a reducir la latencia y el consumo de memoria de los modelos durante la fase de inferencia en producción.
Inferencia en Tiempo Real
Infraestructura capaz de proporcionar predicciones con latencia mínima (generalmente <100ms), esenciales para aplicaciones críticas como la detección de fraudes o sistemas de recomendación.
ML de Edge Computing
Despliegue de modelos ML en dispositivos edge para reducir la latencia, preservar la privacidad de datos y minimizar la dependencia de la conectividad de red.
ML Nativo en la Nube
Enfoque arquitectónico que explota los servicios nativos de la nube para el ciclo de vida completo de ML, desde el entrenamiento distribuido hasta el despliegue serverless de los modelos.
Infraestructura de Versionado de Modelos
Sistema de gestión de versiones de modelos ML con seguimiento de artefactos, metadatos de entrenamiento y capacidades de rollback para garantizar la trazabilidad y reproductibilidad.
Balanceo de Carga ML
Distribución inteligente de las solicitudes de inferencia entre múltiples instancias de modelos, basada en la carga CPU/GPU y la complejidad de las predicciones para optimizar los tiempos de respuesta.
Gestión de Clústeres
Supervisión y administración de conjuntos de nodos computacionales para ML, incluyendo el aprovisionamiento, monitoreo y mantenimiento de clústeres de entrenamiento e inferencia.
Gestión de Instancias Spot
Estrategia de uso de instancias spot en la nube de bajo costo para trabajos ML no críticos, con mecanismos de checkpointing y migración para gestionar interrupciones.
Programación de GPU
Asignación y programación optimizada de tareas ML en los recursos GPU disponibles, maximizando el rendimiento mientras respeta las prioridades y restricciones de los trabajos.
Despliegue ML Multi-Nube
Estrategia de despliegue de modelos ML en múltiples proveedores de nube para redundancia, optimización de costos y cumplimiento regulatorio de datos.
ML sin servidor
Arquitectura ML sin gestión explícita de servidores, donde la infraestructura se adapta automáticamente a la carga, facturada solo por el uso real de los recursos.
Infraestructura como Código para ML
Automatización del aprovisionamiento y la configuración de la infraestructura ML mediante código declarativo, asegurando reproducibilidad y gestión versionada de los entornos.