Distilado (del inglés distillation) es una técnica de compresión de modelos de inteligencia artificial que consiste en entrenar un modelo más pequeño (llamado estudiante) para que imite el comportamiento de un modelo grande y complejo (llamado maestro o profesor).
En lugar de aprender directamente de datos etiquetados, el modelo estudiante aprende observando las salidas del modelo maestro —como las probabilidades que asigna a distintas palabras o clases—, lo que le permite capturar patrones y conocimientos de alto nivel con menos parámetros.
El distilado permite crear versiones más livianas de modelos potentes, manteniendo gran parte de su precisión, pero con menor costo computacional, lo que los hace ideales para ejecutarse en teléfonos móviles, navegadores o dispositivos embebidos.
« Volver al índice del glosarioADVERTENCIA: DiarioBitcoin ofrece contenido informativo y educativo sobre diversos temas, incluyendo criptomonedas, IA, tecnología y regulaciones. No brindamos asesoramiento financiero. Las inversiones en criptoactivos son de alto riesgo y pueden no ser adecuadas para todos. Investigue, consulte a un experto y verifique la legislación aplicable antes de invertir. Podría perder todo su capital.
Suscríbete a nuestro boletín
Artículos Relacionados

HIGGS y la nueva cuantización podrían llevar la IA de ChatGPT directo a tu celular

La IA de Google hace posible la comunicación con delfines

Deepfakes 2.0: por qué 2025 apunta a récord de estafas cripto impulsadas por IA (y cómo blindarte)
