El nuevo desarrollo de IA de Apple puede integrar la IA en los iPhone
La introducción de nuevos modelos de IA por parte de Apple sugiere un claro enfoque en integrar inteligencia artificial directamente en los dispositivos Apple. El gigante tecnológico presentó recientemente OpenELM, una colección de cuatro modelos de lenguaje compacto alojados en la biblioteca de modelos Hugging Face, lo que indica un paso hacia la mejora de las capacidades de IA en dispositivos móviles. OpenELM (Open-source Efficient Language Models), que significa "Modelos de lenguaje eficientes de código abierto", es particularmente hábil en el manejo de tareas basadas en texto, como redactar correos electrónicos, y está disponible gratuitamente para que lo utilicen los desarrolladores.
Estos modelos se ofrecen en cuatro tamaños diferentes (270 millones, 450 millones, 1100 millones y 3000 millones de parámetros), cada uno de los cuales está diseñado para comprender una cantidad variable de variables a partir de sus datos de entrenamiento, lo que los hace adecuados para diversas necesidades de aplicaciones. Los modelos más pequeños son rentables y están diseñados específicamente para funcionar bien en dispositivos personales como teléfonos inteligentes y computadoras portátiles.
Además, en diciembre, Apple lanzó MLX, un nuevo marco de aprendizaje automático para optimizar las operaciones de IA en Apple Silicon, consolidando aún más su compromiso con la IA avanzada. Esto fue acompañado por el lanzamiento de MGIE, un modelo de edición de imágenes que permite corregir fotografías mediante indicaciones simples, y Ferret-UI, un modelo diseñado para mejorar la navegación en teléfonos inteligentes. Estos desarrollos señalan los esfuerzos continuos de Apple para integrar tecnologías de inteligencia artificial más sofisticadas en sus dispositivos de consumo.