23.02.2024
266

Google lanza Gemma: LLM abiertos y ligeros

Yuliia Zablotska
Autora en ApiX-Drive
Tiempo de leer: ~2 min

Poco después de lanzar su último modelo de IA, Gemini, Google anunció el lanzamiento de Gemma, una nueva línea de modelos de lenguaje abiertos y livianos. Los nuevos productos se basan en logros científicos y soluciones tecnológicas similares a las que se basa Gemini. Según representantes de la corporación, la familia Gemma fue concebida como una herramienta para una creación más consciente y segura de inteligencia artificial. Su propósito es proporcionar a los desarrolladores las herramientas para adoptar un enfoque más responsable en el desarrollo de la IA.

Los primeros modelos de esta serie, Gemma 2B y Gemma 7B, son variantes preentrenadas, configuradas para uso guiado. El acceso a ellos ya está abierto para uso tanto comercial como científico. Y completamente gratis. Además de estos modelos, Google proporciona un conjunto de herramientas para desarrolladores llamado Responsible Generative AI Toolkit para facilitar el trabajo con IA.

Gemma 2B y 7B se destacan de otros modelos de IA por su capacidad única de lograr un rendimiento excepcional para su tamaño. Esto es posible al compartir una base común con Gemini, el modelo de inteligencia artificial más poderoso de Google. La compañía afirma que en las pruebas MMLU sus nuevos productos son superiores a modelos abiertos tan conocidos como Mistral 7B y Llama 13B.

Una ventaja significativa de Gemma 2B y 7B es su disponibilidad para su uso en computadoras estándar, portátiles y en el entorno de nube de Google. Esto los convierte en una opción ventajosa en comparación con sus competidores. Otra ventaja es la optimización para trabajar con GPU NVIDIA. Además, se integran con servicios y herramientas populares como Colab, Kaggle, Hugging Face, MaxText y TensorRT-LLM.

Tris Warkentin, directora de gestión de productos de Google DeepMind, destacó los importantes avances en la calidad de la generación de contenidos realizados durante el último año. Ahora las capacidades que antes solo estaban disponibles con los modelos más grandes ahora están disponibles con LLM mucho más pequeños. La configuración en dispositivos locales con GPU RTX o TPU en la nube en GCP amplía significativamente la experiencia del desarrollador. Todo esto abre horizontes completamente nuevos para la creación de aplicaciones basadas en IA.