23.02.2024
3068

Google запускает Gemma – облегченные открытые LLM

Юлия Заблоцька
автор ApiX-Drive
Время прочтения: ~6 мин

Вскоре после выпуска своей последней модели ИИ, Gemini, Google анонсировала запуск Gemma – новой линейки открытых легковесных языковых моделей. В основу новинок легли аналогичные научные достижения и технологические решения, на которых базируется Gemini. По словам представителей корпорации, семейство Gemma задумывалось как инструмент для более осознанного и безопасного создания искусственного интеллекта. Его предназначение – предоставить разработчикам средства для более ответственного подхода к развитию ИИ.

Первые модели из этой серии, Gemma 2B и Gemma 7B, – предварительно обученные варианты, настроенные для использования по инструкциям. Доступ к ним уже открыт как для коммерческого, так и научного применения. Причем совершенно бесплатно. В дополнение к этим моделям Google дает набор инструментов для разработчиков под названием Responsible Generative AI Toolkit, облегчающий работу с ИИ.

Gemma 2B и 7B выделяются среди других ИИ-моделей уникальной способностью достигать выдающейся для своих размеров производительности. Это стало возможным благодаря общей базе с Gemini, самой мощной моделью ИИ от Google. В компании заявляют, что в тестированиях MMLU их новинки превосходят такие известные открытые модели, как Mistral 7B и Llama 13B.  

Весомое преимущество Gemma 2B и 7B заключается в их доступности для использования на стандартных компьютерах, ноутбуках и в облачной среде Google. Это делает их выгодным выбором по сравнению с конкурентами. Еще один плюс –оптимизация для работы с графическими процессорами NVIDIA. Кроме того, они интегрируются с такими популярными сервисами и инструментами, как Colab, Kaggle, Hugging Face, MaxText и TensorRT-LLM.

Трис Варкентин, директор по управлению продуктами в Google DeepMind, подчеркнул значительный прогресс в качестве генерации контента, достигнутый за последний год. Теперь возможности, которые ранее можно было получить только с крупнейшими моделями, становятся доступными с LLM гораздо меньшего размера. Настройка на локальных устройствах с графическими процессорами RTX или облачными TPU в GCP существенно расширяет возможности разработчиков. Все это открывает совершенно новые горизонты для создания приложений на базе ИИ.