23.02.2024
196

Google запускає Gemma – полегшені відкриті LLM

Юлія Заблоцька
автор ApiX-Drive
Час прочитання: ~6 хв

Незабаром після випуску LLM Gemini Google оголосила про запуск Gemma – нового сімейства відкритих полегшених мовних моделей. В основу новинок лягли аналогічні наукові здобутки й технологічні рішення, на яких базується Gemini. За словами представників корпорації, сімейство Gemma має стати інструментом для більш свідомого та безпечнішого створення штучного інтелекту. Його призначення – надати розробникам засоби для дотримання відповідальнішого підходу до розвитку ШІ.

Перші моделі цієї серії, Gemma 2B та Gemma 7B, – попередньо навчені варіанти, налаштовані для використання за інструкціями. Доступ до них вже відкритий як для комерційного, так і для наукового застосування. До речі, абсолютно безплатно. Google супроводжує ці моделі набором інструментів для розробників під назвою Responsible Generative AI Toolkit, що полегшує роботу з ШІ.

Gemma 2B і 7B виділяються серед інших ШІ-моделей унікальною здатністю досягати визначної для своїх розмірів продуктивності. Це стало можливим завдяки спільній базі з Gemini, найпотужнішою моделлю ШІ від Google. У компанії заявляють, що за тестуваннями MMLU їхні новинки перевершують такі відомі відкриті моделі, як Mistral 7B та Llama 13B.

Вагомою перевагою Gemma 2B і 7B є їх доступність для використання на персональних комп'ютерах, ноутбуках і в хмарному середовищі Google. Це робить їх вигідним вибором у порівнянні з конкурентами. Ще один плюс – оптимізація для роботи з графічними процесорами NVIDIA. Крім того, вони інтегруються з такими популярними сервісами та інструментами, як Colab, Kaggle, Hugging Face, MaxText і TensorRT-LLM.

Тріс Варкентін, директор з управління продуктами в Google DeepMind, підкреслив значний прогрес у якості генерації контенту, якого вдалося досягнути протягом 2023 року. Тепер можливості, які раніше можна було отримати тільки з найбільшими LLM, стають доступними з моделями набагато меншого розміру. Налаштування на локальних пристроях з графічними процесорами RTX або хмарними TPU у GCP істотно розширює можливості розробників. Усе це відкриває абсолютно нові горизонти для створення додатків на базі ШІ.