Google wydało Gemma 2b i 7b, parę modeli sztucznej inteligencji o otwartym kodzie źródłowym, które pozwalają programistom na swobodniejsze korzystanie z badań przeprowadzonych na jego flagowym telefonie Gemini. Chociaż Gemini to duży, zamknięty model sztucznej inteligencji, który bezpośrednio konkuruje z ChatGPT OpenAI (i jest prawie tak samo potężny), lekka Gemma będzie raczej odpowiednia do mniejszych zadań, takich jak proste chatboty lub podsumowania.
Jednak braki w złożoności tych modeli nadrabiają szybkością i kosztami użytkowania. Pomimo niewielkich rozmiarów Google twierdzi, że modele Gemma „wyprzedzają znacznie większe modele w kluczowych testach” i „mogą działać bezpośrednio na laptopie lub komputerze stacjonarnym programisty”. Będzie dostępny za pośrednictwem Kaggle, Hugging Face, NeMo firmy Nvidia i Vertex AI Google.
Wydanie Gemmy w ekosystemie open source znacznie różni się od wydania Gemini. Chociaż programiści mogą budować na Gemini, robią to albo poprzez interfejsy programowania aplikacji (API), albo pracując na platformie Google Vertex AI. Gemini to zamknięty model sztucznej inteligencji. Dzięki udostępnieniu oprogramowania Gemma o otwartym kodzie źródłowym więcej osób będzie mogło korzystać ze sztucznej inteligencji Google, zamiast zwracać się do konkurencji oferującej lepszy dostęp.
Obydwa modele będą dostępne z licencją komercyjną niezależnie od wielkości organizacji, liczby użytkowników i rodzaju projektu. Jednak Google – podobnie jak inne firmy – często zabrania wykorzystywania swoich modeli do określonych zadań, np. programów rozwoju broni.
Gemma będzie również dostarczana z „zestawami narzędzi odpowiedzialnej sztucznej inteligencji”, ponieważ ustawienie poręczy w modelach otwartych może być trudniejsze niż w systemach zamkniętych, takich jak Gemini. Trace Warkentin, dyrektor ds. zarządzania produktami w Google DeepMind, powiedziała, że firma prowadzi „szerszą współpracę z Gemmą ze względu na ryzyko nieodłącznie związane z modelami otwartymi”.
Odpowiedzialny zestaw narzędzi AI umożliwi programistom tworzenie własnych wytycznych lub list zakazanych słów podczas wdrażania Gemmy w swoich projektach. Zawiera także przykładowe narzędzie do debugowania, które pozwala użytkownikom zbadać zachowanie Gemmy i rozwiązać problemy.
Według Warkentina modele te sprawdzają się obecnie najlepiej w przypadku zadań związanych z językiem angielskim. „Mamy nadzieję, że możemy budować wraz ze społecznością, aby zaspokoić potrzeby rynku poza zadaniami z języka angielskiego” – powiedział reporterom.
Programiści mogą bezpłatnie korzystać z Gemmy w Kaggle, a pierwsi użytkownicy Google Cloud otrzymają 300 USD kredytów za korzystanie z szablonów. Firma podała, że badacze mogą ubiegać się o kredyty w chmurze o wartości do 500 000 dolarów.
Chociaż nie jest jasne, jaki będzie popyt na mniejsze modele, takie jak Gemma, inne firmy zajmujące się sztuczną inteligencją wypuściły również lżejsze wersje swoich głównych modeli podstawowych. Meta wypuściła w zeszłym roku Llamę 2 7B, najmniejszą wersję Llama 2. Sam Gemini jest dostępny w kilku wersjach wagowych, w tym Gemini Nano, Gemini Pro i Gemini Ultra, a firma Google ogłosiła niedawno jeszcze szybszą wersję Gemini 1.5 — ponownie dostępną teraz dla użytkowników biznesowych i programistów.
Nawiasem mówiąc, Gemma oznacza kamień szlachetny.
„Muzyk. Guru kawy. Specjalista od zombie. Adwokat mediów społecznościowych. Introwertyk. Ekstremalny miłośnik jedzenia. Ewangelista alkoholu”.