A Google bejelentette, egy blogbejegyzésen keresztül, az övé elindításával a Gemini chatboton alapuló mesterséges intelligencia modellek új családja, a «Gemma«. Ez egy gépi tanulási modell, amely a Geminihez, a Google chatbot-modelljéhez használt technológiára épül, és 2-7 milliárd paraméterig terjedő változatokat kínál, amelyeket különböző alkalmazásokhoz és hardverkövetelményekhez terveztek.
Gemma célja, hogy nyújtson a fejlesztőknek fejlett eszközök AI-alkalmazások létrehozásához tudatosan és a Gemma által lefedett alkalmazási területek között említik a párbeszédrendszerek és a virtuális asszisztensek létrehozásától a szövegalkotásig, a természetes nyelvű kérdésekre adott válaszokig, a tartalmi összefoglalókig, a szövegjavításig és a nyelvek tanulásának támogatásáig. Ezen túlmenően a modell lehetővé teszi a különböző típusú szövegadatok manipulálását, beleértve a költészetet, a programozási kódot, a szöveg átírását és a sablonok segítségével történő betűgenerálást.
És ez az Gemma fénypontja viszonylag kis mérete, amely megkönnyíti megvalósítása korlátozott erőforrásokkal rendelkező hardveren, mint például a szabványos laptopok és PC-k. A Huggingface és a Google összehasonlítása során a Gemma-7B modell szilárd teljesítményt mutatott, a LLama 2 70B Chat modell után a második helyen áll a Huggingface összehasonlításában. A Google összehasonlításában a Gemma-7B kissé megelőzi a LLama 2 7B/13B-t és a Mistral-7B-t.
Részéről eszközök és keretek ökoszisztémája, az új AI chatbot integrációt kínál számos, a fejlesztők által gyakran használt eszköz, mivel számos fontos projektje van, amelyek már integrálták a támogatást a Gemmával való együttműködéshez, és a már támogatással rendelkező projektek közül kiemelkedik a következők: Hugging Face, MaxText, NVIDIA NeMo, TensorRT-LLM, Transformers, Responsible Generative AI Toolkit többek között.
Emellett a Google kiadott egy különálló kimeneti motort gemma.cpp néven, amely C++ nyelven íródott, kifejezetten Gemmához, és a Gemma támogatása is bekerült a llama.cpp motorba. A modell optimalizálásához a fejlesztők kihasználhatják a Keras keretrendszert és a TensorFlow, JAX és PyTorch háttérprogramjait.
Fontos felhívni a figyelmet A Gemma modell mérete 8 ezer token, ami korlátozza a szöveggenerálás során feldolgozható és megjegyezhető információ mennyiségét (összehasonlításképpen, az olyan modellek, mint a Gemini és a GPT-4, 32 ezer token kontextusmérettel rendelkeznek, a GPT-4 Turbo pedig 128 ezer tokennel rendelkezik). Ezenkívül a Gemma modell jelenleg csak az angol nyelvet támogatja.
A legmagasabb biztonsági szabványok biztosítása érdekében A Google automatizált technikákat alkalmazott a személyes adatok eltávolítására az adatokból Gemma modellek képzése. Ezenkívül az emberi visszajelzések által vezérelt megerősítő tanulást alkalmazták a Gemma-változatok finomítására az utasításokhoz szabva, biztosítva, hogy megfeleljenek a felelős viselkedési mintáknak.
A Google megemlíti, hogy a mesterséges intelligencia folyamatosan fejlődő természete fontos megfontolásokat vet fel a biztonsággal és az etikus használattal kapcsolatban, mivel rossz kezekben a nyílt mesterséges intelligencia modellekre vonatkozó korlátozások hiánya jelentős kockázatokat jelenthet a társadalom számára. A Google felismeri ezeket a kihívásokat, és átfogó megközelítést alkalmazott ezek megoldására szigorú értékelések és egyértelmű használati feltételek révén. A vállalat arra törekszik, hogy a nyílt mesterséges intelligencia modelleket etikusan és felelősségteljesen használják, miközben ösztönzi az innovációt és az együttműködést a közösségben.
Akit érdekel, annak tudnia kell A Gemma két konfigurációban érhető el, Gemma 2B és Gemma 7BEz a nyílt forráskódú mesterséges intelligencia modell a hatékony működés érdekében előre betanított és utasításokkal hangolt változatokat kínál. Ezenkívül a Gemma licence lehetővé teszi a kutatási, személyes és kereskedelmi projektekben való ingyenes felhasználást, valamint a modell módosított változatainak elkészítését és terjesztését.
végre, ha az vagy érdekelne többet megtudni róla, ellenőrizheti a részleteket a következő link.