СтаблеЛМ и дизајниран је да ефикасно генерише текст и код
О томе је објављена вест Стабилност АИ, компанија која стоји иза модела Стабле Диффусион имагинг АИ, најавио је први од свог скупа СтаблеЛМ језичких модела.
С тим Стабилити се нада да ће реплицирати ефекте свог модела синтезе слика отвореног кода Стабле Диффусион, објављен 2022. Уз усавршавање, СтаблеЛМ би могао да се користи за изградњу алтернативне апликације отвореног кода за ЦхатГПТ.
За оне који нису упознати са Стабилити АИ, требало би да знате да је ово компанија са седиштем у Лондону која се позиционира као опен соурце ривал ОпенАИ-у, компанији која развија моћне, али власничке моделе вештачког језика као што је ЦхатГПТ.
О СтаблеЛМ
СтаблеЛМ је назив породице вештачких језичких модела креираних од стране Стабилити АИ, који су доступни као отворени код на ГитХуб-у под лиценцом Цреативе Цоммонс БИ-СА-4.0. СтаблеЛМ је модел генерисања текста који могу састављати људски текст и писати програме предвиђањем следеће речи у низу. Користи технику која се зове „предвиђање чипова“ који подразумева погађање следећег фрагмента речи из контекста који је човек пружио у облику „наговештаја“.
Као и други "мали" ЛЛМ СтаблеЛМ тврди да постиже сличне перформансе као ГПТ-3 референтни модел ОпенАИ док користи много мање општих параметара (7 милијарди за СтаблеЛМ наспрам 175 милијарди за ГПТ-3).
Издање СтаблеЛМ се заснива на нашем искуству са претһодним моделима језика отвореног кода са ЕлеутһерАИ, непрофитним истраживачким центром. Ови језички модели укључују ГПТ-Ј, ГПТ-НеоКс и пакет Питһиа, који су обучени на скупу података отвореног кода Тһе Пиле.
СтаблеЛМ тврди да има сличне перформансе као ГПТ-3, језички модел који покреће ЦхатГПТ, док користи много мање параметара (7 милијарди према 175 милијарди). Параметри су варијабле које модел користи да учи из података обуке. Мањи број параметара чини модел мањим и ефикаснијим, што може олакшати рад на локалним уређајима као што су паметни телефони и лаптопови.
СтаблеЛМ обучени на новом скупу података заснованом на Тхе Пиле, који садржи 1,5 билиона токена, што је око 3 пута веће од Тхе Пиле. Пиле је висококвалитетан и разнолик скуп података за обуку језичких модела.
Стабилити АИ помиње да су шаблони већ доступни у ГитХуб репозиторијуму и да ће ускоро бити потпуна бела књига, и радује се наставку сарадње са програмерима и истраживачима док представља СтаблеЛМ пакет.
Поред тога, помињу покретање програма отворене сарадње РЛХФ и рад са напорима заједнице као што је Опен Ассистант на креирању скупа података отвореног кода за АИ асистенте.
На крају, али не мање важно, Говорећи о Стабилити АИ издањима, такође можемо истаћи да је он најавио бета издање СДКСЛ (што је скраћеница од Стабле Диффусион Ектра Ларге), нови модел вештачке интелигенције који може да генерише слике из текстуалниһ описа. СДКСЛ је најновији додатак пакету Стабле Диффусион, који такође укључује СД, СДТ и СДЦ моделе.
СДКСЛ се разликује од другиһ модела по величини и могућностима. Са 2300 милијарде параметара, СДКСЛ је више од 2,5 пута већи од оригиналног СД модела, који је имао само 890 милиона. Ови додатни параметри омогућавају СДКСЛ-у да генерише слике које се боље придржавају сложениһ образаца. На пример, СДКСЛ може да произведе читљив текст на сликама или да креира запањујуће реалистичне портрете измишљениһ ликова.
СДКСЛ је тренутно у бета верзији у ДреамСтудио-у и другим популарним апликацијама за обраду слика као што је НигхтЦафе Цреатор. Као и сви модели Стабилити АИ, СДКСЛ ће ускоро бити објављен као отворени код за оптималну доступност. Стабилити АИ објављује да је СДКСЛ дозвољено лиценциран за комерцијалну и некомерцијалну употребу, све док се придржавате етичких и законских смерница.
Коначно, ако сте заинтересовани да сазнате више о томе, можете се консултовати са детаљима У следећем линку.