StableLM и е проектиран да генерира ефективно текст и код
Новината беше пусната, че AI за стабилност, компанията зад модела Stable Diffusion imaging AI, обяви първия от своя набор от езикови модели StableLM.
С това Стабилността се надява да възпроизведе ефектите от своя модел за синтез на изображения с отворен код Стабилна дифузия, издаден през 2022 г. С усъвършенстване StableLM може да се използва за изграждане на алтернатива с отворен код на ChatGPT.
За тези, които не са запознати със Stability AI, трябва да знаете, че това е базирана в Лондон компания, която се позиционира като съперник с отворен код на OpenAI, компания, която разработва мощни, но патентовани изкуствени езикови модели като ChatGPT.
Относно StableLM
StableLM е името на семейството от изкуствени езикови модели, създадени от Stability AI, които са достъпни като отворен код в GitHub под лиценза Creative Commons BY-SA-4.0. StableLM е модел за генериране на текст които могат да съставят човешки текст и да пишат програми, като предвиждат следващата дума в последователност. Той използва техника, наречена „предсказване на чипове“ което включва отгатване на следващия фрагмент от дума от контекста, предоставен от човек под формата на „подсказка“.
Подобно на други "малки" LLM StableLM твърди, че постига подобна производителност на референтния модел GPT-3 на OpenAI, докато използва много по-малко общи параметри (7 милиарда за StableLM срещу 175 милиарда за GPT-3).
Пускането на StableLM се основава на нашия опит с предишни езикови модели с отворен код с EleutherAI, изследователски център с нестопанска цел. Тези езикови модели включват GPT-J, GPT-NeoX и пакета Pythia, които са обучени на набора от данни с отворен код The Pile.
StableLM твърди, че има сходна производителност с GPT-3, езиковият модел, който захранва ChatGPT, като същевременно използва много по-малко параметри (7 милиарда срещу 175 милиарда). Параметрите са променливи, които моделът използва, за да се учи от данните за обучение. Наличието на по-малко параметри прави модела по-малък и по-ефективен, което може да улесни работата му на локални устройства като смартфони и лаптопи.
StableLM обучени на нов набор от данни, базиран на The Pile, съдържащ 1,5 трилиона жетона, което е около 3 пъти по-голямо от The Pile. Pile е висококачествен и разнообразен набор от данни за обучение на езикови модели.
Stability AI споменава, че шаблоните вече са налични в хранилището на GitHub и че скоро ще бъде изготвена пълна бяла книга и очаква с нетърпение да продължи да си сътрудничи с разработчици и изследователи, докато пуска пакета StableLM.
Освен това те споменават стартирането на програмата за отворено сътрудничество RLHF и работата с усилията на общността като Open Assistant за създаване на набор от данни с отворен код за AI асистенти.
Не на последно място, Говорейки за издания на Stability AI, можем също да подчертаем, че той обяви бета версията на SDXL (което означава Stable Diffusion Extra Large), нов модел на изкуствен интелект, способен да генерира изображения от текстови описания. SDXL е най-новото допълнение към пакета Stable Diffusion, който включва също модели SD, SDT и SDC.
SDXL се отличава от останалите модели по своите размери и възможности. С 2300 милиарда параметри, SDXL е повече от 2,5 пъти по-голям от оригиналния SD модел, който имаше само 890 милиона. Тези допълнителни параметри позволяват на SDXL да генерира изображения, които по-добре се придържат към сложни модели. Например, SDXL може да създаде четлив текст върху изображения или да създаде поразително реалистични портрети на измислени герои.
SDXL в момента е в бета версия в DreamStudio и други популярни приложения за изображения като NightCafe Creator. Както всички модели с изкуствен интелект за стабилност, SDXL скоро ще бъде пуснат като отворен код за оптимална достъпност. Stability AI обявява, че SDXL е разрешително лицензиран за комерсиална и некомерсиална употреба, стига да следвате етичните и законови указания.
И накрая, ако имате интерес да научите повече за него, можете да се консултирате с подробностите В следващия линк.