StableLM,ChatGPT 的開源替代品

穩定LM

StableLM,旨在高效地生成文本和代碼

發布的消息是 穩定性人工智能, 穩定擴散成像人工智能模型背後的公司, 宣布了其第一套 StableLM 語言模型.

有了它 Stability希望復制其開源圖像合成模型的效果 穩定擴散,於 2022 年發布。經過改進,StableLM 可用於構建 ChatGPT 的開源替代品。

對於那些不熟悉 Stability AI 的人,您應該知道這是一家總部位於倫敦的公司,將自己定位為 OpenAI 的開源競爭對手,OpenAI 是一家開發強大但專有的人工語言模型(如 ChatGPT)的公司。

關於 StableLM

穩定LM 是 Stability AI 創建的人工語言模型系列的名稱, 哪些是開源的 在 GitHub 上,知識共享 BY-SA-4.0 許可StableLM 是一個文本生成模型 可以通過預測序列中的下一個單詞來編寫人類文本和編寫程序. 它使用一種稱為“芯片預測”的技術 這涉及從人類以“提示”的形式提供的上下文中猜測下一個單詞片段。

像其他“小型”法學碩士一樣 StableLM 聲稱可以實現與 GPT-3 參考模型相似的性能 OpenAI,同時使用更少的通用參數(StableLM 為 7 億,GPT-175 為 3 億)。

StableLM 的發布基於我們之前與非營利研究中心 EleutherAI 的開源語言模型的經驗。 這些語言模型包括 GPT-J、GPT-NeoX 和 Pythia 套件,它們在開源數據集 The Pile 上進行了訓練。

穩定LM 聲稱具有與 GPT-3 相似的性能, 為 ChatGPT 提供支持的語言模型,同時使用更少的參數(7 億對 175 億)。 參數是模型用來從訓練數據中學習的變量。 參數越少,模型越小、效率越高,從而更容易在智能手機和筆記本電腦等本地設備上運行。

穩定LM 在基於 The Pile 的新數據集上訓練, 包含 1,5 萬億個令牌,大約是 The Pile 大小的 3 倍。 The Pile 是用於訓練語言模型的高質量和多樣化的數據集。

Stability AI 提到模板已經在 GitHub 存儲庫中可用,完整的白皮書即將發布,並期待在推出 StableLM 套件時繼續與開發人員和研究人員合作。

此外,他們還提到啟動 RLHF 開放協作計劃,並與 Open Assistant 等社區合作,為 AI 助手創建一個開源數據集。

最後但並非最不重要的, 說到 Stability AI 版本,我們還可以強調它宣布 的測試版 標清線 (代表 Stable Diffusion Extra Large),一種新的人工智能模型,能夠從文本描述中生成圖像。 SDXL 是 Stable Diffusion 套件的最新成員,該套件還包括 SD、SDT 和 SDC 模型。

SDXL 在尺寸和功能方面與其他型號不同。 SDXL 擁有 2300 億個參數,比只有 2,5 億個參數的原始 SD 模型大 890 倍以上。 這些附加參數允許 SDXL 生成更符合複雜模式的圖像。 例如,SDXL 可以在圖像上生成可讀的文本或創建極其逼真的虛構人物肖像。

SDXL 目前在 DreamStudio 和其他流行的圖像應用程序(如 NightCafe Creator)中處於測試階段。 與所有 Stability AI 模型一樣,SDXL 將很快作為開源發布以實現最佳可訪問性。 Stability AI 宣布 SDXL 已獲得商業和非商業用途的許可,只要您遵守道德和法律準則。

最後,如果你有興趣了解更多,可以諮詢詳情 在下面的鏈接中。


發表您的評論

您的電子郵件地址將不會被發表。 必填字段標有 *

*

*

  1. 負責數據:MiguelÁngelGatón
  2. 數據用途:控制垃圾郵件,註釋管理。
  3. 合法性:您的同意
  4. 數據通訊:除非有法律義務,否則不會將數據傳達給第三方。
  5. 數據存儲:Occentus Networks(EU)託管的數據庫
  6. 權利:您可以隨時限制,恢復和刪除您的信息。