ニュース

Stability AI、大規模言語モデル「StableLM Zephyr 3B」を発表、非商用ライセンスの下で公開

コンパクトながら非力なエッジデバイスでも正確で応答性の高い出力

コンパクトながら非力なエッジデバイスでも正確で応答性の高い出力

 画像生成AI「Stable Diffusion」で知られる英Stability AIは12月8日(日本時間)、「StableLM Zephyr 3B」を発表した。大規模言語モデル(LLM)「StableLM」をチューニングし、処理能力やリソースの限られたエッジデバイスでも正確で応答性の高い出力を実現するという。

 「StableLM Zephyr 3B」は軽量LLMシリーズの最新版で、インストラクションフォローやQ&Aタイプのタスク向けに調整された新しいチャットモデル。テキスト生成で優れたパフォーマンスを発揮し、人間の嗜好に沿ったモデルを作成することに重点を置いて開発された。

 Hugging Faceの「Zephyr 7B」モデルにヒントを得て、既存の「StableLM 3B-4e1t」モデルをもとに学習パイプラインを最適化させたとのことで、「Zephyr 7B」モデルより60%小さい30億パラメーターLLMとなっている。しかしながら、同様のユースケース向けに調整されたより大きなサイズのモデルを凌駕する能力を備えており、効率性が高い。

 本モデルは、非商用ライセンスの下で公開されている。