ニュース

国産フルスクラッチLLM「PLaMo 2.0 Prime」リリース、従来モデルから1/4以下の新価格で

推論向けに最適化された商用版フラッグシップモデル

商用版フラッグシップモデル「PLaMo 2.0 Prime」がリリース

 (株)Preferred Networks(PFN)は5月22日、PFNグループがフルスクラッチ開発する国産大規模言語モデル「PLaMo」において、商用版フラッグシップモデル「PLaMo 2.0 Prime」をリリースした。GENIAC-PRIZE応援キャンペーンとして「PLaMo 2.0 Prime」の新規契約者に対し、1,000万トークン相当の無料クレジットをプレゼントする。

 「PLaMo 2.0 Prime」は「PLaMo 2.0-31B」の指示学習済みモデルを推論向けに最適化したモデル。独自トークナイザ(文章を単語や形態素、文字列の断片など、コンピューターが処理可能な単位に分割するためのモデル)の採用、コンテキスト長の拡大などによって処理の効率化、より複雑な長文への対応を実現した。

 ベースとなる「PLaMo 2.0-31B」は、GENIAC 第1期で開発された「PLaMo-100B」の3分の1以下のモデルサイズにもかかわらず、各種ベンチマークのほぼすべてでPLaMo-100Bを上回り、同等サイズのフロンティアモデルと比較しても高い評価スコアを達成。なかでも、日本語の生成能力を評価するベンチマーク(pfgen)においては、GPT-4oに次ぐ高い評価スコアを記録しており、DeepSeek-R1やQwen-Maxよりも高い日本語生成能力を示しているという。

 なお、「PLaMo 2.0 Prime」はさまざまな効率化により、PLaMo 1.0 Primeの4分の1以下となる新価格で提供される。

PLaMo 2.0 Primeの特長

  • GENIAC 第2期の成果を活用した高度な日本語能力
    経済産業省とNEDOが日本の生成AI基盤モデルの開発力向上を目指して実施するプロジェクト「GENIAC(Generative AI Accelerator Challenge)」第2期の成果として、日本語知識(Jaster 4shot)、日本語プロンプトの指示追従性能(M-IFEval Japanese)、日本語文章の生成性能(pfgen)において同等サイズのGemma3-27B、Qwen2.5-32B、GPT-4o miniなどを上回る評価スコアを達成した「PLaMo 2.0-31B」を活用
  • 独自開発のトークナイザを採用
    トークン効率を日本語で45%、英語で25%改善し、価格あたりの処理文字数で世界最高水準を達成
  • コンテキスト長をさらに拡大
    従来の約16,000トークンから約32,000トークンに2倍に拡大し、より長く、複雑な長文入力にも対応
  • 高いコストパフォーマンスの新価格
    100万トークンあたりの生成単価を、PLaMo 1.0 Primeの4分の1以下に価格改定。同等サイズのGemma3-27B、Qwen2.5-32B、GPT-4o miniなどと比較しても競争力のある価格設定
    [入力単価: 60円 / Mトークン(旧価格300円 / Mトークン)]
    [出力単価: 250円 / Mトークン(旧価格1,000円 / Mトークン)]
  • さまざまな提供形態
    クラウド型APIに加え、PLaMo関連モデルも含めてオンプレミスで提供可能。Amazon Bedrock Marketplaceでも近日公開予定。また、1GPUで動かせるため、自社データによる追加学習も容易に

 「PLaMo(プラモ)」は、Preferred Networksグループがフルスクラッチで開発する国産の大規模言語モデル(LLM)。独自に構築した日本語を豊富に含む高品質なデータセットで学習することで、世界最高クラスを謳う日本語性能を実現している。

 執筆現在は、商用版のフラッグシップモデル「PLaMo Prime」、自動車や製造設備などのエッジデバイス向けに軽量化された小規模言語モデル「PLaMo Lite」、学術・研究用途の非商用ライセンスモデル「PLaMo-100B‐Pretrained」、日本の金融知識を追加学習した金融向け「PLaMo-fin-base」など、用途に合わせて提供中。