ニュース

日本語対応の新LLM「Mistral Large 2」公開、123Bモデルで性能は「Llama 3.1 405B」に匹敵

必要に応じて回答できないことを認めるようにもトレーニング

Mistral AI、新世代LLM「Mistral Large 2」を公開

 仏Mistral AIは7月24日(現地時間)、同社のフラッグシップ大規模言語モデル(LLM)の新世代モデル「Mistral Large 2」を公開した。従来モデルと比較して、コード生成・数学・推論の能力が大幅に向上したほか、日本語を含む多言語に対応。先日には米Metaの最新LLM「Llama 3.1」が発表されたばかりで、業界内でのLLM開発競争が加速している。

 「Mistral Large 2」は、“オープンソース”LLM「Mistral Large」の新世代モデル。“オープンソース”といっても、オープンウェイトを含む研究・非商用目的での利用にのみ“オープン”としてライセンス(「Mistral Research License」)が付与され、ユーザーそれぞれのニーズに合わせたファインチューニングが可能になっている(一方、商用利用には「Mistral Commercial License」の取得が必要となる)。

 最新モデルでは、パラメーター数は123B、コンテキストウィンドウは128Kとなっているほか、日本語・フランス語・ドイツ語・スペイン語・イタリア語・ポルトガル語・アラビア語・ヒンディー語・ロシア語・中国語・韓国語といった数十の言語と、Python/Java/C/C++/JavaScript/Bashなど80以上のコーディング言語をサポートしている。

 またMMLU精度は、事前学習モデルを使用してのスコアで「84.0%」を達成。そのほか複数のベンチマークでは、米OpenAIの「GPT-4o」、米Anthropicの「Claude 3 Opus」、米Metaの「Llama 3.1 405B」といった主要モデルと同等のコード生成能力を発揮したとしている。

コード生成ベンチマークにおけるモデル比較
MultiPL-Eのパフォーマンス精度

 「Mistral Large 2」の特徴としては、AIモデルが「幻覚(ハルシネーション)」を起こす傾向を最小限に抑えたことが、そのひとつとして挙げられる。これは、モデルをより慎重かつ識別力のある応答に微調整し、信頼性が高く正確な出力を提供することで実現したという。解決策が見つからない場合や、確信を持って答えを出すのに十分な情報がない場合にはそれを認識するようにもトレーニングされている。

 また、関数呼び出し機能も強化されており、順次または並列で効率的に実行できるようにトレーニングされているため、複雑なビジネスアプリケーションのパワーエンジンとして機能するという。同社は、この最新モデルを「コスト効率・速度・パフォーマンスの限界を押し広げる」ものと位置づけている。

 「Mistral Large 2」は、同社が提供するアクセスポイント「La Plateforme」上で「mistral-large-2407」として利用可能なほか、「Hugging Face」でもモデルが配布されている。また、APIを介してGoogle Vertex AI、Azure AI Studio、Amazon Bedrock、IBM WatsonXといったクラウドプラットフォームを通じたアクセスも提供されている。