ニュース

ローカルAIを手軽に実行できる「Ollama」プロジェクトに手軽な新アプリ登場、Windows/Mac対応

Llama 3.3やDeepSeek-R1、Phi-4、Gemma 3をローカルで実行

「Ollama」にWindows/Mac対応の新しいデスクトップアプリが追加

 大規模言語モデル(LLM)をローカル実行する「Ollama」に7月30日(米国時間)、Windows/Mac対応の新しいデスクトップアプリが追加された。「GitHub」でホストされているオープンソースプロジェクトで、ライセンスは「MIT」。ダウンロードは無償だ。

 「Ollama」は、「Llama 3.3」や「DeepSeek-R1」「Phi-4」「Gemma 3」、「Mistral Small 3.1」といった大規模言語モデルをローカルへダウンロードし、手軽に実行できるようにするソリューション。これまでもコマンドライン(CLI)が利用できたが、GUIアプリならばCLIに苦手意識を持つユーザーにも扱いやすいだろう。

大規模言語モデル(LLM)を手軽にローカル実行

 新しいデスクトップアプリの使い方簡単で、入力画面右下のモデルピッカーでAIモデルを選べば、初回利用時に自動でAIモデルがダウンロードされる。ファイルのドラッグ&ドロップにも対応しており、テキストファイルやPDFファイルを用いた推論も簡単だ。

モデルピッカーでAIモデルを選べば、初回利用時に自動でAIモデルがダウンロードされる

 ただし、サイズの大きなドキュメントを処理するためには、「Ollama」のコンテキスト長を増やす必要がある。これは設定画面で簡単に調整できる。コンテキスト長を増やせば、より多くのメインメモリを消費する点にだけは注意したい。

設定画面

 そのほかにも、Google DeepMindの「Gemma 3」などには画像を送信することも可能。これには、「Ollama」の新しいマルチモーダルエンジンが寄与しているという。

ソフトウェア情報

「Ollama」
【著作権者】
Ollama
【対応OS】
Windows/Mac/Linux
【ソフト種別】
フリーソフト
【バージョン】
0.10.0(25/07/18)