使ってわかるCopilot+ PC

第29回

NPUで動く「DeepSeek-R1」がもう登場、ローカル環境で動かしてみた

「Copilot+ PC」を活用、考えて話すLLMを体験

「AI Toolkit for Visual Studio Code」で動作しているLLM[Deepseek R1 Distilled(NPU Optimized)]

「DeepSeek-R1」が早くも「Copilot+ PC」のNPUに対応

 先週、中国発のAI「DeepSeek-R1」の話をしたところ、マイクロソフトから「DeepSeek-R1」の小型蒸留モデルをNPU(Neural Processing Unit)で動かせるようにしたという話が飛び込んできた。

 「マイクロソフトはOpenAIと組んでるんじゃないの?」とか「DeepSeekは問題だらけなのに、マイクロソフトは大丈夫か?」とかいう話が噴出しているが、それはそれ、これはこれ、できることは何でもやろうという話だろうと思う。

 「Copilot+ PC」ユーザーの目線で言うと、今までNPUを使ってLLM(サイズ的にはSLMと呼ぶべきかもしれない)を動かすという話が、ありそうでなかった。「Copilot+ PC」の発表当初から言われているマイクロソフト謹製LLM「Phi Silica」よりも前に、「DeepSeek-R1」でNPU対応のLLMに触れられる形になった。

「Visual Studio Code」をインストールして環境作り

 では実際にNPUで動作するか試してみよう。現時点では「Snapdragon X」シリーズを搭載した「Copilot+ PC」のみ対応とされており、「Intel Core Ultra 200V」シリーズはcoming soon(近日登場予定)となっている。「AMD Ryzen AI 300」シリーズについての言及はないようだ……。

現在は「Snapdragon X」シリーズのみ対応

 利用するにはまず、無料の開発ツール「Visual Studio Code(VS Code)」が必要。Microsoft Storeからダウンロードできる。

「Visual Studio Code」をダウンロード(画像は既にダウンロード済みの状態)

 「VS Code」をインストールし、起動したら、左側にあるアイコンから[Extensions]をクリック。

左側のアイコンにある[Extensions]をクリックする

 左上にある検索ボックスに「AI Toolkit」と入力し、[AI Toolkit for Visual Studio Code]をインストール。

[AI Toolkit for Visual Studio Code]はリストの一番上に出るはず

 すると左側の[Extensions]のアイコンの下に[AI Toolkit]のアイコンが新たに作られるのでクリック。左側のリストの中にある[CATALOG]の[Models]をクリックする。

[AI Toolkit]にある[CATALOG]の[Models]をクリック

 すると右側に利用できるAIモデルの一覧が表示される。この中から[Deepseek R1 Distilled(NPU Optimized)]を探し、ダウンロードする。これとは別に[DeepSeek-R1]もあるが、こちらはクラウド上で実行するモデルなので、今回は使わない。[Deepseek R1 Distilled(NPU Optimized)]のダウンロードにはしばらく時間がかかる。

モデル一覧から[Deepseek R1 Distilled(NPU Optimized)]をダウンロード

 ダウンロードが終了したら、左上にある[MY MODELS]の[Local models]の中にある[Deepseek R1 Distilled(NPU Optimized)]をダブルクリック。右側に[Playground]のタブが作られ、チャットウインドウが開いたら、LLMとの会話が可能になる。

右側にチャットウインドウが開いたら準備完了

日本語での会話は難しいが、NPUの動作は確認

 ダウンロードした[Deepseek R1 Distilled(NPU Optimized)]だが、本稿執筆時点ではAIモデルの詳しい情報が表示できない状態。マイクロソフトの発表によると、このLLMは「DeepSeek-R1-Distill-Qwen-1.5B」だそうだ。

 これは「DeepSeek-R1」の出力結果を教師として、「Qwen」というLLMに学習させ、15億パラメータのLLMとしたもの。DeepSeekはこれを「Distill(蒸留)」モデルと呼んでいる。この処理をNPUに対応させたものが、[Deepseek R1 Distilled(NPU Optimized)]として用意されているわけだ。

 15億パラメータというのは、LLMとしてはかなり小規模なほうで、「Copilot+ PC」ではなく、もっとマシンパワーの低いPCでも、CPU処理で動作可能なものだ。そういう意味ではNPUに対応させる価値がどれほどあるのかはわからないが、今後はより大きなLLMも登場するそうなので、まずはお試しの段階だ。

 では下部のチャットウインドウに『こんにちは』と入れてみよう。すると返答は中国語。続いて『日本語は話せますか』と聞くと、「はい、日本語は話せます。」と今度は日本語で返答があった。

日本語も少し喋れる

 15億パラメータくらいのLLMでは、日本語をきちんと話せないものが大半だ。[Deepseek R1 Distilled(NPU Optimized)]も、こちらが伝えた日本語はおおむね理解しているようだが、返答は英語や中国語混じりになることも多い。

 また「DeepSeek-R1」の特徴である、発語の前の思考内容も確認できる。少し長めの文章を入れると、発語に至るまでに長時間の思考が入り、内容が流れるような勢いで表示される。NPU処理をしているので、思考がスムーズなのかもしれない。

すごい勢いで思考内容が流れていく
最終的な出力はローマ字表記の日本語だが、意味はわからない。何度かやればそれっぽい答えに当たる時もある

 タスクマネージャーを開いてNPUの状態を見てみると、確かにNPUが使用されている。Snapdragon X Plusを搭載した「Surface Laptop」で、NPUの使用率は5割程度。同時にCPUも2割ほど使っている。

処理中はNPUも確かに使用している

 日本語をまともに話せない時点で実用性は低いが、NPUでLLMを動かすという「Copilot+ PC」の1つの夢はこれで叶った。あとは他のLLMを含め、より大規模で賢いLLMが対応するのを楽しみに待っておきたい。

著者プロフィール:石田賀津男(いしだ かつお)

1977年生まれ、滋賀県出身

ゲーム専門誌『GAME Watch』(インプレス)の記者を経てフリージャーナリスト。ゲーム等のエンターテイメントと、PC・スマホ・ネットワーク等のIT系にまたがる分野を中心に幅広く執筆中。1990年代からのオンラインゲーマー。窓の杜では連載『初月100円! オススメGame Pass作品』、『週末ゲーム』などを執筆。

・著者Webサイト:https://ougi.net/