使ってわかるCopilot+ PC
第29回
NPUで動く「DeepSeek-R1」がもう登場、ローカル環境で動かしてみた
「Copilot+ PC」を活用、考えて話すLLMを体験
2025年2月7日 06:55
「DeepSeek-R1」が早くも「Copilot+ PC」のNPUに対応
先週、中国発のAI「DeepSeek-R1」の話をしたところ、マイクロソフトから「DeepSeek-R1」の小型蒸留モデルをNPU(Neural Processing Unit)で動かせるようにしたという話が飛び込んできた。
「マイクロソフトはOpenAIと組んでるんじゃないの?」とか「DeepSeekは問題だらけなのに、マイクロソフトは大丈夫か?」とかいう話が噴出しているが、それはそれ、これはこれ、できることは何でもやろうという話だろうと思う。
「Copilot+ PC」ユーザーの目線で言うと、今までNPUを使ってLLM(サイズ的にはSLMと呼ぶべきかもしれない)を動かすという話が、ありそうでなかった。「Copilot+ PC」の発表当初から言われているマイクロソフト謹製LLM「Phi Silica」よりも前に、「DeepSeek-R1」でNPU対応のLLMに触れられる形になった。
「Visual Studio Code」をインストールして環境作り
では実際にNPUで動作するか試してみよう。現時点では「Snapdragon X」シリーズを搭載した「Copilot+ PC」のみ対応とされており、「Intel Core Ultra 200V」シリーズはcoming soon(近日登場予定)となっている。「AMD Ryzen AI 300」シリーズについての言及はないようだ……。
利用するにはまず、無料の開発ツール「Visual Studio Code(VS Code)」が必要。Microsoft Storeからダウンロードできる。
「VS Code」をインストールし、起動したら、左側にあるアイコンから[Extensions]をクリック。
左上にある検索ボックスに「AI Toolkit」と入力し、[AI Toolkit for Visual Studio Code]をインストール。
すると左側の[Extensions]のアイコンの下に[AI Toolkit]のアイコンが新たに作られるのでクリック。左側のリストの中にある[CATALOG]の[Models]をクリックする。
すると右側に利用できるAIモデルの一覧が表示される。この中から[Deepseek R1 Distilled(NPU Optimized)]を探し、ダウンロードする。これとは別に[DeepSeek-R1]もあるが、こちらはクラウド上で実行するモデルなので、今回は使わない。[Deepseek R1 Distilled(NPU Optimized)]のダウンロードにはしばらく時間がかかる。
ダウンロードが終了したら、左上にある[MY MODELS]の[Local models]の中にある[Deepseek R1 Distilled(NPU Optimized)]をダブルクリック。右側に[Playground]のタブが作られ、チャットウインドウが開いたら、LLMとの会話が可能になる。
日本語での会話は難しいが、NPUの動作は確認
ダウンロードした[Deepseek R1 Distilled(NPU Optimized)]だが、本稿執筆時点ではAIモデルの詳しい情報が表示できない状態。マイクロソフトの発表によると、このLLMは「DeepSeek-R1-Distill-Qwen-1.5B」だそうだ。
これは「DeepSeek-R1」の出力結果を教師として、「Qwen」というLLMに学習させ、15億パラメータのLLMとしたもの。DeepSeekはこれを「Distill(蒸留)」モデルと呼んでいる。この処理をNPUに対応させたものが、[Deepseek R1 Distilled(NPU Optimized)]として用意されているわけだ。
15億パラメータというのは、LLMとしてはかなり小規模なほうで、「Copilot+ PC」ではなく、もっとマシンパワーの低いPCでも、CPU処理で動作可能なものだ。そういう意味ではNPUに対応させる価値がどれほどあるのかはわからないが、今後はより大きなLLMも登場するそうなので、まずはお試しの段階だ。
では下部のチャットウインドウに『こんにちは』と入れてみよう。すると返答は中国語。続いて『日本語は話せますか』と聞くと、「はい、日本語は話せます。」と今度は日本語で返答があった。
15億パラメータくらいのLLMでは、日本語をきちんと話せないものが大半だ。[Deepseek R1 Distilled(NPU Optimized)]も、こちらが伝えた日本語はおおむね理解しているようだが、返答は英語や中国語混じりになることも多い。
また「DeepSeek-R1」の特徴である、発語の前の思考内容も確認できる。少し長めの文章を入れると、発語に至るまでに長時間の思考が入り、内容が流れるような勢いで表示される。NPU処理をしているので、思考がスムーズなのかもしれない。
タスクマネージャーを開いてNPUの状態を見てみると、確かにNPUが使用されている。Snapdragon X Plusを搭載した「Surface Laptop」で、NPUの使用率は5割程度。同時にCPUも2割ほど使っている。
日本語をまともに話せない時点で実用性は低いが、NPUでLLMを動かすという「Copilot+ PC」の1つの夢はこれで叶った。あとは他のLLMを含め、より大規模で賢いLLMが対応するのを楽しみに待っておきたい。
1977年生まれ、滋賀県出身
ゲーム専門誌『GAME Watch』(インプレス)の記者を経てフリージャーナリスト。ゲーム等のエンターテイメントと、PC・スマホ・ネットワーク等のIT系にまたがる分野を中心に幅広く執筆中。1990年代からのオンラインゲーマー。窓の杜では連載『初月100円! オススメGame Pass作品』、『週末ゲーム』などを執筆。
・著者Webサイト:https://ougi.net/