ニュース

「Edge」内蔵ローカル小規模言語モデル(SLM)「Phi-4-mini」のためのAPIが試験実装

「Prompt API」と「Writing Assistance API」が「Edge 138」でプレビュー

「Prompt API」を使ったWebアプリのデモ

 米Microsoftは5月19日(現地時間)、Webブラウザーに組み込まれたローカル小規模言語モデル(SLM)「Phi-4-mini」へアクセスするためのAPIを「Microsoft Edge」に試験導入したと発表した。

 ローカルAIモデルはクラウドへプライベートなデータを送出しないため、プライバシーの面で優れる。また、ネットワークに依存しないためオフライン環境でも利用可能で、ネットワークやサービスの利用にコストがかからないのも魅力だ。APIの呼び出しやトークンに利用制限もない。「Phi-4-mini」はテキストを得意とするSLMで、大規模言語モデル(LLM)よりもコンパクトで軽量だ。LLMほどの汎用性がないが、比較的非力なデバイスでも良好なパフォーマンスが得られる。

 しかし、「WebNN」や「WebGPU」をベースとした既存のソリューションを使用してWeb上でローカルAIモデルをホスティングするにはAI/MLの専門知識が必要になる。また、モデルはドメイン間で共有されないため、モデルのダウンロードコストが高くなる可能性がある。そこで、Webブラウザー組み込みのローカルAIをJavaScriptで簡単に利用できるAPIの需要が生まれてくる。

 「Edge 138」(Canary/Dev)には 「Prompt API」 「Writing Assistance API」 が実験的に導入される。数行のJavaScriptを書くだけでプロンプトに応答するチャットを実装できるほか、ライティング支援に関しては以下のアクションがサポートされる。

  • Summarizer:与えられたテキストを要約する
  • Writer:新たにテキストを生成する
  • Rewriter:与えられたテキストをリライトする

 どちらのAPIも「Edge」組み込みの 「Phi-4-mini」 モデルを使用するが、「Prompt API」が汎用的であるのに対し、「Writing Assistance API」は上記のアクションに最適化されている。

Prompt APIとSummarizer APIの使用例
## プロンプトを与えて結果を受け取る
const session = await LanguageModel.create();
const result = await session.prompt("窓の杜とは何ですか");

## テキストを与えて要約する
const summarizer = await Summarizer.create({
  sharedContext: "これは科学論文です",
  type: "tl;dr",
  length: "short"
});
const summary = await summarizer.summarize(
  longText,
  {
    context: "技術に詳しい読者を対象にしています"
  }
);

 「Phi-4-mini」はハードウェア要件を満たすデバイスで利用できるようになり、Webサイトや拡張機能がいずれかのAPIを初めて使用する際、オンデマンドでダウンロードされる。モデルのキャッシュ、最適化、更新といった複雑な処理も「Edge」がすべて行ってくれる。