ニュース
iPhoneに言葉の壁を打ち破るライブ翻訳、オンデバイスAIはアプリ開発者に開放
Apple、「Apple Intelligence」のアップデートを発表
2025年6月10日 12:45
米Appleは6月9日(現地時間)、開発者向けカンファレンス「WWDC25」で「Apple Intelligence」のアップデートを発表した。今秋リリース予定の「iOS 26」「iPadOS 26」、「macOS Tahoe 26」などで利用できるようになる。
言語の壁を打ち破るライブ翻訳
ライブ翻訳は「メッセージ」や「FaceTime」、「電話」などのアプリに組み込まれており、たとえば「メッセージ」アプリの場合、メッセージを受信するとそれを自動で自国語に翻訳してくれる。「FaceTime」アプリならば、話し手の声を聞きながら、翻訳されたライブキャプションで会話を追うことが可能。「電話」アプリでは、翻訳を音声で読み上げることもできる。
これらの翻訳処理はすべて、オンデバイスのAIモデルで動作する。そのため、会話の内容が外部に送出されることはなく、プライバシーを保つことができる。
ジェン文字と「Image Playground」
自分だけの絵文字を作成できる「ジェン文字」(Genmoji)では、既存の絵文字に説明を加えることで、新しいモノを作り出すオプションが追加される。
一方「Image Playground」では、「ChatGPT」を活用した任意のスタイルが利用可能となる。油絵風やベクターアートなど、好みのスタイルを説明すると、「Image Playground」はそれとともに写真を「ChatGPT」へ送り、画像の生成を依頼できる。管理の権限は常にユーザーにあり、許可しない限り「ChatGPT」には何も共有されないとのこと。
ビジュアルインテリジェンス
「Apple Intelligence」の画像認識は「カメラ」アプリを介して利用できるが、これがiPhoneのスクリーン全体に拡張される。スクリーンショットを撮ると、それに映っているものを識別し、「ChatGPT」に質問して詳しい情報を得たり、「Google」や「Etsy」などの対応アプリで検索して類似のものを探し出したりできる。イベントであれば、それを「カレンダー」アプリへ追加することを提案してくれる。
そのほかにも、「Apple Watch」のフィットネスと連携する機能が導入されるとのこと。
開発者、パワーユーザーへの開放
「Apple Intelligence」で用いられているデバイス上のモデルは、「Foundation Models framework」でアクセスが可能。サードパーティアプリの開発者も、無料の推論AIを自分のアプリに組み込むことができる。クラウドAPIに費用をかけることなく、インターネット接続がない場所でもオフラインで利用できるのはうれしいポイントだ。
このフレームワークは「Swift」にネイティブ対応しているため、記述すべきコードもたった3行で済むという。
また、「Apple Intelligence」は「ショートカット」アプリでも利用できる。作文ツールによるテキストの要約や、「Image Playground」による画像の生成などの機能に対応する専用のアクションが用意されており、ユーザーは自動化ワークフローにそれらを簡単に組み込むことができる。「ChatGPT」の活用も可能だ。
「Apple Intelligence」は今年春から日本語でも利用可能。年末までに、デンマーク語、オランダ語、ノルウェー語、ポルトガル語(ポルトガル)、スウェーデン語、トルコ語、中国語(繁体字)、ベトナム語の8カ国語に対応するという。