ニュース

「Opera」がローカル大規模言語モデルを統合、AIをオフラインで使える初のWebブラウザーに

「Opera One developer」で実験的にサポート

「Opera」がローカル大規模言語モデルを統合

 ノルウェーのOpera Softwareは4月3日(現地時間)、「Opera」にローカルLLM(大規模言語モデル)を搭載する方針を明らかにした。WebブラウザーへのAI統合を進める「AI Feature Drops」イニシアティブの一環で、開発版「Opera One developer」で実際に試すことができる。

 ローカルLLM統合の実験的サポートは、「Aria」サイドパネルから利用可能。「Opera アカウント」でログインすると、パネル上部に[ローカルAIモデルを選択]というボタンが現れるので、それをクリックすると「Llama」(Meta)や「Gemma」(Google)といったLLMモデルが選べるようになる。

パネル上部に[ローカルAIモデルを選択]というボタンが現れる

 ローカルLLMは処理がデバイス上で完結し、クラウドとの通信が発生しない。そのため、通信環境に左右されず、インターネット接続のない環境でも利用可能。クラウドAIの仕様変更に影響されなかったり、プライベートな質問を行えたりするのもメリットといえるだろう。

 一方で、リソースの消費が大きい点や、一般にクラウドLLMよりも性能が落ちる点には注意したい。また、本機能はまだあくまでも実験的なものであり、大きなトラブルが生じる可能性もある。