ニュース
OpenAI、新しい推論モデル「o3」と「o4-mini」をリリース
「ChatGPT」のPlus、ProおよびTeamユーザーに展開、「o4-mini」は無償版でも試せる
2025年4月17日 10:02
米OpenAIは4月16日(現地時間)、「OpenAI o3」と「OpenAI o4-mini」をリリースした。応答する前に熟考する推論モデル「o」シリーズの最新作だ。
「OpenAI o3」 はコーディング、数学、科学、視覚認識などの可能性を押し広げるもっとも強力な推論モデルだ。数々のベンチマークでトップクラスの性能をたたき出しており、多面的な分析を必要とする複雑なクエリや、答えがすぐにはわからないようなクエリに最適とされている。
とくに画像やチャート、グラフィックの解析といった視覚的タスクで高いパフォーマンスを発揮し、外部の専門家による評価では従来の「o1」よりも実世界の困難なタスクで主要なミスが20%低減されているという。プログラミングやビジネス、コンサルティング、創造的なアイデアなどの分野でも優れており、新しい仮説を生み出し、批判的に評価する能力をもつ。
一方の 「OpenAI o4-mini」 は、高速でコスト効率の高い推論に最適化された小型モデルだ。前身の「o3-mini」を上回るパフォーマンスを備えつつ、フルスペックの「o3」よりもリーズナブルで、スループットの高さが要求されるシーンに適している。
「o3」と「o4-mini」は、イメージを志向の連鎖に直接統合できる初めての推論モデルだ。つまり、画像を見るだけでなく、それをもとに考えることが可能。ホワイトボードの写真や教科書の図表、手描きのスケッチをアップロードすれば、画像がぼやけていたり、逆転していたり、低品質だったりしても、モデルはそれを解釈できる。推論プロセスの一部として画像を回転させたり、ズームしたり、変換したりといったようにその場で操作することさえ可能だ。
さらに、「o3」と「o4-mini」は「ChatGPT」内のツールへアクセスできるだけでなく、API呼び出しによる独自カスタムツールにもアクセス可能。与えられた問題を解決するためにどのツールをいつどのように使うかも自分で推論するように訓練されており、モデルに組み込まれた知識を超えた最新情報へのアクセス、拡張推論、合成、およびモダリティ(テキスト、画像、音など)間での出力生成を必要とするタスクにも取り組めるエージェントとしての側面も持つ。
「o3」と「o4-mini」は、「ChatGPT」のPlus、ProおよびTeamのユーザーであればモデルセレクターからすぐに利用可能。EnterpriseやEducationのユーザーも、一週間程度で利用できるようになる。無料ユーザーでも、推論モードを選ぶことで「o4-mini」の試用が可能だ。同社によると、最上位の「OpenAI o3-pro」も、フルツールサポート付きで数週間以内にリリースされる予定とのこと。
そのほかにも、ターミナルから実行できる軽量のコーディングエージェント 「Codex CLI」 が実験的プロダクトとして発表された。「Codex CLI」は「GitHub」でホストされたオープンソースプロジェクトで、ライセンスは「Apache-2.0」。併せて「Codex CLI」とOpenAIモデルを利用するプロジェクトを支援するための100万米ドル規模のイニシアチブも開始されるとのこと。申請が受理されれば、APIクレジットの形で25,000米ドル単位が助成される。