ニュース

OpenAI、より安価で長文に対応するLLM(大規模言語モデル)「GPT-4 Turbo」をプレビュー

「GPT-3.5 Turbo」もアップデートされるほか、「Assistants API」もベータ版に

OpenAI、「GPT-4 Turbo」をプレビューリリース

 米OpenAIは11月6日(現地時間)、大規模言語モデル「GPT-4 Turbo」を発表した。今後数週間以内に順次提供開始予定。

 「GPT-4 Turbo」は2023年4月までの学習データに対応。128K文字までのコンテキストウィンドウがあり、1つのプロンプトに対し300ページ以上の長文テキストでの回答が可能になった。価格もより安価になり、入力トークンはGPT-4に比べ3分の1となる1,000 トークンあたり0.01ドル、出力トークンは2分の1となる1,000 トークンあたり0.03ドルで提供される。

「GPT-4 Turbo」の価格

 関数呼び出しの改善により、従来は複数の指示が必要だった複数のアクションを、「車の窓を開けて、エアコンをOFFにする」といったように1つのメッセージで送れるようになった。またモデルが有効な「JSON」フォーマットで応答する、「JSONモード」も追加された。

 「GPT-4 Turbo」に加え、16Kコンテキストウィンドウを提供する「GPT-3.5 Turbo」もアップデートされる。JSONモード、並列関数呼び出しなどにも対応し、「GPT-3.5 Turbo」のAPIを使用しているアプリは、12月11日に自動的にアップグレードされる予定。

 さらにアプリの開発者向けに、アプリ上にAIアシスタントを搭載できる「Assistants API」もベータ版としてリリースされた。コードインタープリターや関数呼び出し機能によって、データ分析やコード支援、予定調整など多岐にわたるアプリを実現できるという。

「Assistants API」もベータ版としてリリース

 また、画像入力の対応を強化した「GPT-4 Turbo with vision」もリリースされる予定。GPT-4 Turboに画像をインプットすると、画像に対応するキャプションの生成や画像の詳細な分析、図のある文書の読み取りなどを行うことができる。価格は入力画像サイズによって異なり、例えば1,080×1,080ピクセルの画像を入力する場合には0.00765ドルがかかる。

 そのほか、著作権に関する取り組みも強化された。ユーザーが著作権侵害に関する法的請求を受けた場合には、OpenAIが介入し発生した費用を支払うとしている。