ニュース

単一画像 → 3Dオブジェクト生成が現実に! Stability AIが「Stable Zero123」を発表

「Stable Diffusion 1.5」がベース、3D生成には24GBのVRAMを推奨

Stability AI、単一画像から高品質な3Dオブジェクトを生成できる「Stable Zero123」を発表

 英Stability AIは12月14日(日本時間)、単一画像から高品質な3Dオブジェクトを生成できる「Stable Zero123」を発表した。現在、研究者や非商用ユーザーを対象とした研究目的でのみ利用可能で、Hugging Faceよりダウンロードできる。

 「Stable Zero123」は、「Stable Diffusion 1.5」をベースとする、ビューコンディション画像生成のための社内学習済みモデル。トレーニングデータセットと立面コンディショニングの改善により、米コロンビア大学らの研究チームが発表した「Zero1-to-3」や、その後継モデルの「Zero123-XL」よりも著しく品質が向上、さまざまな角度から物体の外観を3Dで理解し、物体の新しいビューの生成を可能にする。

「Stable Zero123」の改良点

  1. 高品質の3Dオブジェクトのみを保存するために、「Objaverse」から厳重にフィルタリング・改善されたトレーニングデータセット
  2. 学習と推論の間、モデルは推定されたカメラアングルを提供。この仰角の調整に伴い、より情報に基づいた質の高い予測が可能に
  3. 事前に計算されたデータセット(事前に計算された潜在能力)と、より大きなバッチサイズをサポートする改良されたデータローダー、1.と組み合わせることで「Zero123-XL」と比較して学習効率が40倍高速化

 なお、1つのノベルビューを生成するために「Stable Diffusion 1.5」と同じ量のVRAMを消費するため、3Dオブジェクトを生成するために「Stable Zero123」を使用するには、より多くの時間とメモリが必要となるとのこと(24GBのVRAMを推奨)。

「Stable Zero123」と「Zero123-XL」の予測を異なるカメラアングルから比較した画像