ニュース

プルリクをエージェントたちが自動チェック ~Anthropic、「Claude Code Code Review」を発表

リサーチプレビューとして一部プランにベータ提供

Anthropic、「Claude Code」の新機能「Code Review」を発表

 米Anthropicは3月10日(日本時間)、「Claude Code」の新機能「Code Review」を発表した。リサーチプレビューとして、「Team」「Enterprise」プランでベータ提供される。

 「Code Review」は、同社の内部で実際に利用されているAIレビューの仕組みが元になっているとのこと。プルリクエスト(PR)が開かれると複数のエージェントが並列して動作し、修正コードに不具合がないかを検証する。結果が出ると、全体を総括した概要コメントのほか、必要に応じてインラインコメントが提示される。問題は重大度順に整理されるので、レビュワーはプルリクエストの品質をすばやく把握できる。

「Code Review」のセットアップ。リサーチプレビューとして提供される

 同社の社内テストによると、有意義なレビューコメントがつくPRは「Code Review」の導入により16%から54%にまで増加。1,000行を超える大規模なPRでは84%の確率で問題を発見できたが、誤検知は1%未満であったという。人間のレビューでは見落としやすい問題を拾うケースもたびたび見られ、検証の品質向上が期待できる。

 ただし、深くレビューを行うこともあり、料金は「GitHub Action」などより高めになるようだ。平均して15米ドルから25米ドルとのことだが、PRが複雑であればあるほど料金がかさむ点には注意したい。