1週間の気になる生成AI技術・研究をいくつかピックアップして解説する連載「生成AIウィークリー」から、特に興味深いAI技術や研究にスポットライトを当てる生成AIクローズアップ。
今回は、Anthropicが2026年2月20日にリサーチプレビュー版を限定公開した、コードの脆弱性をAIが自律的に発見し、修正パッチまで提案する新機能「Claude Code Security」を取り上げます。

この発表直後、AIによる高度な自動化が既存のセキュリティツールの需要を奪うとの見方が広がり、CrowdStrikeやCloudflareといったサイバーセキュリティ大手企業の株価が下落する事態へと発展しました。現場のエンジニアや企業が抱える高額なセキュリティツールへの不満を解決してしまう可能性を秘めているからです。
これまで開発現場で広く使われてきた静的解析ツールなどの自動セキュリティテストは、パスワードの露出や古い暗号化といった定型的な問題は防げても、ビジネスロジックの欠陥やアクセス制御の不備といった、前後の文脈に依存する複雑な脆弱性を見逃してしまうという課題がありました。こうした巧妙なバグを見つけ出すには熟練した人間のセキュリティ専門家が必要不可欠でした。
今回発表されたClaude Code Securityは、Claude Code上に構築された新機能で、従来のセキュリティチェックツールの限界を打ち破るものです。AIが単にコードをスキャンして既知のパターンを探すのではなく、まるで人間のセキュリティ専門家のように「コンポーネントがどう相互作用しているか」「データがアプリケーション内をどう移動するか」を文脈から推論し、読み解きます。
さらに、AIが発見した問題はすぐには通知されず、多段階の検証プロセスにかけられます。Claude自身がその結果を自ら証明・反証しようと再評価し、誤検知をフィルタリングします。その上で、重要度やAI側の信頼性スコアとともに、具体的な修正パッチがダッシュボードに提案されます。
この能力はすでに実績を出しています。今月リリースされた最上位モデル「Claude Opus 4.6」を用いたストレステストでは、長年専門家のレビューをすり抜けて数十年も潜伏していた本番環境のオープンソースコードから、500件以上の脆弱性を発見。Anthropic自身のシステム保護にも活用されており、実戦的な機能であることが伺えます。
現在、この機能はEnterpriseおよびTeamプランの顧客向けに限定プレビューとして提供されています。また、オープンソースリポジトリのメンテナーは無料かつ優先的にアクセスを申請できます。

