Anthropicは、Claudeのコード漏洩により、内部コードの512,000行が公開される事態により、監視の対象となっています

AIセキュリティへの懸念が高まる中、claudeコードの漏えいにより、Anthropicは世界中の開発者や研究者から厳しい監視を受けている。

Anthropicが内部ソースコードの露出を確認

火曜日、Anthropicは、自社のClaude Code AIコーディングツールのために、社内のソースコードの一部を誤って出荷してしまったことを確認した。同社はこの事案を「人為的ミスによるリリースのパッケージング問題であり、セキュリティ侵害ではない」と説明し、外部からの侵害は発生していないと強調した。

独立したサイバーセキュリティアナリストによれば、露出したのはおよそ1,900ファイル、約512,000行のコードだった。さらに専門家は、アシスタントが開発者の環境の中で直接動作しており、機密情報にアクセスできるため、悪用の可能性への懸念が高まったと指摘している。

この状況は、X上の投稿が漏えいした資料へのリンクを共有したことで、急速に拡大した。火曜日の早朝までに、その投稿はすでに3,000万回超の再生(閲覧)を記録しており、漏えいリポジトリの可視性が大幅に高まり、セキュリティ専門家がファイルを調査するようになった。

セキュリティ上の影響と攻撃者の懸念

開発者や研究者は、Claude Codeがどのように設計されているのか、そしてAnthropicが製品をどのように進化させるつもりなのかを理解するために、漏えいしたコードベースを精査し始めた。だが一部のセキュリティ専門家は、詳細な内部システムの知識を得た高度な攻撃者が何をしうるのか、すぐに疑問を呈した。

AIサイバーセキュリティ企業Straikerはブログ投稿で、敵対者はClaude Codeの社内パイプラインを通じてデータがどのように移動するかを今や調べられると警告した。その一方で同社は、この可視性によって、長時間のセッションにわたって存続するペイロードを設計でき、結果として開発者のワークフローの中に隠れたバックドアを実質的に作れてしまう可能性があると注意している。

こうした警告は、コード漏えいのセキュリティに関する業界全体のより広範な懸念を強めている。さらにアナリストは、リポジトリやインフラへの深いアクセスを備え、開発者環境内で動作するツールは、悪意ある行為者にとって特に魅力的な標的になると強調した。

1週間未満で発生した2件目のAnthropicのデータ事故

今回の漏えいは、Anthropicにとって孤立した不手際ではなかった。わずか数日前、Fortuneは、同社が何千もの内部ファイルを誤って公開可能な状態にしてしまったと報じており、これがソースコードのリリースに先立つ別のanthropicデータ事故だった。

それらの先行して漏えいしたファイルには、社内で「Mythos」と「Capybara」の両方として知られる、今後のAIモデルを説明する下書きブログ記事が含まれていたと報じられている。下書きでは、実験的なモデルが注目すべきサイバーセキュリティ上のリスクをもたらしうると指摘されており、その後のソースコード露出を踏まえると、今ではさらに機微性が高まっている。

両方の出来事への対応として、Anthropicは同様のミスを防ぐために追加のセーフガードを導入していると述べた。さらに同社は、いずれの事故にも機密の顧客データや認証情報が関与していなかったと繰り返し、エンタープライズの顧客や規制当局に安心させようとしている。

claudeコードの数字と市場への影響

Anthropicは昨年5月にClaude Codeを一般向けにリリースし、開発者が機能を作り、バグを修正し、反復作業を自動化するのを支援するAIアシスタントとして位置付けた。このローンチは、同社がAI駆動のソフトウェアツールの収益性の高い市場へ大きく踏み出すことを示すものだった。

製品の商業的な勢いは急速だった。2月までに、AnthropicはClaude Codeが年換算収益ベースで25億ドル超に到達したと報告した。しかし、この驚異的な数字は、より多くの企業がアシスタントを自社のワークフローに組み込むにつれて、Anthropicのセキュリティ態勢にかかるハードルも押し上げる結果となった。

競争圧力は、その成長に対して競合が対応することで高まっている。OpenAI、Google、xAIはいずれも、自社のコーディングアシスタントを構築するために多額のリソースを投入し、拡大する市場の一部を獲得するとともに、Anthropicのフラッグシップ・ツールと直接競争することを狙っている。

claudeコードの漏えい後の設立、評判、次のステップ

2021年に、元OpenAIの幹部および研究者によって設立されたAnthropicは、自社のClaude AIモデル群と安全性への重点を軸に評判を築いてきた。claudeコードの漏えいによって、その安全性という物語は、同社が根本原因は敵対者によるものではなく運用上の問題だったと主張しているにもかかわらず、今や圧力を受けている。

同社は、社内リポジトリを含むリリースに対して、より厳格なパッケージングのチェック、アクセス制御、レビュー手順を実施していると述べている。とはいえ、セキュリティの専門家は、開発者環境への深い統合や、想定される攻撃者の能力の高度化を踏まえると、現代のAIプラットフォームには継続的で階層的な防御が必要だと主張している。

Anthropicの広報担当者は、同組織がこの種の事故が再発しないように確実な措置を講じていると強調した。まとめると、今回の相次ぐ漏えいは、急速に成長するAI企業が、攻めの強い製品ローンチと、信頼を維持するための厳格なセキュリティ衛生をいかに両立させなければならないかを浮き彫りにしている。

XAI0.46%
原文表示
このページには第三者のコンテンツが含まれている場合があり、情報提供のみを目的としております(表明・保証をするものではありません)。Gateによる見解の支持や、金融・専門的な助言とみなされるべきものではありません。詳細については免責事項をご覧ください。
  • 報酬
  • コメント
  • リポスト
  • 共有
コメント
コメントを追加
コメントを追加
コメントなし
  • ピン