Anthropic сталкивается с критикой после утечки кода Claude, которая раскрыла 512 тысяч строк внутреннего кода

На фоне растущей обеспокоенности вопросами безопасности ИИ утечка кода claude поставила Anthropic под пристальное внимание со стороны разработчиков и исследователей по всему миру.

Anthropic подтверждает экспонирование внутреннего исходного кода

Во вторник Anthropic подтвердил, что непреднамеренно отправил часть внутреннего исходного кода для своего инструмента ИИ для написания кода Claude Code. Компания охарактеризовала инцидент как «проблему при упаковке релиза, вызванную человеческой ошибкой, а не нарушением безопасности», подчеркнув, что внешнего компромета не произошло.

По данным независимых аналитиков по кибербезопасности, экспозиция затрагивала примерно 1,900 файлов и около 512,000 строк кода. Кроме того, эксперты отметили, что ассистент работает непосредственно внутри сред разработки, где он может получать доступ к чувствительной информации, что усилило опасения относительно возможного злоупотребления.

Ситуация быстро обострилась после публикации в X, где был размещен линк на утекшие материалы. К раннему утру во вторник эта публикация уже превысила 30 миллионов просмотров, резко повысив видимость утекшего репозитория и заставив специалистов по безопасности изучать файлы.

Последствия для безопасности и опасения атакующих

Разработчики и исследователи начали просматривать утекшую кодовую базу, чтобы понять, как устроен Claude Code, и как Anthropic намерена развивать продукт. Однако некоторые специалисты по безопасности сразу же подняли вопросы о том, что могут сделать с подробными знаниями внутренних систем даже весьма продвинутые злоумышленники.

Кибербезопасностная компания в сфере ИИ Straiker в блоге предупредила, что теперь противники могут изучать, как данные проходят через внутренний конвейер Claude Code. При этом компания отметила, что такая видимость может позволить кому-то разработать полезные нагрузки, сохраняющиеся в течение длительных сессий, фактически создавая скрытый бэкдор в рабочем процессе разработчика.

Эти предупреждения усилили более широкие опасения в отрасли относительно безопасности при утечках кода. Кроме того, аналитики подчеркнули, что инструменты, работающие внутри сред разработки и имеющие глубокий доступ к репозиториям и инфраструктуре, представляют собой особенно привлекательную цель для злоумышленников.

Второй инцидент с данными Anthropic менее чем за неделю

Эта утечка не стала изолированным сбоем для Anthropic. Всего несколькими днями ранее Fortune сообщила, что компания случайно сделала тысячи внутренних файлов общедоступными, отметив отдельный инцидент с данными anthropic, который предшествовал выпуску исходного кода.

Как сообщалось, в тех ранее опубликованных файлах содержался черновик поста в блоге, где описывалась готовящаяся к выходу ИИ-модель, известная внутри компании как и «Mythos», и «Capybara». В черновике отмечалось, что экспериментальная модель может создать заметные риски для кибербезопасности, и теперь это стало еще более чувствительным в свете последующей утечки исходного кода.

В ответ на оба события Anthropic заявила, что внедряет дополнительные меры защиты, чтобы предотвратить подобные ошибки. Кроме того, компания повторила, что ни в одном из инцидентов не было задействовано никаких чувствительных данных клиентов или учетных данных, пытаясь успокоить корпоративных клиентов и регуляторов.

Claude Code в цифрах и влияние на рынок

Anthropic выпустила Claude Code для широкой публики в мае прошлого года, позиционировав его как ИИ-ассистента, который помогает разработчикам создавать функции, исправлять ошибки и автоматизировать повторяющиеся задачи. Запуск стал значительным шагом компании на прибыльный рынок ПО-инструментов с ИИ.

Коммерческое закрепление продукта происходило быстро. К февралю Anthropic сообщила, что Claude Code достигла темпа выручки (run-rate) более $2.5 миллиарда. Однако эта впечатляющая цифра также повысила ставки для уровня безопасности Anthropic, поскольку все больше предприятий интегрируют ассистента в свои рабочие процессы.

Конкурентное давление усилилось по мере того, как соперники реагируют на этот рост. OpenAI, Google и xAI выделили существенные ресурсы на создание собственных ассистентов для написания кода, надеясь получить долю растущего рынка и напрямую конкурировать с флагманским инструментом Anthropic.

Основание, репутация и следующие шаги после утечки claude code

Основанная в 2021 году бывшими руководителями и исследователями OpenAI, Anthropic построила свою репутацию вокруг семейства моделей Claude AI и акцента на безопасности. Утечка claude code теперь создала давление на эту историю о безопасности, даже несмотря на то, что компания настаивает, что корневая причина была операционной, а не враждебной.

Компания заявила, что внедряет более строгие проверки упаковки, контроль доступа и процедуры проверки для релизов, включающих внутренние репозитории. При этом эксперты по безопасности утверждают, что современные ИИ-платформы требуют непрерывной многослойной защиты, учитывая их глубокую интеграцию в среды разработки и растущую степень продвинутости потенциальных атакующих.

Пресс-секретарь Anthropic подчеркнул, что организация предпринимает конкретные шаги, чтобы гарантировать, что такого типа инциденты не повторятся. В целом, недавние утечки показывают, как быстро растущие ИИ-компании должны уравновешивать агрессивные запуски продуктов с строгой гигиеной безопасности, чтобы сохранять доверие.

XAI-2,38%
Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • комментарий
  • Репост
  • Поделиться
комментарий
Добавить комментарий
Добавить комментарий
Нет комментариев
  • Закрепить