#Gate广场四月发帖挑战



AI 数据公司 Mercor 确认遭遇重大数据泄露,涉及 OpenAI、Anthropic 等客户

据报道,为 OpenAI、Anthropic 和 Meta 等 AI 公司提供训练数据的初创公司 Mercor 确认遭遇重大安全漏洞。此次事件源于针对开源库 LiteLLM 的供应链攻击,该库被开发者广泛用于连接 AI 服务,日均下载量达数百万次。攻击由黑客组织 TeamPCP 发起,通过在 LiteLLM 中植入恶意代码窃取凭证。另一黑客组织 Lapsus$ 随后声称已获取 Mercor 多达 4TB 的数据,包括源代码、数据库记录、内部 Slack 通讯及平台对话视频等。据未经证实的报告,Mercor 部分客户的数据集及其保密 AI 项目信息可能已被泄露。Mercor 表示已迅速采取措施遏制事态,并已启动第三方取证调查。

这起事件是典型的“供应链投毒”引发的连锁反应,不仅暴露了AI基础设施的脆弱性,更可能让OpenAI等巨头的训练数据面临泄露风险。

1. 攻击链条复盘:从“工具”到“数据”

投毒源头:黑客组织 TeamPCP 攻陷了开源库 LiteLLM(AI API网关),在PyPI发布了带后门的版本(1.82.7/1.82.8)。

凭证窃取:Mercor等企业更新依赖后,恶意代码静默窃取其云凭证和API密钥。

数据洗劫:另一黑客组织 Lapsus$ 利用这些密钥入侵Mercor内网,窃取约 4TB 核心数据并挂牌出售。

2. 泄露数据“含金量”

据Lapsus$声称及媒体核实,被盗数据极具破坏力:

客户机密:涉及 OpenAI、Anthropic、Meta 等巨头的训练数据集、未发布模型细节、内部项目代号。

个人隐私:大量平台承包商(标注员)的护照扫描件、面试视频、身份文件。

企业底牌:Mercor近1TB的源代码、内部Slack聊天记录及工单系统数据。

3. 潜在影响与风险

模型安全:若训练数据(特别是RLHF人类反馈数据)泄露,攻击者可逆向推演模型弱点,发起更精准的对抗攻击。

合规危机:承包商的大规模PII(个人身份信息)泄露,可能引发GDPR等法规下的天价罚款。

信任崩塌:作为AI产业链的“数据血库”,Mercor的安全失守将迫使下游厂商重新评估第三方数据供应链的风险。

4. 现状与防御

紧急处置:恶意版本已被下架,Mercor已启动第三方取证并通知客户。

自查建议:若你在3月下旬更新过LiteLLM,请立即检查版本并轮换所有云凭据与API密钥。普通用户需警惕后续可能出现的钓鱼邮件。

一句话总结:这不仅是Mercor一家公司的安全事故,更是对整个AI生态“重功能、轻安全”现状的一次高烈度预警。
post-image
post-image
此页面可能包含第三方内容,仅供参考(非陈述/保证),不应被视为 Gate 认可其观点表述,也不得被视为财务或专业建议。详见声明
  • 赞赏
  • 评论
  • 转发
  • 分享
评论
请输入评论内容
请输入评论内容
暂无评论