深度伪造监管的必要性

简要

深度伪造技术曾经是新奇事物,但现在迅速演变为对商业、社会和民主的系统性威胁——迫切需要监管、强大的检测工具和更强的媒体素养,以保障数字世界中的信任。

深度伪造监管案例

深度伪造不再是新鲜事。它们正在迅速成为对商业、社会和民主的系统性威胁。根据欧洲议会的数据,到2025年,预计将分享约800万条深度伪造视频,而2023年仅为50万条。在英国,五分之二的人声称在过去六个月内遇到过至少一个深度伪造视频。但曾经相对容易识别的深度伪造,因公开可用的人工智能模型日益复杂化,使得检测变得比以往任何时候都更加困难。

生成对抗网络(GANs)和扩散模型的进步促进了高级超现实深度伪造技术的发展。这两种技术在实现实时视频通话或直播中的无缝换脸和声音调制方面发挥了重要作用。这极大提升了用户体验,虚拟头像等功能使游戏和会议更加个性化和沉浸式。但这也为实时冒充诈骗打开了大门。

你可能会认为只有那些不熟悉的人才会无法识别他们非常了解和信任的人的冒充。但在去年五月,一群骗子假冒工程公司Arup的一名高级经理,成功说服财务部门的一名员工将2亿港元的资金转移到五个当地银行账户。在过去的12个月中,类似的攻击冒充高级员工和首席执行官已针对法拉利、WPP和Wiz等公司发起,破坏了人们对数字通信的信任。

语音克隆也随着深度伪造技术的兴起而迅速发展。由人工智能驱动的语音合成现在能够以惊人的准确度复制人声。令人震惊的是,仅需几秒钟的音频就足以创建一个几乎完美的克隆。这对于各种创意用途来说可能是很棒的,比如个性化有声书或配音,但它也有可能造成巨大的伤害。

今年七月,佛罗里达州的一名女性被欺骗,交出了15,000美元的保释金,因为她听到她认为是女儿在车祸后呼救的声音。这个电话是一个AI克隆,假装成她的女儿,最终将电话转给了一名所谓的律师,后者提供了转账的指示。这些克隆仅仅是使用人们声音的片段拼凑而成,这些片段可以通过社交媒体渠道轻易找到,这突显了被滥用的潜力。

在社交媒体上,现实与虚构之间的界限正在模糊。AI生成的虚拟影响者主导着在线营销领域,为品牌提供完全可控的人物形象。观众现在必须在一个合法与人工个性几乎无法区分的世界中导航,这引发了关于媒体真实性的问题。在好莱坞,深度伪造技术被用来让演员返老还童或重现历史人物。虽然这让制作公司能够以相对较低的成本提高内容质量,但也给了骗子复制名人可信外貌的手段,并利用它引发争议。

但风险远不止于名人误传。深度伪造可以用来制造政治分歧,通过传播虚假叙事或伪造政治人物发表虚假演讲的视频。其后果可能是深远的,影响公众舆论,改变国家选举的进程,并可能毒化全球政治话语。

面对如此多的威胁,各国政府正在作出回应。在欧洲,人工智能法案包含一项强制标记的条款,要求使用人工智能生成或修改的内容必须进行标记,以使用户意识到其来源。虽然该法案没有禁止深度伪造,但它禁止在某些情况下使用隐秘操控人们的人工智能系统。一些政府正在积极使用或投资于能够识别声音、面孔或图像微妙变化的检测技术。

但监管仍然滞后于技术。强制标签、人工智能伪造物检测算法和音频取证是解决方案的重要组成部分,但抑制深度伪造的威胁需要更广泛和全面的策略。强有力的监管和伦理指导,加上对媒体素养的投资,在打击深度伪造欺诈和虚假信息中同样发挥着重要甚至更大的作用。

监管和伦理指南必须变得更加积极主动,水印和强制披露标准必须成为任何深度伪造策略的常规特征。与此同时,媒体素养必须被视为优先事项。公民必须具备批判性思维能力,质疑他们所看到和听到的内容。只有通过监管者、私营部门和公民社会之间的合作,我们才能保护数字生活,并确保深度伪造威胁成为过去。

查看原文
此页面可能包含第三方内容,仅供参考(非陈述/保证),不应被视为 Gate 认可其观点表述,也不得被视为财务或专业建议。详见声明
  • 赞赏
  • 评论
  • 转发
  • 分享
评论
0/400
暂无评论
交易,随时随地
qrCode
扫码下载 Gate App
社群列表
简体中文
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)