Google拟推AI生图标示功能!C2PA技术怎解决Deepfake内容泛滥?


Google正计划推出在搜寻结果中标示AI生成之图片的功能,帮助使用者更清楚地辨识数字内容的真实来源。

为强化数字内容透明度推C2PA

随着生成式AI的普及,网络上的数字内容愈来愈真假难辨。 Google近日宣布,计划于未来几个月内,在Google Search等平台上,推出标示图片是否由AI生成及编辑的功能。

这项功能透过采用C2PA(Coalition for Content Provenance and Authenticity,内容来源与真实性联盟)技术标准,帮助使用者更清楚地辨识数字内容的来源。

C2PA由多家公司组成,包括Google、亚马逊、微软、OpenAI和Adobe,致力于推动内容凭证(Content Credentials)的技术发展。图片的来源将在Google Search、Google Lens及Circle to Search等功能中的「关于此图片」视窗中被标示。未来,这项标示措施也可能扩展至YouTube等平台。

Google也计画利用C2PA协助YouTube观众确认哪些画面是真的透过相机拍摄,但这取决于相机厂商是否支持C2PA标准,目前只有Leica、Sony相机支持这一标准。

C2PA技术的挑战

尽管C2PA技术能为数字内容提供真实性保证,但其推广和应用仍面临不少挑战。

目前只有含C2PA元数据的图片会被标示为AI生成或编辑,但C2PA元数据是可被移除或删除的,甚至在传输过程中损坏至无法阅读的状态,造成Google无法辨识。此外,此技术需建立在AI技术厂商加入C2PA联盟,譬如xAI的Grok聊天机器人所使用的Flux生成工具,因为尚未采纳C2PA标准,因此并不具备这些元数据。

对此Google表示透过C2PA指导委员会,针对内容凭证的技术标准进行了升级。新版内容凭证技术(2.1版)强化了防篡改功能,不过在跨平台的采用上仍有待克服。

Deepfake层出不穷,过去一年AI诈骗事件激增245%

近年有关Deepfake深伪技术所造成的犯罪层出不穷,譬如韩国在今年8月被爆出的「N号房2.0」事件,多名女性成为deepfake色情影像的受害者。 AI生成内容的诈骗案件也在激增。

根据Deloitte的统计,从2023年至2024年,涉及AI生成内容的诈骗案件增长了245%。 Deloitte进一步预测,与深伪技术相关的经济损失将从2023年的123亿美元(约3929亿8254万)暴增至2027年的400亿美元(约1兆2779亿),显示了加强数字内容来源验证技术的迫切性。

本文链接地址:https://www.wwsww.cn/hqfx/27838.html
郑重声明:本文版权归原作者所有,转载文章仅为传播更多信息之目的,如作者信息标记有误,请第一时间联系我们修改或删除,多谢。