OpenAI去年因ChatGPT的流行而备受追捧,该公司在2 月16 日推出了新的AI 影片生成模型Sora,Sora 的工作原理与OpenAI 的图像生成人工智能工具DALL-E 类似,用户只需输入文字提示,就可以生成一个高度逼真的影片。
在媒体为这个新AI 模型感到兴奋的同时,也有不少人对该技术产生担忧,因为Sora 很有可能成为一种快速且廉价的线上虚假资讯制造方式,使人们更难辨别网路上的真实情况。
本篇文章将详细讨论Sora OpenAI 背后存在的风险,以及在AI 发展如此快速的今天,我们应该如何识别AI 造假和诈骗。
OpenAI Sora 是什么?有多厉害?
AI 影片生成并不是什么新鲜事,然而,随着OpenAI Sora 文字转影片的到来,制作影片变得前所未有的容易。
Sora 是OpenAI 于上周四推出的新的生成式人工智能模型,其工作原理与OpenAI 的图像生成人工智能工具DALL-E 类似。用户只需输入文字提示,如所需场景、人物、影片风格等,Sora 就可以返回一个高清且逼真的影片。此外,据OpenAI 所述,Sora 还可以产生受静止影像启发的影片剪辑,并扩展现有影片或填充缺少的画面。
这大大降低了使用的门槛。此外,尽管目前仅有的几个示例影片中存在一些细微的问题,但Sora 的真实感让人惊讶,该AI 生成的影片具有一定程度的准确性和真实性。
随着Sora 开放试用并推广,普通人都将能够使用一个简单易用的工具来完成整个影片的剪辑。结合语音深度伪造人工智能(AI) 软件的现有功能,造假的AI 视讯出现的可能性比以往任何时候都更加高。
Sora 背后存在的风险
那么,Sora 爆火后会出现哪些风险呢?
1.Sora 可能会传播虚假的信息
虽然Sora 的到来让人工智能爱好者兴奋不已,但随着全球重大政治选举的临近,新技术带来了严重的错误讯息担忧。
一月下旬,人工智能生成的流行歌手泰勒丝(Taylor Swift) 的虚假色情图片在社交媒体上疯传,获得了数百万次观看。上个月,一个冒充总统乔拜登声音的虚假机器人电话阻止了人们在新罕布夏州初选中投票。
华盛顿大学专门研究人工智能的教授奥伦·埃齐奥尼(Oren Etzioni) 表示:「我非常害怕这种事情会影响一场势均力敌的选举。」他也是True Media 的创始人,该非营利组织致力于识别政治竞选中的网路虚假资讯。
美国政府网路安全和基础设施安全局(CISA) 技术咨询委员会成员Rachel Tobac 也表示,「我最担心的是这些内容如何被用来欺骗、操纵、网路钓鱼和迷惑公众」。
尽管OpenAI 承认该工具的广泛使用存在风险,并表示在开放前将采取一些重要的安全措施,但Tobac 女士表示她「仍然感到担忧」。
她表示,在选举的背景下,这样的工具可能会被滥用,以显示「恶劣天气下难以想像的长队」,以说服人们这不值得出去投票。
OpenAI 表示,其团队正在限制Sora 的潜在有害使用,例如展示极端暴力、名人肖像或仇恨图像。
但Tobac 担心对手可能会找到规避规则的方法。
「以我上面的例子为例,提示该人工智能工具播放『一段人们在暴雨中在建筑物外等待的影片』并不违反这些政策——危险在于它的使用方式」,她解释道。
2.Sora 可能会被用于投资诈骗
除了处于政治目的的虚假影片外,这项新技术还很可能被用于投资诈骗。因为它能允许恶意行为者创建冒充真实人和公司的深度伪造品,以推广欺诈性投资项目。
例如,诈骗者可以用Sora 来获得虚假名人的认可,这种合成视讯和音讯非常有说服力。例如,在一个影片中可能出现巴菲特说某档投资产品值得投资,从而导致不知真相的投资者将资金投入该虚假的产品中。
此外,Sora 的文字转影片功能可以以低成本自动创建大量诈骗影片。这些可用于在社群媒体平台上推广加密货币拉高转储计划,而这些计划在防止诈骗方面已经做得很少。
不良行为者可以利用Sora 等文字转影片人工智能的力量,以低廉的成本创建可操纵的内容。然后可以对其进行最佳化,以在社交平台上病毒式传播,并使加密货币等投资诈骗在不加控制的情况下迅速扩大规模。
3. Sora 加剧版权问题的矛盾
自ChatGPT 等AI 工具流行后,版权问题成为了讨论的重点,因为这些工具的运行需要大量资料的支撑。
目前,OpenAI 拒绝透露系统学习了多少影片或这些影片来自何处,只是表示培训包括公开影片和版权所有者许可的影片。
4.Sora 可能让相关工作者事业
DALL-E、Midjourney 和其他静态影像产生器在过去几年中进步如此之快,以至于它们现在生成的影像几乎与照片没有区别。这使得识别网路上的虚假资讯变得更加困难,也使得不少相关工作者更难找到工作。因为该工具的功能与内容创作人员的技能密切相关,包括电影制作、媒体等。
密西根州电影概念艺术家里德·索森(Reid Southen) 表示,「在人们正在中途失业。」
如何识别Sora 等工具生成的虚假AI 影片?
在Sora 等AI 影片生成模型逐渐进入我们的生活后,我们应该如何识别影片的真伪,避开诈骗呢?
1.从细节判断
尽管AI 生成的影片看起来很真实,但它们并不总是完美的,并且可能包含奇怪和不合逻辑的图像。
例如,Sora 最近生成了一段有人吃饼干的视频,但饼干从未变小。
因此,仔细查看影片中的细节,您可能会发现许多异常,这些异常可以让我们识别大多数的AI 影片。
2.利用工具协助判断
随着AI 技术的不断发展,不少公司也研发出了能检测内容真伪的工具,这些工具可以帮助我们识别AI 生成的影片。例如:
- Clarity:这是一个打击深度造假的AI 检测平台。利用专利演算法,Clarity 能精确侦测影片、影像和音讯中的窜改,并透过加密浮水印确保内容真实。
- Adobe Photoshop:该平台最近新推出了一个内容真实性工具,能够帮助用户了解影像的编辑历史和来源,从而判断其真实性。
- Deepware Scanner:该平台可以使用专门的算法来识别由AI 生成的图像和影片。
Sora 可以用了吗?
如果您想亲自尝试Sora,您今天可以在其官网建立OpenAI 帐户。但请记住,除非您有邀请,否则软体尚不可用。
OpenAI 第一波测试人员主要由「红队人员」组成,他们正在对该工具进行压力测试,以消除错误和漏洞。
此外,目前还没有正式的发布日期,但如果OpenAI 之前的版本能够继续下去,那么距离正式发布可能不会太远。
本文链接地址:https://www.wwsww.cn/rgzn/24279.html
郑重声明:本文版权归原作者所有,转载文章仅为传播更多信息之目的,如作者信息标记有误,请第一时间联系我们修改或删除,多谢。