2025-04-21 06:33来源:本站
生成式人工智能工具使创建假图像、视频和音频变得更加容易。
这引起了我的注意。担心这个繁忙的选举年会被现实的虚假信息扰乱。
大量人工智能深度造假并没有发生。一位人工智能研究人员解释了原因和未来的发展。
奥伦·埃齐奥尼(Oren Etzioni)研究人工智能并在这项技术上工作了十多年,所以当他看到2024年巨大的选举周期即将到来时,他做好了准备。
印度、印度尼西亚和美国只是将公民送到投票箱的一些人口众多的国家。大约一年前,生成式人工智能在世界上被释放出来,人们主要担心人工智能驱动的虚假信息可能会破坏民主进程。
“我们要不带杀虫剂进入丛林,”埃齐奥尼回忆当时的想法。
作为回应,他创办了TrueMedia.org,这是一家非营利组织,利用人工智能检测技术帮助人们判断在线视频、图像和音频是真是假。
今年4月,该公司推出了其服务的早期测试版,因此它已经为大量逼真的人工智能深度伪造和其他误导性在线内容做好了准备。
最后,弹幕没有出现。
“它真的没有我们想象的那么糟糕,”Etzioni说。“这是个好消息,仅此而已。”
他对此仍有些许困惑,尽管他有自己的理论。
首先,你不需要人工智能在选举期间撒谎。
“彻头彻尾的谎言和阴谋论很普遍,但它们并不总是伴随着合成媒体,”Etzioni说。
其次,他怀疑生成式人工智能技术还没有完全成熟,尤其是在深度造假视频方面。
Etzioni说:“一些最令人震惊的视频是真正真实的——这些仍然很难制作。”“在人们能够轻松生成他们想要的东西,并让它看起来像他们想要的样子之前,还有一段路要走。如何做到这一点的意识可能还没有渗透到互联网的黑暗角落。”
有一件事他是肯定的:高端人工智能视频生成能力将会出现。这可能会发生在下一个主要的选举周期或之后的一个,但它正在到来。
考虑到这一点,Etzioni分享了今年TrueMedia首次融资的经验教训:
在人工智能深度造假方面,民主国家仍然没有为最坏的情况做好准备。
这个迫在眉睫的问题没有纯粹的技术解决方案,人工智能需要监管。
社交媒体有im扮演着重要的角色。
尽管人们要求更高,但TrueMedia的准确率约为90%。要做到100%准确是不可能的,所以人类分析师还是有一席之地的。
让人类在最后检查每个决定并不总是可扩展的,所以人类没有只在极端情况下介入,比如当用户质疑TrueMedia技术做出的决定时。
该集团计划发表关于其人工智能深度伪造检测工作的研究成果,并正在研究潜在的许可协议。
Etzioni说:“很多人对我们的人工智能模型很感兴趣,这些模型是根据大量上传和深度伪造进行调整的。”“我们希望将其授权给以任务为导向的实体。”