从“低准确率”到 99% 的成功率:OpenAI 的新工具能否检测深度造假?

2023-10-19 11:48

免责声明 免责声明:内容来源于网络收集,不构成任何投资建议!

在之前的工具出现不足之后,OpenAI 推出了另一款人工智能检测器,专注于图像和不断上升的深度造假风险。

从“低准确率”到 99% 的成功率:OpenAI 的新工具能否检测深度造假?

OpenAI 是生成人工智能领域的先驱,在社交媒体上误导性内容越来越普遍的情况下,它正在接受检测深度伪造图像的挑战。在近期于加利福尼亚州拉古纳海滩举办的《华尔街日报》技术直播会上,该公司首席技术官米拉穆拉蒂(Mira

Murati 推出了一款新的Deepfake 探测器。

Murati 表示,OpenAI 的新工具在确定图像是否是使用AI 生成时具有“99% 的可靠性”。

人工智能生成的图像可以包括各种内容,从轻松的创作(例如穿着蓬松的Balenciaga 外套的教皇弗朗西斯)到可能造成财务严重破坏的欺骗性图像。人工智能的潜力和陷阱是显而易见的。随着这些工具变得越来越复杂,区分真实内容和人工智能生成的内容被证明是一个挑战。

虽然该工具的发布日期仍处于保密状态,但它的发布引起了极大的兴趣,特别是考虑到OpenAI 过去的努力。

2022 年1 月,该公司推出了一款文本分类器,据称可以通过ChatGPT 等模型区分人类书写和机器生成的文本。但到了7 月份,OpenAI 悄悄关闭了该工具,并发布更新称其错误率高得令人无法接受。他们的分类器在9% 的情况下将真实的人类写作错误地标记为人工智能生成。

如果穆拉蒂的说法属实,这将是该行业的一个重要时刻,因为当前检测人工智能生成图像的方法通常不是自动化的。通常,爱好者依赖直觉并专注于阻碍生成人工智能的众所周知的挑战,例如追踪手、牙齿和模式。人工智能生成的图像和人工智能编辑的图像之间的区别仍然模糊,尤其是当人们试图使用人工智能来检测人工智能时。

OpenAI 不仅致力于检测有害的人工智能图像,还设置了审查自己模型的护栏,甚至超出了其在内容指南中公开声明的内容。

正如Decrypt 发现的那样,OpenAI 的Dall-E 工具似乎被配置为在没有通知的情况下修改提示,并在被要求生成特定输出时默默地抛出错误,即使它们符合已发布的指南,并避免创建与特定名称、艺术家风格和内容相关的内容。比赛。

从“低准确率”到 99% 的成功率:OpenAI 的新工具能否检测深度造假?

ChatGPT 中Dall-E 3 提示的一部分。来源:解密

检测Deepfake 不仅仅是OpenAI 的任务。 DeepMedia 是一家开发此功能的公司,专门与政府客户合作。

微软和Adobe 等大公司也正在卷起袖子。他们推出了所谓的“人工智能水印”系统。该机制由内容来源和真实性联盟(C2PA)推动,在对话气泡内包含一个独特的“cr”符号,以指示人工智能生成的内容。该符号旨在充当透明的灯塔,使用户能够辨别内容的来源。

然而,像任何技术一样,它也不是万无一失的。有一个漏洞可以删除带有此符号的元数据。不过,作为解决方案,Adobe还推出了能够恢复丢失元数据的云服务,从而确保符号的存在。规避起来也不难。

随着监管机构越来越多地将深度造假定为犯罪,这些创新不仅是技术成果,而且是社会必需品。 OpenAI 以及微软和Adobe 等公司最近的举措强调了确保数字时代真实性的集体努力。尽管这些工具经过升级以提供更高程度的真实性,但它们的有效实施取决于广泛采用。这不仅涉及科技巨头,还涉及内容创作者、社交媒体平台和最终用户。

随着生成式人工智能的快速发展,探测器仍然难以区分文本、图像和音频的真伪。目前,人类的判断和警惕是我们防止滥用人工智能的最佳防线。然而,人类并非绝对正确。持久的解决方案需要技术领导者、立法者和公众共同努力,以驾驭这个复杂的新领域。