AIGC 照片以假乱真 “眼见”不再“为实”
2024-06-26 17:03
米塔之家
2024-06-26 17:03
订阅此专栏
收藏此文章

来源|中国电信业
栏目|行业前沿


如何辨别 AI 真伪?


随着基于人工智能的图像生成系统能力不断增强,人工智能生成内容(AIGC)图片与真实照片之间的界限越来越模糊,检测照片真伪的难度也越来越高,甚至有可能给不法分子留下可乘之机。具有讽刺意味的是,人类依靠自身能力越来越难以对人工智能生成的图像和实景照片进行区分,未来或许真的需要依赖 AI 来识别 AIGC 图片的“真伪”。美国知名的《科学美国人》(Scientific American)杂志近期在其网站发布了一篇题为《如何判断照片是否由 AI 生成》(How to Tell If a Photo Is an AI-Generated Fake)的文章,为此提供了一个有趣的视角。

| AIGC 照片以假乱真,在社交媒体引发病毒式传播

如果你对 AIGC 图片以假乱真的能力还不太了解,那么此前在互联网上广泛流传一些所谓的“新闻照片”可能会让你大跌眼镜。例如,“美国前总统唐纳德·特朗普被捕”等。这些 AIGC“照片”发布之后,大量不明真相的普通用户信以为真,在社交媒体上引发了病毒式传播,而其本质不过是 AI 系统根据用户给出的文本提示所生成的图像。这些图像的疯传表明,普通用户难以通过肉眼对一张真实照片与一幅人工智能生成图片进行有效的区分。随着人工智能系统的快速迭代,AIGC 图片已经能够以假乱真,除了普通用户被“愚弄”之外,更严重的问题在于当“眼见”不再“为实”,某种长久以来的信任验证机制崩溃了。

那么,如果一名普通的互联网用户对某张图片的“真实性”有所怀疑,要如何辨别其是否是由 Midjourney、Stable Diffusion 等人工智能系统生成的图像呢?实际上,每个 AI 图像生成器及其生成的每张图片都可能包含某些“破绽”,从而暴露出其生成算法的规律。例如,此前人工智能系统一直难以在其所生成的图片中正确地绘制人类的手部图像,当时 AIGC 图片中的“手”总是呈现出某种奇怪的“残肢”感——手指不是多了就是少了,或者手部关节呈现出某种非自然的弯曲角度。然而随着技术的进步,AI 系统似乎已经解决了这个问题,比如 Midjourney 的 V5 及其之后的版本已经能够“时不时”地绘制出看上去自然且正常的手部图像。总体而言,相关专家表示,要把最优秀 AI 系统所生成的最佳图像与真实的图像区分开来,即使能够做到,也是一件非常困难的事。

对此,宾夕法尼亚州立大学研究媒体技术心理影响的研究员 S.Shyam Sundar 表示:“AI 系统生成图像的能力令人感到不可思议。在过去一年左右的时间里,人工智能系统在图像生成能力方面取得了巨大的飞跃。”Sundar 指出,引发这种能力飞跃的因素主要来自两方面:一是可用于训练此类 AI 系统的图像数量不断增加,二是数据处理基础设施和交互界面的进步让普通互联网用户可以使用相关技术。由此产生的结果是,AIGC 图像开始变得无处不在,“而且几乎不可能对其进行检测”。

| 当“眼见”不再“为实”,师 AI 长技以制 AI?

最近的一项实验表明,AIGC 已经有能力骗过人眼。英国兰开斯特大学(Lancaster University)专注于数字技术的心理学家 Sophie Nightingale 针对人们区分 AIGC 图像和真实照片的能力开展了一项研究。在该研究中,在线志愿者被要求区分两类图像:一类是由名为 StyleGAN2 的人工智能系统所生成的类似于护照照片的头像,另一类则是真实的图像。研究人员进行该实验的时间是 2021 年末,即使以当时的 AI 能力,实验结果也令人非常沮丧。Nightingale 表示,实验对象的成绩几乎完全随机,由于 AIGC 图像如此真实,人们无法明确地分辨出 AI 合成的人脸图像与真实存在的人脸照片之间的差异。尽管在这项实验中,人类为人工智能提供了一些“帮助”——研究人员对 StyleGAN2 生成的图像进行了分类,挑选出其中更为“真实”的图像。可想而知,那些想要利用 AIGC 系统来达到不法目的的人很有可能也会这样做。

在另一项实验中,研究人员试图帮助测试对象提高辨别 AIGC 图像的能力。他们在参与者作出回答后即给出每个答案的对错,还让参与者仔细阅读了关于如何辨别 AIGC 图像的相关建议,以便其提前作好准备。该建议强调了人工智能算法经常出错的一些地方,例如所生成图片中的耳环可能不匹配,或者图片中人物的牙齿没有齿缝而是连成一片,并且 AI 算法通常很难生成复杂的背景画面。但即使在为测试对象提供这些额外内容的情况下,参与者的判断准确率也仅仅提高了约 10%;与此同时,相关的人工智能系统却在不断演进并推出更新的改进版本。

亲爱的读者,或许你对自己的“眼力”非常有信心,相信自己能够把 AIGC 图片和真实照片区分开来。那么我们不妨来玩一个游戏,下图的四张犬类图片中包含了 AIGC 图片和真实照片,请你作出自己的判断,答案在文末。

具有讽刺意味的是,随着 AI 图像生成技术的不断进步,人类避免被人工智能系统“愚弄”的最佳防御手段或许是采用另一个人工智能系统——一个被专门训练用来检测 AIGC 图像的 AI 系统。有不少专家表示,随着 AIGC 图像相关技术的演进,算法比人类更有能力检测出人工智能在创作过程中产生的一些微小的像素级“指纹”。

威斯康星大学麦迪逊分校(University of Wisconsin–Madison)的计算机科学家 Yong Jae Lee 表示,创建人工智能检测程序的工作原理与其他的机器学习任务相同,首先收集真实图像和 AIGC 图像的数据集,然后训练一个机器学习模型来对二者加以区分。

尽管如此,Lee 和其他专家均表示,上述系统仍存在重大缺陷。因为大多数此类算法都是以特定 AIGC 系统所生成的图像进行训练,所以无法识别其他算法所生成的 AIGC 图像。不过 Lee 同时表示,可能有办法规避这一问题,即反其道而行之——训练一个识别图片“多么真”而非“多么假”的人工智能检测程序。此外,大多数 AI 检测程序尚不具备用户友好的界面,无法像 AIGC 系统那样吸引大量普通用户来进行尝试,从而无法低成本地实现快速升级迭代。

此外,作为一种反制和应对手段,人工智能检测程序或许注定永远是 AIGC 系统身后的跟随者。不仅如此,一些 AIGC 系统已经包含了类似的检测算法,但其目的却恰恰相反——要让生成的图像更加难以被检测出来。南加州大学(University of Southern California)计算机科学研究副教授 Wael AbdAlmageed 表示:“生成 AIGC 图像和检测 AIGC 图像的人工智能系统之间的斗争将是一场‘军备竞赛’,并且短期内不会有任何一方获胜。”AbdAlmageed 建议社交媒体平台开始在其网站上对 AIGC 采取限制措施,因为与个人用户相比,由此类公司实施检测算法更加合适。互联网不是法外之地。即使如相关专家所预言的,未来 AI 系统的能力会强大到任何方法都不能保证识别出所有的 AIGC 图像,但这也不意味着我们应该放弃对传播内容去伪存真的努力。

小测试答案:左上、右下为笔者使用 Midjourney 生成的 AIGC 图片。你猜对了吗?


由米塔之家主办的 2024 中国 AIGC 应用与发展大会将于 6 月 28 日在上海举办,本次大会将聚焦 AIGC 技术的最新研究成果、行业应用案例、商业模式创新以及面临的挑战,详情查看长图:

【免责声明】市场有风险,投资需谨慎。本文不构成投资建议,用户应考虑本文中的任何意见、观点或结论是否符合其特定状况。据此投资,责任自负。

米塔之家
数据请求中
查看更多

推荐专栏

数据请求中
在 App 打开