摘要:
7月28日消息,微软人工智能公益项目(MicrosoftAIforGood)发布的一篇论文概述了一项实验,该实验有超过1.25万名全球参与者,进行了28.7万次图像评估,结果显示人...
7月28日消息,微软人工智能公益项目(MicrosoftAIforGood)发布的一篇论文概述了一项实验,该实验有超过1.25万名全球参与者,进行了28.7万次图像评估,
结果显示人类辨别AI生成图像与真实图像的整体成功率仅为62%,这表明人类在识破这些虚假图像方面的能力仅略高于随机猜测,面临着较大的挑战。研究发现,在各类图像中,
参与者最容易识别出虚假的人像图像,但面对自然景观和城市街景等非人物图像,辨别成功率大幅下降至59%-61%。这凸显了人类在区分AI图像时的困难,尤其是那些没有明显人工痕迹或风格线索的图像。据了解,实验采用“真实或虚假”问答游戏的形式,参与者需判断所见图像是否由AI生成。为确保测试贴近现实场景,研究团队刻意避免挑选极具迷惑性的“极端案例”,而是选取了人们在日常网络浏览中可能真实遇到的图像样本。研究同时强调,随着AI技术持续进步,未来模型生成的图像将更加逼真,辨别难度将进一步加大。基于研究结果,微软呼吁加强技术透明度,推动广泛采用图像水印和可靠的AI内容检测工具,以降低AI生成内容引发虚假信息传播的风险。此前,微软已发起公众教育活动,旨在提升社会对AI伪造信息威胁的认知。研究团队还测试了微软自研的AI检测工具,该系统在各类图像上的识别准确率均超过95%,远高于人类表现。尽管如此,研究人员仍强调,即便是先进的机器检测手段也并非万无一失。值得注意的是,即便图像带有可见水印,恶意使用者仍可通过简单的裁剪或图像处理工具轻易将其去除或掩盖,从而绕过视觉警示机制。这使得仅依赖水印的防护策略显得尤为不足。为何人类在识别人脸类AI图像时更具优势?研究人员认为,这可能源于人类天生对面部特征的高度敏感性,更容易察觉AI生成人像中的细微异常,如不对称的眼睛、不自然的皮肤纹理或光线错误。有趣的是,研究还发现,早期的生成对抗网络(GANs)和图像修复(inpainting)技术反而更具欺骗性。这些技术生成的图像往往呈现“业余摄影”风格,而非Midjourney或DALL-E3等主流模型常见的精致、高饱和度的“影棚风”,因而更易被误认为真实拍摄。其中,图像修复技术尤其值得警惕——其允许将真实照片中的局部区域替换为AI生成内容。微软指出,这种“局部伪造”手段极具隐蔽性,极难被普通用户识别,为虚假信息和深度伪造(deepfake)攻击提供了新的温床,可能被用于制造误导性新闻或政治宣传。这项研究再次敲响警钟:面对日益逼真的AI生成内容,人类的直觉判断已不足以应对。科技企业必须加快开发更强大的检测技术和内容溯源机制,构建多层次的防御体系,以遏制AI伪造内容在社会层面的恶意传播。
