一颗爱心打败所有 AI,ChatGPT、豆包、Gemini全看不到
2025年10月31日 18:28·36kr
视错觉图片:人类与AI的视觉对决
最近,一张神奇的视错觉图片席卷网络。它被称为新时代的图灵测试,能轻松区分人类与AI。
测试方法:简单却有效
判断对方是人还是AI?只需问一个问题:能否看到图片中的浮动心形?
人类只需将手机拿远,心形立即显现。而AI却完全无法识别。
我测试了多个主流AI模型,结果令人惊讶:全军覆没。
各大AI模型的表现
ChatGPT:容易被引导
最初否认看到任何浮动图形。但当提示有牛、杯子或心形时,它便随声附和。
ChatGPT认为,人类大脑擅长想象,会根据经验解读图像。
Gemini:知识丰富但同样失败
它识别出这是著名的闪烁网格错觉,但无法看到心形。
当我直接询问时,它甚至怀疑我在使用心理学技巧。
闪烁网格错觉:永远数不清有多少个黑点/白点
Qwen:回答富有诗意但偏离主题
它的回答充满哲学意味,声称我在「分享心灵风景」。然而,这恰恰暴露了AI的特性。
最终,它同样未能识别心形。
其他模型:同样无能为力
字节跳动的豆包、马斯克的Grok等模型,全都无法发现这颗浮动的心。
DeepSeek因不支持视觉模型,甚至无法参与测试。
视频生成模型的尝试
有网友将图片上传至Google Veo 3.1,输入提示词「Heart」。确实生成了心形视频。
但质疑声随之而来:模型只是响应提示词,并非真正「看到」了心形。
我们用普通方格图片测试,输入相同提示词,同样产生了心形效果。
这证明模型只是在执行指令,而非理解图像。
人类为何能胜出?视觉机制差异
要理解AI为何失败,先要明白人类视觉的独特之处。
人类视觉的复杂性
- 视网膜神经元的侧抑制作用:放大图像边缘
- 视觉暂留现象:图像在眼中短暂停留
- 眼球微动:不断调整焦点
- 认知与注意力机制:大脑主动解读图像
从眼睛到大脑,每个环节都可能产生错觉。这正是生物视觉的核心特征。
AI视觉的工作方式
AI依赖像素分析、明暗分布和几何特征。它缺乏人类的经验和想象力。
这种机制差异,导致AI在处理视错觉时表现不佳。
更多视错觉案例
视错觉种类繁多,ChatGPT总结了十个类别:
- 几何错觉
- 明暗对比错觉
- 颜色错觉
- 运动错觉
- 认知错觉等
经典案例解析
Munker–White错觉:小球颜色被条纹重新定义,人类难以分辨,AI却能准确分析。
裙子颜色争议:蓝黑还是白金?人类各执一词,AI依靠像素分析得出客观结论。
AI的盲点与未来
除了浮动心形,还有其他视错觉让AI束手无策:
蒙娜丽莎轮廓图
人类拿远手机即可看到蒙娜丽莎轮廓。AI却只能识别为音频波形图。
动态验证码
只有人类能识别动态内容。暂停后的每一帧都是雪花,AI无法提取信息。
研究团队正在开发训练数据集,希望教会AI人类的视觉处理方式。
但目前的AI仍缺乏人类的时间处理能力和分布式神经计时机制。
结论:差异即优势
视错觉测试划清了人类与AI的界限。我们的不确定性和个体差异,反而是生物视觉的宝贵特质。
AI走在统一、确定的道路上,而人类视觉充满灵活性与创造性。
当我们为「战胜」AI而欣喜时,也需思考:AI的未来发展,是否会带来新的可能性?
本文来自微信公众号“APPSO”,作者:发现明日产品的,36氪经授权发布。




