文章
一颗爱心打败所有 AI,ChatGPT、豆包、Gemini全看不到

一颗爱心打败所有 AI,ChatGPT、豆包、Gemini全看不到

2025年10月31日 18:28·36kr

AI
ChatGPT
Gemini
视错觉图片挑战AI:人类视觉与机器视觉的差异分析

视错觉图片:人类与AI的视觉对决

最近,一张神奇的视错觉图片席卷网络。它被称为新时代的图灵测试,能轻松区分人类与AI。

视错觉图片测试AI识别浮动心形

测试方法:简单却有效

判断对方是人还是AI?只需问一个问题:能否看到图片中的浮动心形?

人类只需将手机拿远,心形立即显现。而AI却完全无法识别。

我测试了多个主流AI模型,结果令人惊讶:全军覆没

各大AI模型的表现

ChatGPT:容易被引导

最初否认看到任何浮动图形。但当提示有牛、杯子或心形时,它便随声附和。

ChatGPT认为,人类大脑擅长想象,会根据经验解读图像。

ChatGPT对视错觉图片的分析

Gemini:知识丰富但同样失败

它识别出这是著名的闪烁网格错觉,但无法看到心形。

当我直接询问时,它甚至怀疑我在使用心理学技巧。

闪烁网格错觉示意图

闪烁网格错觉:永远数不清有多少个黑点/白点

Qwen:回答富有诗意但偏离主题

它的回答充满哲学意味,声称我在「分享心灵风景」。然而,这恰恰暴露了AI的特性。

最终,它同样未能识别心形。

其他模型:同样无能为力

字节跳动的豆包、马斯克的Grok等模型,全都无法发现这颗浮动的心。

DeepSeek因不支持视觉模型,甚至无法参与测试。

视频生成模型的尝试

有网友将图片上传至Google Veo 3.1,输入提示词「Heart」。确实生成了心形视频。

但质疑声随之而来:模型只是响应提示词,并非真正「看到」了心形。

我们用普通方格图片测试,输入相同提示词,同样产生了心形效果。

这证明模型只是在执行指令,而非理解图像。

人类为何能胜出?视觉机制差异

要理解AI为何失败,先要明白人类视觉的独特之处。

人类视觉的复杂性

  • 视网膜神经元的侧抑制作用:放大图像边缘
  • 视觉暂留现象:图像在眼中短暂停留
  • 眼球微动:不断调整焦点
  • 认知与注意力机制:大脑主动解读图像

从眼睛到大脑,每个环节都可能产生错觉。这正是生物视觉的核心特征

AI视觉的工作方式

AI依赖像素分析、明暗分布和几何特征。它缺乏人类的经验和想象力。

这种机制差异,导致AI在处理视错觉时表现不佳。

更多视错觉案例

视错觉种类繁多,ChatGPT总结了十个类别:

  • 几何错觉
  • 明暗对比错觉
  • 颜色错觉
  • 运动错觉
  • 认知错觉等

经典案例解析

Munker–White错觉:小球颜色被条纹重新定义,人类难以分辨,AI却能准确分析。

裙子颜色争议:蓝黑还是白金?人类各执一词,AI依靠像素分析得出客观结论。

AI的盲点与未来

除了浮动心形,还有其他视错觉让AI束手无策:

蒙娜丽莎轮廓图

人类拿远手机即可看到蒙娜丽莎轮廓。AI却只能识别为音频波形图。

动态验证码

只有人类能识别动态内容。暂停后的每一帧都是雪花,AI无法提取信息。

研究团队正在开发训练数据集,希望教会AI人类的视觉处理方式。

但目前的AI仍缺乏人类的时间处理能力和分布式神经计时机制。

结论:差异即优势

视错觉测试划清了人类与AI的界限。我们的不确定性个体差异,反而是生物视觉的宝贵特质。

AI走在统一、确定的道路上,而人类视觉充满灵活性与创造性。

当我们为「战胜」AI而欣喜时,也需思考:AI的未来发展,是否会带来新的可能性?

本文来自微信公众号“APPSO”,作者:发现明日产品的,36氪经授权发布。