聊天机器人难以识别假视频,OpenAI 自家工具也被蒙蔽
2026年1月26日 09:38·AIBase
近日,媒体分析公司 Newsguard 发布的一项研究揭露了当前人工智能领域的一个尴尬现状:尽管 AI 视频生成技术日新月异,但主流 AI 聊天机器人却几乎无法识别这些“深度伪造”内容,甚至连开发者自家的工具也难以幸免。
研究显示,在面对由 OpenAI 视频生成模型
更令人担忧的是,现有的技术防护手段正形同虚设。虽然
针对这一问题,OpenAI 方面坦言,

2026年1月26日 09:38·AIBase
近日,媒体分析公司 Newsguard 发布的一项研究揭露了当前人工智能领域的一个尴尬现状:尽管 AI 视频生成技术日新月异,但主流 AI 聊天机器人却几乎无法识别这些“深度伪造”内容,甚至连开发者自家的工具也难以幸免。
研究显示,在面对由 OpenAI 视频生成模型
更令人担忧的是,现有的技术防护手段正形同虚设。虽然
针对这一问题,OpenAI 方面坦言,
查看更多
一项测试显示,主流AI聊天机器人在辨别伪造视频内容方面存在困难,其中ChatGPT对其自家Sora生成的视频内容识别准确率不足8%,突显了AI在内容安全与真实性验证领域面临的挑战。
美国加州提出一项法案,旨在禁止在儿童玩具中内置AI聊天机器人,以防止对未成年人可能产生的隐私泄露、不当互动等潜在风险,加强儿童数据与身心安全的保护。
微软AI CEO苏莱曼认为,AI聊天机器人可以作为人类情绪宣泄和自我排毒的有力工具,强调了AI在辅助心理健康方面的潜在应用价值。
据报道,因聊天机器人可能对青少年心理健康产生负面影响,导致自杀自残事件,谷歌和Character.AI公司正与相关受害家庭进行和解协商。此事引发了关于人工智能应用安全与伦理的广泛讨论。
印度尼西亚政府因担心其生成色情内容,在全球范围内首次对埃隆·马斯克旗下xAI公司开发的聊天机器人Grok实施了临时屏蔽。此举凸显了生成式人工智能在内容安全方面面临的监管挑战。
OpenAI旗下AI聊天机器人ChatGPT今日突发服务故障,目前官方已紧急完成修复。此次事件凸显了AI服务稳定性的重要性。