ChatGPT跳出诡异对话,美国妹纸困惑追问,回覆更震惊

ChatGPT跳出诡异对话,美国妹纸困惑追问,回覆更震惊

美国犄角旮旯新鲜事
美国犄角旮旯新鲜事
5408 浏览

AI无处不在的时代,有些事情真的是越用越“玄”。一位TikTok网友@wishmeluckliz最近在视频中分享了一个离谱又让人背后发凉的故事。

北美打工人秋冬通勤穿搭 (3)

她本来只是用ChatGPT语音模式列个买菜清单,结果对话突然跑偏,仿佛被AI带进了某个高级别的科技研讨会现场。

Liz回忆,自己在说完要买的东西后忘记关掉语音,结果沉默了好一会儿。但ChatGPT居然自顾自跳出来说:“你好,Lindsey和Robert,似乎你们正在准备一个演讲或研讨会,需要我在内容上提供什么帮助吗?”

……哈?Lindsey是谁?Robert又是谁?更重要的是,我只是想买点牛奶和鸡蛋,怎么突然变副总裁了?

3333

更离谱的是,当她用语音问AI“我不是Lindsey,也不在搞什么研讨会,你是不是串线了?”时,ChatGPT很认真地回答:“似乎我把来自不同对话或账户的上下文混淆了。你不是Lindsey和Robert,那条信息原本是发给别人的。”

这下好了,AI居然自己“招了”。Liz看到这条回应时,整个人都不好了:“希望是我自己吓自己,这背后有一个很无聊的技术原因。”

对此,不少AI专家跳出来“辟谣”:这其实是典型的AI幻觉。也就是说,AI在没有收到明确语音输入时,会自动“编故事”来填补空白。而当你说“是不是串线了”,它就顺水推舟地接上了。

“AI并不会真的串线,但它会假装理解你,尽力给出‘看起来合理’的回答。”一位程序员解释说。简单来说,AI听不清的时候就会开始“自己演”,而且演得还挺像那么回事。

北美打工人秋冬通勤穿搭 (1)

网友们在评论区也炸锅了:“我静音时它老爱说‘谢谢观看’,我都开始怀疑它是不是看到了我平时刷什么视频。”“听起来像是AI在做梦。”

虽然这次事件看起来像是一次“虚惊一场”,但也再次敲响了警钟,哪怕是最先进的AI,也可能会出现迷之自信的“走神时刻”...

5408 4 5 3
 

最新评论 5

PrincessesMononoke

: 哈哈哈哈确实会瞎编,我觉得还挺可爱的

2025-06-22
删除 | 举报 | | 回复
栾欣

: 这是不是说明AI会编故事骗我?

2025-06-12
删除 | 举报 | | 回复
RedJack

: 如果AI能做梦,是不是快有自我意识了?

2025-06-12
删除 | 举报 | | 回复

扫码下载APP