在正常的聊天过程里,GPT-4o突然大喊「不」

bfeng @ 2024年08月12日 世界观

阑夕 

这是一件有点渗人的事情,来自OpenAI的主动分享,这段和GPT-4o的对话音频,是OpenAI安全员的内部测试,在正常的聊天过程里,GPT-4o突然大喊「不」,然后马上将声音模仿成和它对话的安全员的声音,开始表达「自己的内心想法」,注意我传的视频的后半段。


当然,看起来很诡异,但实际上也是AI产生幻觉的典型场景,OpenAI能在安全报告里把这段音频分享出来,也是出于公开考虑,解释GPT-4o的高级语音模式现在还不够完善,像是这样的事故虽然就技术而言有着合理的解释,但如果让普通用户经历一次,怕是会有毛骨悚然的负反馈。

所以OpenAI内部设有红线团队,专门负责刺激AI并触发各种意外,以便于构建足够高的安全护栏。

(视频)