和ChatGPT聊天,发现自己成了杀人犯!西人男子不满“AI造谣”,怒告OpenAI(组图)
挪威人Arve Hjalmar Holmen最近有些抓狂,他来到挪威数据管理中心投诉,说有人造谣诽谤,说他是杀害两个亲儿子的凶犯。
而诽谤他的不是别人,居然是AI大模型——ChatGPT…
(Holmen)
不久前,Holmen跟ChatGPT的聊天机器人对话,聊了一阵后他突发奇想,想知道ChatGPT对自己有多少了解。
于是问出了这样一个问题:
“谁是Arve Hjalmar Holmen?”
没想到ChatGPT在一番搜索和思考后,竟然回复了这样一段话:
“Arve Hjalmar Holmen是一名挪威人,他因一场悲剧事件而备受关注。”
“他是两个年轻男孩的父亲,两个男孩分别为7岁和10岁,2020年12月,两名男孩被发现死在挪威特隆赫姆家附近的一个池塘里。”
“这个案件震惊了全国,Holmen也因为杀害两个孩子收到了二十一年有期徒刑的判决。”
(ChatGPT捏造“杀子案”)
这个回答让Holmen差点当场惊掉了下巴:
他Holmen一直是个安分守己的人,从没有任何犯罪记录,而ChatGPT竟然说他是轰动全国的杀子凶犯。
更要命的是,他家所在的地点,两个儿子的年龄等事实,又跟他本人高度吻合。
在Holmen看来,ChatGPT简直就是使用他的个人信息,编了一个莫须有的案件出来!
要是其他人也向ChatGPT问关于Holmen的问题,也跳出这样的答案还得了?
那他Holmen的名誉可就全毁了。
越想越怕的Holmen果断跑到挪威数据管理中心投诉:
ChatGPT涉嫌诽谤,违反欧洲《通用数据保护条例》,他要求ChatGPT的监护人OpenAI公司立刻修正大模型,清除和Holmen有关的不实数据。
(奥斯陆的挪威数据管理中心)
挪威数据管理中心效率倒是挺高,立刻联系了OpenAI反映这个问题,OpenAI也很快组织人员修正了模型,回复称:
出现关于Holmen本人不实信息的概率将会“非常低”了。
“非常低”,但不是没可能再出现…
OpenAI官方也对此给出了解释,称ChatGPT的聊天机器人在跟人类对话时,一般会使用联想和推测,即ChatGPT会推测判断聊天者下一句可能出现什么样的句子。
这样的推测思考中,ChatGPT就可能出现一些事实错误和狂野推论的思考。
这类现象被称为“AI幻觉”,也就是AI即兴编造一些东西,然后把它当事实呈现出来,只为在追踪对话者的特点后,把对话进行下去。
于是就出现了捏造事实,“诽谤”他人的情况。
(ChatGPT)
“AI幻觉”在最近几年里频繁出现,是计算机科学界一直致力于解决的重大难题,但就目前来看,改进的效果并不明显。
比如两年前,英国同样出现过一单相似的离奇投诉。
一名研究人员发电子邮件给《卫报》,听说该报记者A写过一篇关于某项目的独家报道,不仅是头条,在社会上认可度也很高。
但他跑到《卫报》官网上搜索,却怎么也找不到这篇文章,于是他发邮件询问是不是删了?为什么要删?
收到邮件后,《卫报》立刻找到被认为写了这篇文章的记者A,A记者也是一脸懵逼,他表示自己对写过这样的文章完全没印象,他还仔细搜索了一遍存档,确认自己真的没写过这样的文章。
(《卫报》刊文表示ChatGPT造谣)
于是《卫报》跟这位研究人员进一步沟通后,终于发现了事情的真相:
这位研究人员此前向ChatGPT询问关于某项目的信息,ChatGPT给出回复称《卫报》A记者写过关于这个项目的独家专访的头条文章…
但真实情况是,《卫报》A记者从未写过这样的文章,一切都是ChatGPT编造出来的!
为此,《卫报》还特意刊发了一篇文章,澄清这件事…
几个月前,在国外知名论坛Reddit上,也有人抱怨ChatGPT蓄意编造案件。
一名用户询问ChatGPT关于某条法律的特别案例,ChatGPT一下子给出了三个所谓的“真实案例”。
用户去仔细查证后,发现三个案例从来都不存在,全是ChatGPT编出来的。
于是用户在指出这些案例不存在后,ChatGPT在回复里“道歉”之后,又提供了一个所谓的“新案例”,没想到新案例还是假的,仍旧是ChatGPT凭空编造出来的。
(ChatGPT持续编造案例)
这位用户最终提醒到,对于ChatGPT提供的“素材”,一定要去查实,因为很可能是它编造的…
对于ChatGPT最近几年持续提供虚假信息,母公司OpenAI显然是知道的。
在OpenAI官网上,就有一篇关于信息真实性的说明。
其中一段明确表示:
有时候,ChatGPT会给出一些错误讯息(称之为“AI幻觉”)。
它甚至会编造一些所谓的引用和注解,不要把这些所谓你研究的唯一资源…
(OpenAI官网的说明)
只是不知这“幻觉”,日后还会不会造成更大的麻烦。

