在 AI 技术中,有一个术语叫“AI幻觉”,由于大型语言模型只能尽力猜测下一个最有可能出现的单词,但并不是实际理解上下文内容,因此它们经常会凭空捏造内容,例如完全不正确的医疗建议或是像是编造的“小常识”。然而,这些虚假信息并非完全无害,实际上你甚至能以此起诉公司。
最近,一位名叫 Arve Hjalmar Holmen 的挪威男子就在与 ChatGPT 交谈时,在输入自己的名字后发现,ChatGPT编造了一个谎言,称他杀死了自己的儿子,并被判处了 21 年监禁。他感到十分震惊,因为自己竟然被 AI 编造了子虚乌有的罪行,而且 ChatGPT 还围绕这个“事实”编造了他“完整的一生”。隐私权倡导组织Noyb 很快介入。该组织告诉媒体 TechCrunch,他们调查了ChatGPT为何会输出这些指控,并检查是否有人犯下了与该名字相似但犯下的严重罪行。最终,他们没有找到任何实质性的证据,因此ChatGPT 输出令人毛骨悚然的指控背后的“原因”仍不清楚。
聊天机器人的底层AI 模型已经更新,现在它不再重复诽谤性指控。然而,Noyb之前曾以ChatGPT 输出有关公众人物的不准确信息为由提出投诉,但并不满足于就此了结。该组织现已向Datatilsynet(挪威数据保护局)提出投诉,理由是ChatGPT 违反了欧盟的《一般数据保护法规》(GDPR)。
根据欧盟法律第5(1)(d) 条,处理个人数据的公司必须确保其准确性——如果不准确,则必须更正或删除。 Noyb 认为,仅仅因为ChatGPT 停止了对Holmen 的污蔑,并不意味着数据已被删除。
目前,Noyb 要求 Datatilsynet 命令 OpenAI 删除有关Holmen 的不准确数据,并确保该公司确保ChatGPT 不会产生关于其他人的恐怖故事。OpenAI目前的做法只是在每个用户会话底部以小字体显示免责声明“ChatGPT可能会犯错。请考虑检查重要信息”。