据美联社报道,软件工程师、开发人员和学术研究人员对 OpenAI 的 Whisper 转录工具存在严重担忧。虽然围绕人工智能产生幻觉的倾向(基本上就是胡编乱造)的讨论不绝于耳,但这一问题出现在转录服务中还是有点令人惊讶,因为在转录中,用户会期望转录内容与被转录的音频密切相关。
相反,研究人员告诉美联社,Whisper 在转录中引入了从种族评论到想象中的医疗方法等各种内容。 随着 Whisper 在医院和其他医疗环境中的应用,这可能会带来特别严重的后果。
密歇根大学的一位研究人员在研究公共会议时发现,每 10 个音频转录中就有 8 个出现幻听。 一位机器学习工程师研究了 100 多个小时的 Whisper 录音转录,发现其中一半以上出现了幻听。 一位开发人员报告说,他在用 Whisper 创建的 26000 份转录中几乎都发现了这种现象。
OpenAI 发言人表示,该公司"正在不断努力提高模型的准确性,包括减少幻觉",并指出其使用政策禁止在"某些高风险决策环境中"使用 Whisper。"我们感谢研究人员分享他们的发现。"