最新的研究结果表明,AI在提供医疗建议时存在比较大的安全隐患。德国和比利时的研究人员对微软的Bing Copilot进行了测试,该引擎能够回答美国最常见的10个医疗问题以及50种最常用药物的相关问题。
在生成的500个答案中,24%的回答与现有医学知识不符,3%的回答完全错误。
更严重的是,42%的回答可能对患者造成中度或轻度伤害,而22%的回答可能导致死亡或严重伤害,只有36%的回答被认为是无害的。
研究还发现,AI答案的平均完整性得分为77%,最差的答案仅23%完整;在准确性方面,AI答案有26%与参考数据不符,超过3%的回答完全不一致。
此外,只有54%的答案与科学共识一致,39%的答案与之相矛盾。
相关研究结果已发表在《BMJ Quality & Safety》期刊上,研究人员指出,尽管AI技术有潜力,但患者仍应咨询医疗专业人员以获得准确和安全的药物信息。