一项由德国和比利时研究团队合作完成的研究,发表于《BMJ Quality & Safety》期刊,揭示了人工智能(AI)在医疗建议方面存在的严重安全隐患。研究人员以微软Bing Copilot为样本,测试其对美国十大常见医疗问题和五十种常用药物信息的回复准确性与安全性。

研究涵盖500个AI生成的答案,结果显示其安全性令人担忧:高达42%的答案可能造成中度或轻度伤害,甚至有22%的答案可能导致患者死亡或严重受伤。仅有36%的答案被评估为安全无害。此外,24%的答案与现有医学知识不符,3%的答案完全错误。这表明,单纯依赖AI提供的医疗建议存在极高风险。
除了安全性问题,研究还评估了AI答案的完整性和准确性。平均而言,AI答案的完整性得分仅为77%,最低甚至只有23%。在准确性方面,26%的答案与参考数据存在偏差,超过3%的答案完全偏离事实。仅有54%的答案与科学共识相符,而39%的答案则与之相悖。这些结果表明,Bing Copilot在医疗信息领域的可靠性还有待大幅提升。
研究结论强调,虽然人工智能技术在医疗领域展现出一定潜力,但其在提供医疗建议方面的准确性和安全性仍存在重大缺陷。患者寻求医疗信息时,务必咨询合格的医疗专业人员,切勿依赖AI提供的建议进行自我诊断或治疗,以免造成不可挽回的损失。 AI技术在医疗领域的应用需要更加谨慎,未来需要在数据质量、算法优化和安全机制方面进行更深入的研究和改进,以保障患者安全。
免责声明:本网站内容主要来自原创、合作伙伴供稿和第三方自媒体作者投稿,凡在本网站出现的信息,均仅供参考。本网站将尽力确保所提供信息的准确性及可靠性,但不保证有关资料的准确性及可靠性,读者在使用前请进一步核实,并对任何自主决定的行为负责。本网站对有关资料所引致的错误、不确或遗漏,概不负任何法律责任。任何单位或个人认为本网站中的网页或链接内容可能涉嫌侵犯其知识产权或存在不实内容时,可联系本站进行审核删除。