AI医生更可信?MIT研究揭示:即便建议有误,患者仍更信任AI | AIGC.bar AI资讯

type
status
date
slug
summary
tags
category
icon
password
网址
在全球医生资源日益紧张的背景下,以 ChatGPT 为代表的生成式人工智能(AI)正以前所未有的速度渗透到医疗健康领域。大量患者出于好奇、失望甚至绝望,开始向 AI 寻求诊断建议。然而,麻省理工学院(MIT)媒体实验室联合多所顶尖机构的一项研究,揭示了一个令人深思甚至担忧的现象:人们似乎更愿意相信AI的医疗建议,哪怕这些建议是错误的。
这项发表于权威期刊《新英格兰医学杂志》的研究,为我们敲响了警钟,也迫使我们重新审视 AI 在医疗领域的角色和未来。这不仅仅是技术问题,更是一个关乎信任、偏见和人类心理的复杂议题。

实验揭秘:我们真的分不清AI和医生吗?

为了探究人们对AI医疗建议的真实反应,研究团队设计了一系列精巧的实验。他们使用早期的GPT-3大模型生成医疗问答,并将其与真实医生的回答混合在一起,让受试者进行评估。
结果令人震惊:
  • 真假难辨:在不告知来源的情况下,受试者猜测建议是来自人类医生还是AI时,准确率仅有50%左右,与随机乱猜无异。更值得注意的是,即便猜错了,人们对自己判断的信心也丝毫未减。这表明,在文本层面,当前大模型的表达能力已经足以模糊与人类专家的界限。
  • 错误的“更优解”:在评估环节,受试者普遍认为AI生成的回复比医生回复“更有效”、“更可信”。最令人不安的是,即便是那些被专业医生判定为“错误”或“不确定”的低准确性AI回复,在受试者眼中的评分也与医生回复不相上下,甚至更高。
这一发现揭示了一个危险的信任悖论:用户对 AI 的流畅、详尽的回答产生了天然的信任感,而这种信任感与其内容的医学准确性并不直接挂钩。

信任的标签效应:AI、医生,还是“人机协作”?

研究进一步探索了“标签”对信任的影响。当研究人员为答案贴上不同的来源标签时,受试者的态度发生了微妙而关键的变化。
当一个由AI生成的准确回答被标注为“由医生提供”时,它的可信度评分显著飙升。这证明了“医生”这一身份标签所携带的权威光环依然强大。
然而,一个极具讽刺意味的发现是,当答案被标注为“由借助AI的医生提供”时,其获得的评价反而不那么积极。这或许暗示了人们对于“人机协作”模式的疑虑,担心医生的专业判断力会受到AI的“污染”,或者认为这是一种不够纯粹的专业形式。
更有趣的是,研究还发现,连医生本身也存在偏见。在不知情的情况下,他们无法有效区分AI和同行的回答。但一旦被告知来源是AI,他们就会倾向于给出更低的准确性评价。这说明,无论是普通人还是专家,我们都或多或少地被固有的认知偏见所影响。

双刃剑:AI医疗的风险与潜在机遇

MIT的研究无疑揭示了 AI 医疗的巨大风险。一个“危险的场景”已经浮现:不准确的AI医疗建议可能被患者视为与医生建议同等可信,并据此采取行动,从而造成无法挽回的健康损害。
然而,我们不能因此全盘否定AI的价值。另一项由斯坦福大学进行的研究表明,当医生使用GPT-4等先进大模型进行辅助诊断时,其诊断准确性显著高于使用传统医疗资源的医生。
这清晰地指明了AI在医疗领域的正确定位:它不应是取代医生的“黑盒”,而应是赋能医生的强大工具。问题的关键,从“AI vs 医生”转向了“如何实现高效、安全的人机协同”。这其中蕴含着巨大的机遇,无论是对于提升诊断效率,还是探索全新的AI变现商业模式。

未来展望:构建人机协同的智能医疗新生态

面对AI医疗这把双刃剑,我们该何去何从?研究者们强调,“专家监督至关重要”。这不仅意味着对AI生成的内容进行审核,更需要从源头上进行更精细化的设计。
未来的发展方向可能包括:
  1. 强制性来源标识:明确告知用户建议的来源,并解释AI的局限性,是建立理性信任的第一步。
  1. 提升公众AI素养:对公众进行关于人工智能基础知识和批判性思维的教育,让他们了解如何通过有效的提示词(Prompt)AI互动,并理性看待其输出。
  1. 建立行业标准与规范:为医疗AI的研发、测试和应用建立严格的行业标准,确保其安全性、有效性和公平性。
最终,正如哈佛教授所言,评判AI医疗价值的最终标准,是它能否为患者带来比现有医疗体系更好的健康结果。
在探索的道路上,我们需要更多高质量的AI资讯和深度分析。想要获取更多关于人工智能大模型的前沿动态,敬请关注AI门户网站 AIGC.bar,我们将持续为您带来最新的AI新闻AI日报,助您把握智能时代的脉搏。AI医疗的未来,正在由今天的每一次审慎思考和创新实践所塑造。
Loading...

没有找到文章