主要观点总结
本报道关注人工智能(AI)在医疗领域的应用及患者对其的信任度问题。JAMA Network Open发表了一项调查研究,分析了患者对医疗系统使用AI的信任度及其影响因素。研究发现,患者对医疗系统负责任使用AI并保护其免受潜在危害的信任度较低,主要受到系统性信任缺失和歧视经历的影响。此外,该研究还探讨了性别、种族、AI知识和健康素养等因素对信任度的影响。
关键观点总结
关键观点1: 患者对于医疗系统使用AI的信任问题
调研结果显示超半数受访者对医疗系统使用AI持低信任态度,系统性信任缺失和歧视经历是主要原因。
关键观点2: AI在医疗领域的应用及其挑战
AI已应用于医疗领域的诊断、治疗推荐等多个场景,但其快速普及与患者视角的研究脱节。患者对AI的信任不仅关乎技术接受度,更与医疗系统的整体可信度密切相关。AI技术的特殊性可能引入新的信任挑战,如算法偏见、隐私风险等。
关键观点3: 调研方法
该研究采用横断面调查,数据来自美国国家舆论研究中心的概率样本。通过多变量逻辑回归模型,分析AI信任度与系统性信任、医疗歧视经历、AI知识、健康素养和人口学特征等因素之间的关联。
关键观点4: 调研结果
调研结果揭示了信任的核心驱动因素,包括系统性信任和歧视经历。此外,还发现性别和种族差异对信任度的影响。研究还发现,AI知识与健康素养与信任度无显著关联。
关键观点5: 研究意义
患者对医疗系统使用AI的信任度较低,这一发现揭示了AI推广的深层挑战,提示需改善沟通并投资于组织的信任度建设。医疗系统若想推动AI技术落地,必须同步提升组织可信度。
正文
研究采用横断面调查,数据来自2023年6月至7月美国国家舆论研究中心(NORC)的概率样本(2039名成年人),经加权后具有全国代表性。主要评估指标为受访者对医疗系统使用AI的信任度(是否负责任使用AI、是否确保AI无害),采用4点李克特量表测量,并转化为二元变量(信任/不信任)。
研究运用了事后分层调查权重,依据当前人口调查数据生成全国性预估结果。为确保内容的有效性和可访问性,研究还进行了预测试和认知访谈。通过多变量逻辑回归模型,
分析AI信任度与系统信任度、医疗歧视经历
(是否因种族、性别等遭受不公平对待)、
AI知识
(能否正确认知AI的治疗推荐功能)、
健康素养
(是否需要健康信息支持)、
人口学特征
(性别、年龄、种族、收入等)等因素之间的关联。