生成式 AI(GenAI)普遍运用的情况下,可能的风险就会浮现,如何兼顾发展、多样化,同时又具统一的品质与框架是全球当前面对的挑战。医疗层面直接与人的健康安全相关,因此相关应用需格外谨慎。本篇汇整一些具指标性的国际政策、公司与大型语言模型所依循之政策,凝聚负责任 AI 关注重点。
人工智能驱动的药物发现与治疗优化突破(基因线上国际版)7 成医疗人员对 AI 接受度提高,然病人却持不同态度
国际资讯服务公司 Wolters Kluwer 调查指出,美国医师对GenAI 正逐渐提高,40% 医生准备与病人互动时使用 GenAI 工具;近 70% 受访者表示过去一年中,对 GenAI 的看法更加乐观。81% 医师认为 GenAI 可使医病合作更加顺畅。
在提升时间效率方面,超过一半(59%)受访者认为 GenAI 可为他们节省 20% 以上的时间,主因是具有总结电子健康记录(EHR)中病人数据与简化文献搜寻等功能。
尽管如此,医事人员与病人的解读确有所不同。在对 GenAI 信心方面,三分之二医师认为病人信任 GenAI 临床决策,然而只有一半病人对此具有信心。此外,只有 20% 医师认为病人会担心 GenAI 参与诊断,而事实上 80% 的病人皆对此感到担忧。
信任、合作是关键
在信任方面,飞利浦首席创新和策略长 Shez Partovi 表示,只有当使用者信任 AI,后续的应用才能真正落实品质。他指出其中一个关键是模型可解释性。可诠释 AI(Explainable Artificial Intelligence,XAI)可让使用者知道资料来源,提供查证的管道。再来也须具备透明度与因果解释性,使用者可理解模型行为,必要时可进行调整。
在 3 月举办“医疗资讯与管理系统社群(HIMSS24)”,多位专家共商合作重要性,健康人工智能联盟(Coalition for Health AI,CHAI)执行长布莱恩安德森(Brian Anderson)表示,目前医疗产业对负责任 AI 缺乏共同定义,因此有必要将这些框架摆上台面,共同讨论如何衡量模型准确性、评估偏差与训练资料品质。
先从低风险高效益的应用推行,建立合适指南
俗话说:“低果子先采(Low-Hanging Fruit)”,Google 云端医疗保健策略与解决方案全球总监 Aashima Gupta 指出,目前模型还有许多不稳定因素,可先使用不会造成过大风险的应用进行测试,例如帮助临床医生搜寻医学研究等。
超过三分之一(37%)的人表示,其组织目前没有关于使用 GenAI 的指南,而近一半(46%)的人甚至表示他们不知道任何指南。而近 90% 的医生表示,如果供应商提供有关资料来源明确资讯,他们将更可能使用 GenAI。
延伸阅读:默克庆祝在台 35 周年:聚焦 AI 跨域整合、mRNA、精准医疗与环境永续参考资料:
1. https://ai.google/responsibility/principles/
2. https://learn.microsoft.com/zh-tw/azure/machine-learning/concept-responsible-ai?view=azureml-api-2
3. https://www.ibm.com/impact/ai-ethics
6. https://ca.news.yahoo.com/ready-biotechnology-chatgpt-moment-202041514.html
7. Arrieta, A. B. et al. Explainable Artificial Intelligence (XAI): Concepts, Taxonomies, Opportunities and Challenges toward Responsible AI.
©www.geneonline.news. All rights reserved. 基因线上版权所有 未经授权不得转载。合作请联系:service@geneonlineasia.com