醫療對負責任 AI 接受度提高?合作、透明與信任是關鍵

0

生成式 AI(GenAI)普遍運用的情況下,可能的風險就會浮現,如何兼顧發展、多樣化,同時又具統一的品質與框架是全球當前面對的挑戰。醫療層面直接與人的健康安全相關,因此相關應用需格外謹慎。本篇彙整一些具指標性的國際政策、公司與大型語言模型所依循之政策,凝聚負責任 AI 關注重點。

人工智慧驅動的藥物發現與治療優化突破(基因線上國際版)

7 成醫療人員對 AI 接受度提高,然病人卻持不同態度

國際資訊服務公司 Wolters Kluwer 調查指出,美國醫師對GenAI 正逐漸提高,40% 醫生準備與病人互動時使用 GenAI 工具;近 70% 受訪者表示過去一年中,對 GenAI 的看法更加樂觀。81% 醫師認為 GenAI 可使醫病合作更加順暢。

在提升時間效率方面,超過一半(59%)受訪者認為 GenAI 可為他們節省 20% 以上的時間,主因是具有總結電子健康記錄(EHR)中病人數據與簡化文獻搜尋等功能。

儘管如此,醫事人員與病人的解讀確有所不同。在對 GenAI 信心方面,三分之二醫師認為病人信任 GenAI 臨床決策,然而只有一半病人對此具有信心。此外,只有 20% 醫師認為病人會擔心 GenAI 參與診斷,而事實上 80% 的病人皆對此感到擔憂。

信任、合作是關鍵

在信任方面,飛利浦首席創新和策略長 Shez Partovi 表示,只有當使用者信任 AI,後續的應用才能真正落實品質。他指出其中一個關鍵是模型可解釋性。可詮釋 AI(Explainable Artificial Intelligence,XAI)可讓使用者知道資料來源,提供查證的管道。再來也須具備透明度與因果解釋性,使用者可理解模型行為,必要時可進行調整。

在 3 月舉辦「醫療資訊與管理系統社群(HIMSS24)」,多位專家共商合作重要性,健康人工智慧聯盟(Coalition for Health AI,CHAI)執行長布萊恩安德森(Brian Anderson)表示,目前醫療產業對負責任 AI 缺乏共同定義,因此有必要將這些框架擺上檯面,共同討論如何衡量模型準確性、評估偏差與訓練資料品質。

先從低風險高效益的應用推行,建立合適指南

俗話說:「低果子先採(Low-Hanging Fruit)」,Google 雲端醫療保健策略與解決方案全球總監 Aashima Gupta 指出,目前模型還有許多不穩定因素,可先使用不會造成過大風險的應用進行測試,例如幫助臨床醫生搜尋醫學研究等。

超過三分之一(37%)的人表示,其組織目前沒有關於使用 GenAI 的指南,而近一半(46%)的人甚至表示他們不知道任何指南。而近 90% 的醫生表示,如果供應商提供有關資料來源明確資訊,他們將更可能使用 GenAI。

整理製表:基因線上
註:名詞上的分類有時具有重疊與模糊性,沒有標記也不代表完全沒有。
延伸閱讀:默克慶祝在台 35 周年:聚焦 AI 跨域整合、mRNA、精準醫療與環境永續

參考資料:
1. https://ai.google/responsibility/principles/

2. https://learn.microsoft.com/zh-tw/azure/machine-learning/concept-responsible-ai?view=azureml-api-2

3. https://www.ibm.com/impact/ai-ethics

4. https://hitconsultant.net/2024/04/16/us-physicians-embracing-generative-ai-for-patient-care-but-transparency-is-key/

5. https://aiin.healthcare/topics/artificial-intelligence/physicians-are-embracing-clinical-genai-theory-least

6. https://ca.news.yahoo.com/ready-biotechnology-chatgpt-moment-202041514.html

7. Arrieta, A. B. et al. Explainable Artificial Intelligence (XAI): Concepts, Taxonomies, Opportunities and Challenges toward Responsible AI.

©www.geneonline.news. All rights reserved. 基因線上版權所有 未經授權不得轉載。合作請聯繫:[email protected]

Share.
error: 注意: 右鍵複製內容已停用!