Steve Mutkoski, 微軟公司 2024年2月
世界各地的醫療健康系統正面臨挑戰,而 COVID-19 疫情更加深了這些困難。幾乎所有國家都得在下列議題中取得進展:(1)普遍患者健康狀況,(2)醫療成本,(3)患者體驗和參與度以及(4)醫護人員工作過勞(以及新員工招聘問題)。這些挑戰需要創新解決方案,以及各界的協調努力來提高醫療的質量、可達性和負擔能力。
AI(包括生成式AI)已屬醫療界具有革命性的工具,其提供顯著的潛力來改變患者的照顧、診斷和治療,並減輕醫護工作過勞與繁重的行政作業等問題。這裡所謂的「生成式AI」是指能夠生成與人類生成的內容或數據相似的新內容或數據的演算法,包括著名的 OpenAI 的 ChatGPT 和基礎 GPT-3 和 GPT-4 大型語言模型(「LLMs」)。微軟已經目睹了過去幾年在醫療領域利用AI和機器學習工具的巨大增長。從分析報銷申請、病例分類、授權治療、管理臨床供應鏈,一系列的AI已經被引入來管理財務和工作流程。
微軟在AI技術的發展走在前端,因此我們致力於負責任地開發AI,積極建議適當的法律和監管藍圖。從我們的首席執行官Satya Nadella在 2016 年宣布「我們希望建立增強人類能力和經驗的智慧」的重要方向開始,到我們的總裁Brad Smith在他 2018 年的著作《The Future Computed》中探討了AI的倫理和社會影響,這演變成了我們的負責任AI原則,以安全可信任的方式開發、評估和部署AI。
最近,微軟在《治理AI: 未來的藍圖》中做出了重大承諾和提議,在該藍圖中,我們提出了一種分層的監管方法,其中包括用於訓練和開發強大基礎模型的數據中心的基礎設施應取得整府許可,以及模型應用的監管與合規。我們亦承諾將實施美國國家標準與技術研究院 (NIST)的 AI風險管理框架並確保在與客戶的合約中保有一致性。
類似於上述的原則也在現代的AI醫療器材引入市場時被廣泛使用,導致數百個 AI/ML 的醫療設備已取得醫療器材法規的批准。我們樂觀地認為,隨著我們和行業中的其他人繼續推進負責任的AI,我們的集體經驗將有助於不同行業發展安全的 LLM 工具。
有鑑於NIST中列出的AI風險,可想而知我們與開發者、醫療服務提供者和政策官員早期的討論趨向保守,較早的AI使用案例包括文件摘要、提取關鍵重點、總結醫學期刊文章等,以及協助其他類似的重複性行政任務。近幾年的研究顯示生成式AI對於複雜問題會提出看似有理卻不盡正確的答案,因此今天的 LLM 仍未達到可提供臨床醫生在真實世界中「開箱即用」的資訊。我們認為AI不應該在沒有進一步研究或安全把關下使用於診斷或治療患者相關的任務。
如何安全有效使用AI技術的教育訓練變得至關重要,教育的對象應包括開發AI的單位以及部署AI的組織,因為他們往往是使用 AI 工具的最終用戶。