撰文/尤麗雅、林安德
台灣推出《人工智慧基本法》草案,致力於成為人工智慧道德治理的全球領頭羊,但創新與監管能否兩全,仍舊存在問號。
隨著人工智慧(AI)技術日新月異,相關的道德、法規與社會考驗隨之而來,各國政府力求因應,全球監管競賽日益白熱化。
2024年5月,歐盟率先推出《人工智慧法案》(AI Act),針對AI系統的風險程度從不可接受到最低進行分級,建立全新的法制框架。該法案亦依照風險屬性設定規範,例如要求高危險AI系統建立透明度與人為監督機制,同時禁止政府從事社會評分(social scoring)等行為。該法案在8月1日正式生效,相關條款將在未來半年到3年陸續落實。
美國亦推動全面性的AI監管。2023年10月,美國總統拜登(Joe Biden)簽署行政命令,要求各聯邦機構推動AI的發展與應用之際,必須符合安全、可靠與負責任的原則,進而提倡市場競爭、保障公民權利、維護科技應用倫理。
相較之下,英國則是採取因產業而異的監管策略,選擇依循現有法規,而非制定統一的法規框架。至於澳洲等國,目前尚在討論現行法規框架是否足以因應錯綜複雜的AI治理。
身為全球最大晶片生產國,且在AI與物聯網(IoT)扮演重量級角色的台灣,同樣在這方面有所進展。2024年7月,台灣國家科學及技術委員會(國科會)提出《人工智慧基本法》草案,為台灣的AI監管工作立下重要里程碑。
然而,自草案公布以來,相關法規的適足性、監督機制,以及與現行法規的相容性等議題,無不引發熱議,因為這些層面影響深廣,最終將決定台灣的AI治理機制是否有利創新、抑或扼殺創新。
在監管與利害關係人參與之間取得平衡
台灣為出口型經濟,因此與國際標準接軌尤其重要。採行全球認可的框架不僅有助於融入國際市場,更能讓合作夥伴與投資人看到台灣推動法規透明化與一致性的決心。
然而,要達到國際接軌仍面臨層層阻礙。該法案旨在成為國家標準,若遇不足之處,可視相關性與必要性遵循其他法規。若無國家標準或相關規範可循,則可參考其他進步國家的標準,並提交「主管機關」核准,但草案對主管機關的定義仍舊模糊。
台灣法規體系若是採納多項國際標準,可能導致框架過於繁複。反觀採取統一標準不僅能提供必要的透明度,又不會疊床架屋,歐盟採取經濟合作暨發展組織(OECD)對「AI系統」的定義,即是正面例子。
各界對於《人工智慧基本法》草案的一大疑慮在於人權保障,特別是個資隱私權方面。台灣人權促進會是台灣歷史最悠久的獨立人權組織,9月時針對法案涉及範圍抱持保留態度,指出法案內容可能抵觸台灣《個人資料保護法》。
《人工智慧基本法》強調政府的平衡角色,除了保障個人隱私權與資訊自主權之外,同時亦促進AI產業的發展,亦即台灣政府在資訊使用規範可能需要保有彈性,以期推動AI進展。反觀個資法嚴格要求機關組織保護個資,在未經同意下限制蒐集與使用個資。對於法案內容的具體批評,大多集中在政府使用AI的情境,例如透過演算法草擬刑事判決與預測再犯風險,卻未完整揭露決策過程。
若與國際科技公司合作AI專案,亦衍生出透明度問題。舉例而言,健保署與Google合作研發一款評估糖尿病風險的AI系統,但台灣人權促進會指出,由於資料來源與處理過程缺乏透明度,該專案引發個資、同意權與潛在偏見的重大疑慮。
風險評估與監督機制仍是未知數。草案參考歐盟依據AI使用風險的規範,判定哪些用途的風險最高,例如執法單位在公共場所使用即時遠端生物特徵識別系統。但根據《人工智慧基本法》草案,數位發展部將負責擬定AI風險框架,規範與監督風險程度較低的用途,卻未明訂該部如何與其他政府機關合作來降低風險。
儘管草案指出AI應用可能加劇社會或經濟孤立,並導致非自願性失業,但在基本人權保障與補償救濟的法規仍嫌不足。草案提出AI應用應「優先考量」弱勢族群,並依照「相關勞動法規」保障勞工,但能否在利用AI時保障隱私、預防歧視與落實問責,讓人打上問號。
國科會為此強調,AI開發商仍須遵守現行法規,包括資料保護、金融或醫療監管等。儘管如此,對於草案框架能否切實因應人權議題,又能否接軌台灣既有法制體系,仍存在模糊地帶。
隨著全球AI態勢持續變動,台灣《人工智慧基本法》必須在創新與監管之間謹慎取得平衡。基本法旨在建立基本原則,同時為科技進展保留必要的彈性空間。部分業界人士建議參考金融科技的「金融監理沙盒」模式,建立AI監理沙盒,在可控環境中測試AI產品、服務與商業模式,協助政府完善AI法規。
草案旨在建立鼓勵AI發展的靈活框架,主要聚焦於降低AI風險,而非採取嚴格禁止措施。然而,台灣美國商會轄下科技相關委員會等利害關係人建議,國科會應擔任主要協調機構,監督行政法規,確保法規一致性,並避免各政府機關的解讀互有衝突。具體而言,打造一個實驗性的環境尤其重要,有利於促進創新與切實管理風險。
國科會在研發創新領域具有專業,符合草案聚焦AI關鍵趨勢的方向,因此特別適合扮演監督角色。有了監督機制,台灣更能鞏固在全球AI產業價值鏈的地位,有助於推動策略性協調,並與國際標準接軌。此外,國科會在深化產學合作與培育AI人才的努力,對於落實《人工智慧基本法》所需的基礎設施更是不可或缺。
AI治理有成之路
台灣的AI監管框架若要兼顧實際面與前瞻性,利害關係人的實質參與必不可少。與產業、學術界、公民社會團體與國際利害關係人持續對話,有助於細部調整監管政策,確保政策能夠掌握科技環境脈動,並加以調整。以如何兼顧道德考量與科技創新為例,可透過公聽會與諮詢會議的方式,蒐集各界寶貴意見。
一家引領全球科技市場的美國商會成員企業強調,利害關係人參與的重要性不言可喻,並指出,台灣若能與貿易協會與產業專家合作,AI治理框架將更能精準反映實務需求與挑戰。
「及早與利害關係人溝通很重要。」該企業表示:「這樣不僅讓各家企業瞭解自身責任,亦能提供意見,協助打造務實有效的法規。」
利害關係人參與亦有助於台灣AI法規接軌國際標準。架構完善的公眾諮詢程序不僅能提升《人工智慧基本法》的品質,更能強化台灣身為科技樞紐的領導地位。
此外,及早就AI法規進行溝通與教育,能夠協助企業瞭解法遵責任,特別是在高風險AI應用的開發。此舉不僅能扶植本土企業,亦可促進台灣成為值得信賴又行動積極的科技樞紐,提升台灣對全球投資人的吸引力。
AI治理要有成效,必須因情況制宜,謹慎區分不同應用面的風險程度。美國商會支持採用符合國際標準的風險框架,例如美國國家標準暨技術研究院(NIST)的AI風險管理框架(Risk Management Framework),或是ISO/IEC 42001國際標準。若能將監管重點放在高風險應用面,同時為低風險應用面保留彈性,台灣的風險框架得以維護公眾福祉,又不妨礙科技進展。
《人工智慧基本法》草案的重大挑戰之一,在於界定AI生態系統中的角色與責任。如何確保AI的應用符合安全與道德,尤其是自主、保密、安全、包容及透明等基本原則,開發商、部署方與終端使用者在其中各扮演不同角色,然而,目前草案針對權責僅有模糊方針,雖然指出政府將防止AI研究單位、開發商或使用者濫用優勢地位,卻未明確說明政府如何、又由哪個政府單位確保落實以人為本的價值。
利害關係人認為,明確劃分角色是不可或缺的一環,例如開發商應負責確保資料隱私與模型準確性,部署方應負責實際應用的透明度與風險管理,終端使用者則必須瞭解AI工具的影響,尤其是遇到牽涉敏感資料或決策過程的情況。
台灣《人工智慧基本法》旨在推動負責任的創新,同時堅守必要監管。草案提出建立靈活有彈性、以原則為依歸的框架,第四條與第五條條文最能體現這點,兩者提供大方向的監管指引,而非嚴格規範。有鑑於AI發展快速,相關法規必須跟上新型應用與技術的腳步,因此保持彈性空間格外重要。美國商會與其他利害關係人認為,相關法規不宜過度規範而抑制成長,建議提供框架,在促進創新的同時設定明確界線,尤其是醫療保健與執法等高風險領域,以期降低風險。
資料安全與跨境資料流通的議題錯綜複雜,亦是《人工智慧基本法》必須面對的重大課題。考量AI發展屬於全球趨勢,加上台灣在國際科技生態系統不可或缺,法案必須針對資料隱私、資料共享與資料在地化的管理,提供明確指引,因為這些議題攸關台灣在AI與相關領域的競爭優勢。
另一家身為全球科技領導大廠的美國商會成員企業指出,草案的AI規範過度側重原產國,引發質疑聲音,包括如何處理國際合作與技術事宜,相關法規又是否會箝制創新。
此外,草案對國家安全影響的著墨有限。草案固然提及網路安全(第十條),但應優先考量與國際標準接軌,以期促進全球無縫合作,同時採用因地制宜的措施,藉此符合台灣的國安需求,並強化因應新型威脅的韌性。
展望未來
台灣《人工智慧基本法》若要成功推展,關鍵在於法案能否一方面充分監管,一方面促進創新。隨著AI對經濟與社會的發展日益重要,建立明確而務實的治理框架刻不容緩。《人工智慧基本法》聚焦於建立靈活彈性、同時重視問責的體系,有助於促進台灣在AI發展扮演領頭羊的角色,不僅鞏固台灣身為硬體大國的地位,更可望成為立法周詳、以人為本的AI治理表率。
然而,台灣要達成這個目標,必須在國內外持續進行對話。與貿易協會、學術界及公民社會團體密切互動將是關鍵,有助於確保台灣AI法規不僅完善,亦能因應快速變遷的科技態勢。在國科會修訂《人工智慧基本法》並送交行政院前,應該及早並持續與利害關係人互動交流,藉此為日後順利推展法案鋪路、避免模糊地帶,確保新法能助攻未來創新。
AI科技顛覆現狀又瞬息萬變,台灣為求監管相關技術,大刀闊斧提出《人工智慧基本法》草案,聚焦於風險監管、問責制度與利害關係人參與,可望為AI治理奠定深厚基礎,實現保障公眾福祉與促進負責任創新的雙重目標。草案在未來幾個月如何演變,將會形塑台灣在全球AI生態系統所扮演的角色,一方面深化台灣的科技領導地位,一方面堅定落實合乎道德、講究透明、又具前瞻性的AI治理。