台灣國家科學及技術委員會(NSTC)於 7 月提出人工智慧基本法草案,象徵著重大的一步,代表政府承諾擁抱人工智慧(AI)的潛力,同時確保其發展符合全球標準和道德考量。
人工智慧基本法的核心是在促進 AI 發展和風險管理之間取得平衡。這種做法反映出台灣有意將自身打造成 AI 創新領域的領導者,同時不因過度監管而扼殺創造力或給企業帶來沉重負擔。台灣美國商會讚揚政府周全的做法,特別是對公私協力夥伴關係和國際合作的重視,這兩者對於符合全球 AI 格局至關重要。
然而,該法案在某些領域較為模糊且籠統,可能阻礙其效力,因而引發擔憂。其中一個最受批評之處是該法案對 AI 的定義模糊。台灣的立法草案未能明確定義什麼是人工智慧,導致企業不解自身適用哪些法規。《歐盟人工智慧法案》(EU AI Act)制定過程中也曾有類似疑慮。這種模糊性對於「用戶端」,也就是沒有直接參與 AI 的開發,但在營運中使用 AI 者,尤其成問題。
以目前的形式而言,相較於部署和使用,該法案更注重監管 AI 的開發。雖然對 AI 開發者的問責很重要,但如果未能顧及使用者的責任,就會形成缺口,無法妥善在從研究和開發到實施和使用的整個 AI 生命週期確保 AI 值得信任。這樣的缺口令人質疑該法案能否有效推動各產業以負責任的方式使用 AI。
此外,立法需要針對應監管哪些類型的演算法提供更多指引,否則企業會對於法遵要求感到不確定。這種模糊性可能會扼殺創新,因為企業可能因擔憂法遵風險和潛在罰則而猶豫是否投資 AI 研發。
利害關係人提出的另一個擔憂是該法案的零碎性質。批評者認為,該草案缺乏針對台灣特定需求和情況的有條理的策略。該法案並未著重台灣 AI 生態系內的具體挑戰和機會,而是採取了一體適用的模式,可能不適合台灣獨特的技術和經濟格局。
美國商會委員會提出了幾項建議來解決這些缺口。重要建議之一是在該法案提交行政院之前舉行公開聽證會。這樣的聽證會將有助於從各種利害關係人獲得更廣泛的意見,讓立法過程能採納最新技術發展和產業見解等相關資訊。
另一項重要建議是採用以原則為基準、以風險為基準的法規架構。《人工智慧基本法》不應強加規定性規則,而應該提供靈活的、高階的指導方針,應可隨 AI 技術的發展進行調整。這種方法將有助於防止過度監管,同時允許企業自由創新,也確保對高風險 AI 應用的問責。
此外,為了避免政府機構之間的不一致,並確保監管方法更有條理,美國商會建議指定國家科學及技術委員會作為 AI 監管的主要協調機構。
藉由採納利害關係人的回饋、採用靈活且以風險為基準的方法,並明確定義 AI 以及開發者和使用者的責任,方可確保台灣新的 AI 法案促進創新和信任。