AI Governance
公眾參與可以如何讓人工智慧變得更好?vTaiwan 的經驗
人工智慧如同其他科技,在帶來變革的同時,亦具有相對應的風險。對於人工智慧的相關風險應該如何預防與治理,隸屬於美國商務部旗下的國家標準暨技術研究院(National Institute of Standard and Technology,NIST)在 2023 年發布的人工智慧風險管理框架(Artificial Intelligence Risk Management Framework)認為,第一步是以治理(Govern)的方式,制定政策、程序與因應人工智慧風險的組織文化[1]。其報告亦提及治理必須結合技術發展與組織價值與準則[2],例如對於政府這樣的組織而言,如何平衡科技發展與保障人權?對於企業而言,如何在增強模型效能的同時降低資料濫用與侵害。
為了達到前述目標,制定有效的風險管理政策,相關討論往往涉及到不同群體的權利與價值觀。這些權利與價值觀往往會出現衝突,甚至需要優先排序,而這裡就是公眾參與機制可以幫上忙的地方:幫助人工智慧的開發者與應用者,透過公眾的討論,了解相關的衝突有哪些,並透過討論找出可能的解方,進而避免風險的發生,例如本文即將介紹的 vTaiwan,就是公眾參與機制可以發揮力量的的範例。
本文將介紹由公私協力轉向社群導向的開源公眾參與專案 vTaiwan ,以及該專案在 2023 年執行 向OpenAI 「Democratic Input to AI」計畫提案的相關成果,來顯示人工智慧發展的進程中,公眾參與確實有其必要 公民所建立的公眾參與機制,的確也有能力收集有意義且至關重要的公眾意見給人工智慧開發者進行參考。
vTaiwan 介紹
vTaiwan是發源自台灣的公民科技專案,其緣起是在太陽花運動後,當時政府希望透過與民間社群合作,建立有效的公眾參與機制,也因此來到 g0v 零時政府提案。由政府提供相關資源研究議題,社群參與者則協助建立數位基礎建設與網站,並組織討論。vTaiwan 在成立之後,協助進行超過 20 項的法案審議,其中最具知名度的就是自用車載客平台 Uber 的相關規範調適。
vTaiwan倡導以人為本的公眾參與,利用多元的數位工具,連結不同的利害關係人。其機制共有四個階段,分別為提案階段、意見徵集階段、審議階段與實踐階段。在提案階段,vTaiwan社群會將議題聚焦,找出利害關係人。在意見徵集階段,會向公眾徵集意見,並找出大家共識最高與分歧程度最大的意見。在過往審議政府法規的過程中,也會請政府機關回應,亦會準備相關的資訊整理,以利審議階段使用。在審議階段中,社群會邀請利害關係人前來,就分歧程度最大的意見進行討論,以形塑共識為目標。在最後的實踐階段,則是會將討論的內容整理與分析,並將形塑出的初步共識以法規草案或成果報告的形式釋出。
在進行上述的討論時,vTaiwan 機制有可以連結不同的數位工具的彈性,也因此 vTaiwan也能作為不同數位工具的討論與實踐場域。在近期進行的審議與意見徵集活動中,vTaiwan社群成員亦嘗試運用生成式人工智慧來紀錄逐字稿、為意見分群與分析。
儘管具有實際成果與創新,然而在 2019 年後,vTaiwan 社群亦面臨社群成員流失、政府選擇其他機制進行公眾參與等問題,加上疫情衝擊,活動逐漸停擺,社群需要轉型。好在由於vTaiwan本身的專案資料開源,有意承接的社群貢獻者得以重啟vTaiwan專案。 2023 年,vTaiwan 重啟,轉型成以社群為基礎(community -based)的專案,由vTaiwan社群貢獻者發起,積極投入各種嘗試,包含重建與政府的連結。其中一個嘗試便是將公眾參與導入人工智慧的開發之中。
為什麼公眾參與對AI 治理是必要的?
人工智慧開發者在開發時,往往聚焦於模型效能與商業模式,因而經常忽略風險管理的重要性,這會對控管人工智慧所帶來的風險產生不利的影響。他們經常會低估人工智慧在開發、部署與應用時,對於不同的利害關係人產生的風險,若能透過有效的公眾參與機制,讓不同的利害關係人得以參與,除了能讓人工智慧模型在開發時更能符合使用者需求,亦能協助人工智慧開發者了解不同族群的疑慮。
同時,公眾參與機制亦有助於讓公眾了解人工智慧的技術與衝擊,有助於降低因為不了解而產生的不信任。對於政府而言,良好的公眾參與機制亦能協助政府評估人工智慧治理所需的制度工具,以及應用人工智慧時要協助克服的挑戰與困難,例如對人民隱私的侵害、或者是針對人民權利受到人工智慧系統侵害時的救濟措施。
vTaiwan 執行AI風險治理相關審議的挑戰與發現
2023 年 5 月,OpenAI 公布「Democratic Input to AI」計畫,宣布將徵集十組團隊投入開發讓人工智慧更加民主的機制。每組獲選團隊將獲得 10 萬美元的贊助。vTaiwan 與英國查塔姆研究所(Chatham House)合作,以「Bridging the Recursive Public」計畫成功入選。
我們提出的「Bridging the Recursive Republic」計畫,希望結合 vTaiwan 的意見徵集與討論機制,建立對於人工智慧政策與風險控管準則的資料庫,提供政府與企業進行參考。考量科技的快速發展,我們希望資料庫可以進行迭代與比較。然而在執行計畫時,我們遇到了以下三個挑戰。這三個挑戰也是政府在未來審議人工智慧的過程中,需要了解的。
首先的挑戰是,如何讓利害關係人充分理解人工智慧的科技以達成有意義的參與,這些利害關係人具有不同的背景,但是許多人不具備電腦科學的知識,如何準備使利害關係人足以參與討論的相關資訊是一大關鍵,例如透過專家分享、準備議題手冊來協助參與者建立背景知識。
另一個挑戰在於如何兼顧意見內容的深度與廣度,若是先向參與者徵集意見,則意見內容往往會參差不齊,然而若是先向專家諮詢,則有可能會提高參與的門檻。如何在程序中平衡這兩者,是進行人工智慧的公眾參與時相當重要的議題。
最後一個挑戰在於如何主持審議。由於人工智慧的相關議題彼此之間往往環環相扣,例如系統性歧視往往是訓練資料的偏差所導致,而訓練資料的利用與取得又會與隱私權相關,在實體審議階段如何有系統的劃分議題,讓大家能聚焦在特定議題充分討論,又不忽略單一議題跟其他議題的關聯,並凝聚共識,就變得十分關鍵。
在本次的意見徵集與審議中, vTaiwan 社群利用 pol.is 工具先進行意見徵集後,再根據意見徵集獲得的意見中挑選分歧程度最高的意見進行實體審議。儘管面臨前述挑戰,在台灣舉辦的意見徵集中,我們仍收集到以下幾項共識,包含 :
一、人工智慧從開發到部署都應該要更高的文化敏感度。
二、 應鼓勵開放原碼的人工智慧,並同時確保各種多元人工智慧模型並存。
三、大家覺得AI的倫理機制訓練過程、原始碼,訓練過程題目需要公開,並讓所有關心AI倫理問題的朋友都可以上網搜尋,了解訓練AI回答倫理問題時的過程。
而在實體的審議過程中,我們也就大家意見最分歧的部分進行討論,亦在個人資料保護與人工智慧模型的在地治理上取得一定成果,包含:
一、 台灣現今的個人資料保護法無法應對人工智慧的衝擊。
二、 人工智慧模型的內容不應由目前主導開發的大型科技公司享有過大的權力。
同時,在招募參與者的過程中,我們也發現利用公眾參與進行人工智慧審議的需求:許多參與者皆認為,能夠讓如 OpenAI 這樣的人工智慧開發者聽見多元利害關係人的意見,是難得的機會;但參與者亦擔心相關的意見與形塑的共識是否能夠真的為開發者所採納。
vTaiwan 使用 pol. 來視覺化參與者的意見分布,例如上圖,討論的主題為:當人工智慧被用在處理與人權、文化差異、當地法律與規範的相關議題時,應該依循什麼準則。
作為籌辦審議活動的參與者,這次的經驗讓我們深刻意識到,審議活動的操作與引導,需要一定的經驗與累積,但是我們也期待,能夠透過這樣的實體審議,創造一個空間讓技術背景與非技術背景的參與者齊聚一堂。在社群夥伴的幫助下,我們成功找到了工程師、性別團體、原住民等不同的族群,甚至有時任的立法委員一起加入討論。
結論:持續的行動與互動
除了以公眾參與讓人工智慧變得更好,我們也利用人工智慧相關工具,如 Talk to the City 來整理逐字稿、進行意見分析與整理,可見人工智慧與公眾參與機制的互動是可以雙向進行的,公眾參與協助人工智慧變得更完善,而人工智慧亦可以協助讓公眾參與的組織者。上述的案例也已經證明形塑民眾對AI 治理的共識是可能的,也可以運用AI 來協助審議的過程。而挑戰則要靠持續的行動加以克服。我們亦希望政府在應用人工智慧等新興科技時,亦能利用公眾參與的方式,提升大眾對於科技的信任,亦能達到風險管理的目標。
雖然vTaiwan目前仍然面臨重建與政府連結的挑戰,但是因為這一次的專案,新的社群得以被重新組織起來。未來,vTaiwan社群希望與關注數位權利及法律、民主審議相關的民間團體與社群專案建立更多的連結,同時也探索將本次專案成果繼續應用的可能性。
*本文作者為 崔家瑋,vTaiwan貢獻者
-
- National Institute of Standard and Technology (Jan, 2023) Artificial Intelligence Risk ManagementFramework, p.21
- National Institute of Standard and Technology (Jan, 2023) Artificial Intelligence Risk ManagementFramework, p.21