◎ 劉汶渝

2023年11月,英國於第二次世界大戰期間英國政府解讀軍事密碼之主要基地——布萊切利園(Bletchley Park),此一富有歷史象徵意義之地點舉辦第一屆人工智慧安全高峰會(AI Safety Summit);當時密碼分析學家所面臨之難題與現今人類面臨人工智慧對全球安全、道德所帶來之挑戰有相呼應之處,而均是在同一塊土地上期望以人類共同集體合作以解決難題。其中一大亮點即為與會之28個國家與歐盟(European Union)共同簽署《布萊切利宣言》(Bletchley Declaration)——第一個旨在促進人工智慧安全之全球性合作宣言。宣言中明言AI之雙面刃性質、對人類社會之潛在風險、全球合作之共識與對於前沿AI安全性及研究之國際合作等,以下將宣言中提及之內容分別歸類為三大主軸。
一、肯認人工智慧之雙面刃性質
《布萊切利宣言》肯認人工智慧(Artificial Intelligence)有增加全人類福祉之潛力,且AI應在以人類為中心、值得信賴和負責任的方式下被使用、開發、設計。人工智慧安全高峰會之與會成員均樂見國際社會迄今在AI領域共同合作之努力,並以之促進經濟成長、永續開發與創新、保護人權與基本自由,且強化公眾對於AI系統之信任與信心以充分發揮其潛力。
宣言中提及AI系統已運用在日常生活中之眾多領域,其運用之範圍可能會持續增加。在此前提下,與會各成員亦認知到採取行動以確認AI安全發展之必要性,與AI所帶來的改革性應用應於使用在造福所有人類上。除了AI帶來的許多機會外,宣言中亦提及AI在日常生活領域中帶來的重大風險。這些風險,需要相關國際上共同努力以審查、解決AI系統之潛在影響;再者,亦須同時確保人權之保護、AI之透明度與可解釋性(transparency and explainability)、公平性、問責性、規範、安全性、適當地人類監控、倫理道德、減少偏見、隱私與資料保護等。不僅上述所列之風險,各國亦注意到AI系統得受操縱而產出內容或自行產生欺騙性內容之不可預見風險。
二、人工智慧急需解決之急迫風險——以「前沿AI(frontier AI)」為焦點
前述之種種疑慮與風險至關重要且亟需解決。但在上述風險中,最為急迫的安全性風險為前沿AI(frontier AI)可能帶來之風險。多功能、高效用之生成型前沿AI,亦因其強大功能未被人類所完全理解而潛藏許多難以預測之風險。各國最為擔心者,莫過於網路安全、生物技術(biotechnology)與其他可能因前沿AI而放大風險之領域(如:虛假資訊)。考量AI發展、轉變之迅速與不確定性,與各國對於科技逐漸加速投入下,《布萊切利宣言》特別強調加深對於各風險之理解並解決各潛在風險之格外必要、緊急性。
三、提倡國際間合作
《布萊切利宣言》亦考量許多AI帶來之風險本質上即具國際性質,因而最佳解決辦法即係「國際合作」,並以國際合作確保AI的以人類為中心、值得信賴、負責任性,提倡以合作解決、應對AI帶來之廣泛風險。各國亦應考慮採取支持創新(pro-innovation)與合比例地治理、監管手段之重要性,如依各國國情對AI進行分級、分類管制與法規管制。宣言中強調國家、國際論壇、私人企業、民間組織與學術界應共同合作以確保AI之安全性,尤其是國際間針對前沿AI安全性之科學研究網絡,無論多邊或雙邊合作;而國際間合作不應僅以國家為主體,更應努力使更多相關組織夥伴參與,並盡力幫助開發中國家強化其AI能力,以此強化永續發展同時縮小國家間發展差距。而具有開發前沿AI能力者,對於確保該AI系統中之安全性負特別重大之責任,宣言中並鼓勵各相關行為人提供其衡量、監控、減輕潛在有害風險之計畫,與可能浮現的相關效應、其他放大之風險。
近期無論是美國總統拜登於2023年10月30日簽署首個AI行政命令(Safe, Secure, and Trustworthy Artificial Intelligence),亦或七大工業國組織(G7)於同日發布非強制性的《企業人工智慧行為準則》,均可見各國以及國際組織監管人工智慧安全之迫切。綜合《布萊切利宣言》上述各點以觀,本宣言立意良善並以積極解決人工智慧安全風險為主軸,但也不乏些許不足之處:如何將宣言實質轉化為有效之規範,避免此宣言僅為象徵性的宣示、各國角力之戰場;如何讓國家與國際間願意讓科學家、民間團體參與AI法規、管制規定之制定;以及國家間是否應讓步釋出權力而成立一獨立的非政府組織以測試、試驗AI模型等,均有待未來各國家於簽署本宣言後如何實質執行、合作發展。
參考資料
- 《布萊切利宣言》(Bletchley Declaration),2023 https://www.gov.uk/government/publications/ai-safety-summit-2023-the-bletchley-declaration/the-bletchley-declaration-by-countries-attending-the-ai-safety-summit-1-2-november-2023
- 透明度與可解釋性(transparency and explainability),可參考OECD AI Principle 1.3 https://oecd.ai/en/dashboards/ai-principles/P7
- Executive Order on Safe, Secure, and Trustworthy Artificial Intelligence https://www.whitehouse.gov/briefing-room/statements-releases/2023/10/30/fact-sheet-president-biden-issues-executive-order-on-safe-secure-and-trustworthy-artificial-intelligence/
- G7 Leaders’ Statement on the Hiroshima AI Process https://www.mofa.go.jp/ecm/ec/page5e_000076.html
- Hiroshima Process International Code of Conduct for Organizations Developing Advanced AI Systems
https://www.mofa.go.jp/files/100573473.pdf