前沿AI風險下的全球首場AI安全高峰會
  • Post category:News
  • Post author:

◎ 劉汶渝

Photo by Markus Winkler on Unsplash

全球第一個「人工智慧安全高峰會」(AI Safety Summit)於2023年11月1日、2日在英國白金漢郡舉行,共28個國家、46個學術機構與民間團體、多個企業與相關組織與7個多邊國際組織與會。世界強權歐盟、美國、中國等國的參與,最受矚目,凸顯政府間AI角力的逐漸白熱化;而來自美國的OpenAI,亦是各方關切之重點對象。會議中不僅討論各國對於人工智慧管制與投入之方向,各國亦藉此機會提及人工智慧帶來的隱憂與安全考量。而在此會議中,參與的各國也簽署了《布萊切利宣言》(Bletchley Declaration)。以下簡述會議中各國對於AI提出之觀點、隱憂與回應,以及《布萊切利宣言》之要點。

本會議共有五大討論目標,一為對於前沿AI(frontier AI)帶來的風險與採取相對行動之必要性達成共識;二為對於前沿AI安全性的國際合作之前瞻進程,包括如何最佳地支持國際或國內框架;三為各組織應採取適當措施以增加前沿AI之安全性;四為AI安全性研究之潛在合作,包括評估模型能力與開發新準則以幫助監管治理;五為展示如何確保人工智慧的安全開發使之在全球發揮正面效用。

於人工智慧安全高峰會11月1日之圓桌會議中,討論了以下8點:

  1. 前沿AI濫用對於全球安全之風險
  2. 前沿AI難以預測的進步所帶來的風險
  3. 對於前沿AI失去控制之風險
  4. 前沿AI融入社會之風險
  5. 前沿AI開發者應如何負責任地擴展其能力
  6. 國家政策制定者應如何面對人工智慧之風險與機會
  7. 國際組織應如何面對人工智慧之風險與機會
  8. 科學界應如何面對人工智慧之風險與機會

而於11月2日之圓桌會議中,討論了以下2點:

  1. 未來5年(至2028年)國際關注之人工智慧焦點
  2. 為未來之合作制定行動與計畫下一步

前沿AI,依英國政府官方所發表之定義,是指可執行廣泛任務之功能強大的生成式人工智慧模型;於本次會議討論中可知,各國對於前沿AI之期盼與擔憂摻半。在AI安全標準尚未被制定、AI開發者投資風險緩解措施之誘因不足與前沿AI開發市場寡占之擔憂(如歐洲法規訂定者與法國經濟部長所言,美國單一一個國家擁有所有科技、過多資訊、所有私有民營企業、裝置、技術,會對其他國家造成重大威脅)下,與會各國及人工智慧業界之大企業(如:Google, Meta, OpenAI等)均同意應透過合作試驗、研究以確保前沿AI之安全性(Safety testing);身為本會議主辦人之英國亦宣布其已成立AI安全研究院(AI Safety Institute),以建立公部門得以安全試驗與研究AI之能力(詳見以下參考資料 “AI Safety Institute: overview”),其亦鼓勵各前沿AI組織發布安全政策,其並發布九項實踐方向(負責地開拓前沿AI之能力、模型評估與網路安全演習、模型回報與資訊共享、安全控制、漏洞回報結構、AI生成內容之識別、優先研究AI帶來之風險、防止及監控模型濫用、資料輸入控制與稽核)。

《布萊切利宣言》(Bletchley Declaration)是站在肯認人工智慧可增進人類福祉、和平與繁榮的角度下,期待並歡迎人工智慧為人類生活帶來的發展與創新,但同時亦認知到人工智慧,尤其是前沿AI(frontier AI)帶來的重大風險,如人權、透明度、公平性、可責性、監管、適當的人類控管、道德、偏見、隱私與資料保護等問題,以及由操縱內容或產生不實內容所帶來的不可預期風險。有鑑於應對以上風險之急迫性及考量AI之雙面刃特性,各國簽署本宣言並以強調國際合作為前提,確保能夠負責任地使用人工智慧。本宣言不僅是第一個明文認可各種人工智慧所帶來的風險,亦扮演國際與各國合作、監管人工智慧的催化劑,也擘劃企業、學術、民間組織、政府間相互合作之藍圖;本宣言指向更加明瞭的監管方向與各國合作之意願,可期待2024年於法國舉辦的人工智慧安全高峰會上各國更加深入、明確之討論。


參考資料