開發先進AI系統國際指導原則暨行為準則之新進程—2024年OECD巴黎部長理事會議
  • Post category:News
  • Post author:

◎劉汶渝

Photo by Alain Pham on Unsplash

經濟合作暨發展組織部長理事會議(Organization for Economic Co-operation and Development Ministerial Council Meeting)1於2024年5月2日、3日在法國巴黎舉辦,並由日本擔任主席。本次會議主題為「共同創造改變:以客觀及可靠之方法引領全球討論,以實現永續及包容性成長2(CO-CREATING THE FLOW OF CHANGE: Leading Global Discussions with Objective and Reliable Approaches Towards Sustainable and Inclusive Growth)」,議題廣泛並列舉現今政府所共同面臨之困境;如氣候變遷與數位化、人口老化所帶來之經濟與社會衝擊、法治問題之挑戰,其中又將本次會議討論聚焦於三大主軸3

  1. 多元化、包容與具共同理念的OECD:強化我們工作之延伸外展
  2. 基於共同價值觀之經濟秩序:堅守維護自由、公平之貿易與加強經濟韌性
  3. 共創更美好的未來:應對全球規模之新挑戰

本次會議亦以協助世界各地之立法者,在OECD共同民主價值、保護人權、法治及市場經濟之原則下,發展健全且規劃完善之政策以回應面前各個結構性改變,並共同實現更美好的生活與未來。

於本理事會議之首日,日本首相岸田文雄(KISHIDA Fumio)即於其主持之生成式AI場邊會議(Generative AI side event)4中宣布5《廣島AI進程(Hiroshima AI Process)》及廣島AI進程之友(Hiroshima AI Process Friends Group)6啟動;由49個國家及地區參與其中,以作為各國支持《廣島AI進程》精神之自願性框架,並在其等偕同幫助下,將努力落實本進程之《開發先進AI系統組織國際指導原則(Hiroshima Process International Guiding Principles for Organizations Developing Advanced AI System)》7及《開發先進AI系統國際行為準則(Hiroshima Process International Code of Conduct for Organizations Developing Advanced AI System)》8以應對生成式AI之風險與促進合作,且進一步確保全人類均得以受惠於安全、可靠且可信賴的AI。又除了上述治理方面之對策,日本亦將設立GPAI東京中心(Tokyo Center of the Global Partnership on AI)以提供於特定技術層面上之堅實支持。

於生成式AI場邊會議中,日本首先以開場影片點出現今與AI相關之風險及挑戰;再舉出其用途廣泛之優點,包括應用於科學、資訊安全、機械工程上,接著指出其潛在與實際之威脅及風險,如真偽難辨之數位偽造品、利用AI所傳播之假訊息,均可能造成偏見加深與社會分裂進而導致犯罪率陡升,因此OECD夥伴們有責任透過建立適當的防護欄解決上述風險。而自2023年5月於日本廣島舉行之G7高峰會9中,考量AI之國際使用本質及實際上各國之規範相異,主辦國日本提出討論應對生成式AI風險之國際標準規範,並於2023年10月第18屆聯合國網際網路治理論壇(18th Annual Meeting of the Internet Governance Forum)10中提及並討論11之。同年12月,為達到「安全、可靠及可信賴的AI」之目標,成立世界上第一個成功建立的AI領域國際框架——《廣島AI進程之綜合政策框架(Hiroshima AI Process Comprehensive Policy Framework)》,並分為四大部分:專案為基礎之合作、適用於開發者之國際行為準則、適用於所有AI參與者及開發者之國際指導方針原則、OECD對於生成式AI之報告紀錄。

以下分別簡述本進程《開發先進AI系統組織國際指導原則》與《開發先進AI系統國際行為準則》之重點內容。

一、《開發先進AI系統組織國際指導原則(Hiroshima Process International Guiding Principles for Organizations Developing Advanced AI System)》

以下11個指導原則應適用於所有於AI生命週期中之參與者(包含先進AI之設計、開發、部署12、供應與使用):

  1. 於開發先進AI系統之過程中(涵蓋部署與供應予市場)採取適當措施以在AI之生命週期中識別、評估與減緩風險。
  2. 部署後(涵蓋供應予市場後)識別及減少漏洞,並適時識別各濫用之事故與模式。
  3. 公開報告AI系統之能力、限制與適當及不當之使用領域,以確保一定的透明性,並進一步增強責任制。
  4. 加強開發先進AI系統組織間(含產業、政府、民間及學術界)負責任地分享資訊與回報事故。
  5. 以風險為基礎之方式制定、實施及揭露AI治理與風險管理政策(含隱私政策、減緩措施,特別是開發先進AI系統之組織)。
  6. 於整個AI生命週期中,投入並實施堅實的安全控制措施(含實體安全、網路安全與內部威脅之保護措施)。
  7. 於科技發展技術許可下,開發、部署可靠之內容驗真及資訊來源機制(如數位浮水印或其他方便使用者辨識AI生成內容之技術)。
  8. 優先研究減緩社會、安全與威脅風險,且優先投入有效的減緩措施。
  9. 優先開發先進AI系統以解決全球之嚴峻挑戰,例如但不限於氣候危機、全球健康與教育。
  10. 推動與適時採用國際技術標準。
  11. 實施適當資料輸入措施與個人資料及智慧財產之保護。
  12. AI生命週期之各參與者亦應遵循此第12個原則:促進與對於可信賴及負責任地使用先進AI系統作出貢獻。

二、《開發先進AI系統國際行為準則(Hiroshima Process International Code of Conduct for Organizations Developing Advanced AI System)》

    本行為準則之目標係推動安全、可靠、可信賴之AI系統並提供開發最先進AI系統(含最先進之基礎模型及生成式AI系統)之組織自願性指導方針,而該等組織應依循以風險為基礎之方式採取行動。本行為準則清單係以OECD AI Principles13為基礎,並為一滾動式更新、調整之清單,亦可解讀為前述《開發先進AI系統組織國際指導原則》中11個原則之詳盡解釋。

    如同日本AI策略委員會主席松尾豐(MATSUO Yutaka)教授所言,日本對於AI之開發與使用偏向採取積極之行動與態度,同時亦致力確保其安全性;進而日本的立場係處在偏向促進AI使用及傾向監管AI的中間,因此更加展現並加強了日本對於此一立場及未來平衡國際間關於AI討論之表態與領導的重要性14