公共性與AI論壇(十二)
2022年1月27日(星期四)
◎ 主持人:李建良(中研院法律學研究所特聘研究員兼所長)
◎ 主講人:陳錫平(中央研究院法律學研究所博士後研究學者)
◎ 整理:陳姿瑄

前言
歐盟執委會在2021年4月21日,提出「人工智慧規則草案」,又稱歐盟「人工智慧法」(Artificial Intelligence Act )草案,是全球第一個概括性、對於非特定商品或特定領域,針對人工智慧之現象及風險所做的立法嘗試。因人工智慧科技之應用,將對於公共安全、公共衛生、基本權,造成危害與風險,因此人工智慧法將人工智慧科技當成一項商品進行管制,並仿效歐盟的商品安全法的管制模式,針對不同級別的風險採取不同強度的管制。
風險、價值、信賴與市場
首先,AI目前及未來能廣泛運用於各種社會生活及經濟活動,因此帶來相當大的益處,例如,透過人工智慧演算改善預測、提升決策效力、讓資源的分配更加有效化,以及在公共衛生或健康醫療農業的重要基礎建設管理營運。
其次,所謂的新型態威脅是來自傳統所稱AI的黑盒子,其決策具不透明性及複雜性,且一般而言,受到影響的人不是研發者,或甚至研發者也未必完全清楚黑盒子的狀況,因此將產生對於基本權及公共安全的風險。
歐盟法規調合的根本目標在於其內部市場中,貨物、商品、服務、人員等的自由流通以及公平的競爭條件。為了避免各國的法制差異、價值判斷不一,造成各國間競爭條件扭曲,阻礙AI相關商品或服務的跨國流通性,破壞對研發者或使用者之法安定性,根據歐盟運作條約(Treaty on the Functioning of the European Union ,TFEU)第114條規定之一般內部市場權限,歐盟取得針對AI進行風險管制的法規調和權限。草案在法律規範形式上,不是選擇「指令」(Directive)之傳統上雙階式法律工具,因為指令還須轉化才能使各國直接運用,而是選擇具直接適用性的「規則」(Regulation)。但草案內容基本上仍屬框架性規範,因此仍有許多需要各國配合執行立法、補充立法之處。
依歐盟運作條約第114條第2項,執委會、歐洲議會及理事會應在公共衛生、安全、環境保護及消費者保護等領域,採取高度保護水平之目標,藉以避免歐盟取得原歸屬於各會員國的風險管制權限,卻因低度的保護水平而無法滿足各國之立法管制需求,而無法達成法規調和之目的。依歐盟法院裁判,高度保護水平目標要求,亦適用歐盟條約(Treaty on European Union, TEU)第2條之基本價值,包含尊重人性尊嚴、自由、平等、法治國,以及維護人權等。
因此,歐盟取得原屬其會員國的立法管制權限,透過管制人工智慧系統對歐盟的基本價值所造成的風險,以達高度保護之目標;其上位目標在透過設置一個值得信賴AI的法律框架,確保研發及應用安全,並改善內部市場的正常運作。
基本上,歐盟AI法律草案之目的,係建構以人為本、值得人民信賴的AI。由於AI的發展應成為社會的積極力量,作為有益於人類的工具,帶來更大的福祉,而非因AI之應用造成人類的損害或是基本人權之侵犯,所以手段上,藉由法律框架確保AI運用之公共安全性、符合歐盟基本價值與歐盟憲章之基本權,以此提高使用者之信賴(需求面)、研發者或供應商之法安定性(供應面),擴大AI商品或服務的需求,促使AI商品與服務的跨界自由流通不受阻礙,供應量能也隨之提升,促成歐盟AI單一內部市場的興盛。
歐盟AI法的核心:以風險為基礎的分級管制方法
歐盟AI法的核心是以風險為基礎,依照風險等級予以相對應管制的方法(risk-based approach),而此種分級管制是歐盟條約第5條第4項比例原則的展現,意即歐盟即使取得相對應的立法權,也須在限度內為寬嚴不同的管制,否則不但是在權限法上過分限制會員國權限,也是對廠商、研發商、供應商之自由過分限制。
歐盟人工智慧法草案之管制結構依照風險、危害性程度構成金字塔狀結構,管制程度則相對應成倒金字塔狀。AI 系統依其風險程度而分為四個等級。
第一類為「不可接受風險(unacceptable risk)」的AI系統:
所謂風險可不可接受或是高度、低度,是指該風險與歐盟基本價值的抵觸程度或侵犯程度有多大。因此,牴觸歐盟基本價值的AI系統,尤其明確侵犯基本權的AI系統,原則上予以禁止,只有在嚴格的限制條件下才例外予以許可。
第二類為「高風險(high risk)」的AI系統:
此等級為本草案的規範重心,係指對於歐盟基本權或歐盟法承認並保護的公益,即歐盟法所稱「迫切公益理由」(overriding reason in the public interest),造成重大風險的AI。在上市或提供使用前,應符合歐盟法草案之相關要求,且經過第三方驗證,通過合格評估程序才能正式上市
第三類為特定之「低度風險(low risk)」的AI系統:
係指有特定有欺瞞風險之AI,例如深偽技術、與人互動的AI,因其具有特別的身份詐欺風險性,從而課予相對應之透明義務。
第四類為「風險極小(minimal risk)」的AI系統:
係指現行既有的法規範能夠妥適因應的該種風險,因此基於歐盟法的補充性原則,歐盟AI法不課予額外的義務,亦即不予規範。由於基本上沒有強制性的規定,此類AI的供應者,得自願適用確保值得信賴AI的要求,並遵守自願性的行為準則(codes of conduct)。
歐盟人工智慧法客觀適用範圍與概念界定
由於AI的科技發展迅速,未來難以預料,因此採取較為概括、中性的定義方式。
AI系統(artificial intelligence system; AI system),根據草案第3條第1款,本法所稱AI系統係指使用附錄1所列之一個或數個技術或方法所研發之軟體,能夠根據人類所界定之一系列目標,產生影響與其互動之環境的輸出(outputs),例如內容、預測、建議或決定。
第3條第1款所稱之人工智慧的技術或方法,在附錄1中包含三款:第1款是機器學習方法,包括監督式、非監督式,以及使用各種方法(包含深度學習 deep learning)之強化式學習;第2款是以邏輯及知識為基礎的方法(logic and knowledge-based approaches),包含知識呈現、歸納邏輯的程式設計、知識基礎、推論及演繹機器、符號推理及專家系統;第3款是統計方法,如,貝葉斯(Bayesian)估計、搜尋及最適化方法。

歐盟人工智慧法的主觀適用範圍
由於歐盟的人工智慧法要管制AI系統所產生的風險或危害,因此只要AI系統本身在歐盟上市或被使用、AI系統產生之結果在歐盟被使用,不管供應商是在歐盟或第三國設立登記,都必須要受到歐盟的人工智慧法的管制。使用者若在歐盟,亦同。
AI系統
依據AI法第5條第1項,對於位在管制強度金字塔頂端的不可接受風險的AI系統,因牴觸歐盟基本價值,其上市、提供啟用或使用應予禁止。主要分為三類:
第一類是行為操控(manipulation)。如果AI的使用目的是對人類的行為造成有害影響,並可能對於造成那個身體或者是心裡的損害應該予以禁止,因此損害要件(harm requirement)為不可接受風險的重要分析標準。此種AI在人的意識之外,使用下意識的科技,具有損害目的,並係針對特定弱勢族群,利用其年紀較大、兒童、身心障礙,或是其他脆弱之處,而對其行為產生重大影響,造成其生、心理的損害,因此禁止。
第二類是社會評分(social scoring)。此種風險係針對機關、公部門,或是受其委託者,即指由功能上的機關所為者,若是私領域使用社會評分之AI並非屬不可接受的風險類型。根據自然人的社會行為,或已知、透過預測之個人特徵或人格特質,而在一段期間內對自然人的可信賴度進行評分或分類,若因社會評分造成以下兩個或其中一個結果者,即屬不可接受的風險:第一是類似於不當連結禁止之要求,資料被使用於與原本產生或蒐集之情況無關的社會脈絡中,進而對個人產生特定的標準或分類,並因此對某些自然人或整個族群造成有害或不利的對待;第二是比例原則的要求,即不應對某些自然人或者整個族群造成有害或不利對待,且其社會行為或嚴重程度不成比例。由此可知,在第二類的AI系統所產生之風險中,社會評分並不當然禁止,而須判斷是否構成不當連結禁止或違反比例原則的要求。
第三類是基於刑事追訴目的在公眾可進出處所使用生物特徵即時辨識系統(real-time remote biometric identification system)。此處所稱「公眾可進出的場所」(publicly accessible spaces),不區分其為政府或私人所有,重點是開放供公眾、不特定人進出,如百貨公司、購物中心、遊樂場、動物園等。此類系統與用途原則上應予禁止的理由在於,此乃大規模、無差別的一般人民持續性監控,間接妨礙人民行使其自由,特別是集會遊行自由、隱私或其他基本權。
至於例外許可,必須基於明文列舉之特定公益目標所絕對必要,並採取相對應之防護措施,而且基本上須事先取得司法機關或者是獨立行政機關的許可,方得為之。
草案中明文列舉的公益目標有三:
- 將其應用於針對性地搜尋犯罪行為之特定的潛在被害人,包含失蹤兒童。因此如果是為了搜尋遭綁票之失蹤兒童的蹤跡,可以構成例外許可之情形;
- 第二,為了防止恐怖攻擊,或防止對自然人生命或人身安全具體重大且立即的危險;
- 偵測、定位、辨識或追訴歐盟拘捕令(2002/584/JI框架決議)第2條第1項所列重大犯罪之行為人或嫌疑人。重大犯罪包括,參與組織犯罪、恐怖主義、人口販賣、對兒童性剝削、非法販毒、武器、貪污等,同時各會員國國內法應將這些犯罪行為列為有期徒刑或科以至少三年保安處分,才足以構成本法所稱之例外情形。
事先許可之原則,係指基於上述特定公益目標,而有在公眾可進出處所使用即時遠端生物辨識系統之絕對必要時,刑事追訴機關必須事先取得所屬會員國司法機關或獨立行政機關之許可。至於許可程序、許可理由等具體要件,因歐盟人工智慧法草案只有框架性要求,具體實踐仍有待各國明文規定。
最後應注意,基於刑事追訴目的而例外獲准在公眾可進出處所使用生物特徵即時辨識系統,應有相對應之防護措施與附帶條件,亦即必須遵守必要而合乎比例的防護措施,並在使用上遵守比例原則,時間上、地域上及人員方面的條件限制。
高風險AI系統
高風險的AI基本上並未被禁止,而是予以事前管制。一種是於上市前要求供應商或研發者,在設計上應符合歐盟人工智慧法草案的要求;一種是在使用前應通過合格的評鑑程序,方可在歐盟裡上市。因此對於高風險AI系統之管制,草案首先定義、分類所謂的高風險AI,進而對高風險AI在上市前提出一系列認證、註冊、安全標示之要求,使高風險AI系統之風險降到最低。
承繼歐盟商品安全法規之規範傳統,分類高風險AI系統是以AI系統之預定使用目的為基礎,不僅考量系統本身的功能,更依據其具體所使用的目的及方式為何。根據第6條規定,有兩種分類規則:
第一、若AI的系統預定作為其他商品的安全零組件使用,則零組件所依附之該商品應先依歐盟的商品安全相關法規(草案之附錄2),通過第三方之合格評鑑。既然該商品須先經合格評鑑才能上市,表示該商品本身即具有高風險,而作為其中安全零組件的AI系統,也被視為是高風險的AI系統。例如,器械、玩具、運動遊艇、水上摩托車、升降設備、用於爆炸危險區域之設備及保護系統、纜車、體外診斷醫療器材、民用航空器等。
第二、獨立的AI系統,本身創造出對基本權與公共安全重大影響之風險,也被歸類為高風險的AI系統。如附錄3所列的八大類高風險AI,目前這八大類別及其子項目皆非窮盡式列舉,而是設立準則,並且授權執委會可以因應科技發展予以擴充。
第一個高風險的AI類別是對於自然人之生物特徵的辨識或分類,即為前述的即時遠端生物辨識系統,而前述僅提到基於刑事追訴目的基本上予以禁止,其他目的之使用則屬高風險的AI;第二類別是針對重要基礎設施的營運或管理,譬如預定作為道路交通以及自來水、天然氣、暖氣及電力供應之管理與營運的安全零組件使用,因一旦AI出問題,可能造成人類生命健康危害,或社會經濟活動的重大干擾,因此構成高風險;第三、四類別是涉及教育、職業訓練、僱傭人事管理,或成為受雇者資格條件等等之情形;第六類是針對刑事追訴,例如AI系統作為刑事追訴機關,用以測謊或調查自然人情緒狀態,測定無法控制的反應,也屬於高度風險的AI;第八類是涉及司法與民主程序,即將AI系統用以支援司法機關認定事實、解釋法律,並且將法律適用於具體事實。將之歸類為高風險,是因為如果AI有差錯,將對公正法院產生重大影響。
分類何謂高風險AI後,即為如何管制的問題。為了盡可能降低高風險AI系統對於安全或基本權的負面影響,以建立值得信賴的AI,草案要求在此類系統上市或以其他方式提供使用前,供應商應先滿足技術及科技上之要求,並通過第三方的合格評鑑,獲得CE的合格認證標誌,且應至獨立型高風險AI系統之歐盟資料庫(EU database for stand-alone high-risk AI systems )完成登記。內容上,草案對於高風險AI系統有許多要求,在此以兩點為例:
第9條規範,每一個高風險AI必須建立、使用、紀錄並養護涵蓋整個生命週期的風險管理系統(risk management system)。目的在於使每一個與特定危險有關的剩餘風險,以及高風險AI系統的整體風險,在該高風險AI系統依其預定目的、或者在理性可得預見之誤用範圍內的使用,可評斷為「可接受的」,換言之,風險管理系統將原本被認定為高風險者降低至可接受。至於無法排除的剩餘風險,應告知使用者。
第14條規範人類監控機制(human oversight)。依據此條規定,高風險AI系統的設計與研發必須確保AI系統被使用時能受到自然人的有效監控。人類監控之目的在於防止對健康、安全或基本權的風險,或將之降至最低,特別是針對高風險AI系統的剩餘風險。 換言之,即使風險已降低至可接受的狀態,仍應透過程式設計等,確保自然人的有效監控,而可以隨時將高風險AI的結果「覆蓋掉」,或能夠按下緊急停止按鈕。
特定低風險的AI系統
不管是否為高風險AI,若其目的在和自然人互動,或製作仿真的圖像或影音內容,縱使其可能造成的損害較小,因仍帶有身分詐欺或欺騙的特別風險,因此依草案第52條,課予此類AI系統特別的透明義務。主要可分為三大類:
第一是人類與機器互動的告知義務,供應商應設計研發使自然人受告知其正在與AI系統互動而非自然人,且特別明定對於身心障礙者應該給予相對應無障礙可取得的告知方式。例外有二,其一是在AI系統的使用方法明顯不會發生誤認機器為自然人之情形時,如掃地機器人,則無需告知;其二是基於犯罪預防與偵查之目的,即經許可之犯罪偵查目的下,為避免告知反而妨害目的之達成,法定例外得免除告知義務。
第二是使用情緒辨識或生物特徵分類之告知義務,即應告知受辨識者正在接受情緒辨識等功能。例外同樣是在經法律規定許可之犯罪預防、追訴目的時,得免除告知義務。
第三是涉及深偽(Deep Fake)之情形。所謂深偽,係指系統使用者透過AI偽造、變造圖片、聲音或視訊內容,而與真實存在的人、物品、場所,或其他機構、事件顯著相似,而使人錯誤以為AI之偽造、變造確為真實。則AI使用者必須揭露其內容係經人工製造,使資訊接受者知道內容非真實,以避免詐欺風險。
至於前開提到「極小風險的AI系統」,草案中沒有特別課予特定要求或義務。
制裁
簡略說來,歐盟只是一個立法機構,歐盟所制訂的法規,採用「分散執行原則」,基本上是由各會員國執行。即使歐盟人工智慧法透過規則的形式,具有直接適用的法規範效力,其執行仍有賴各國的機關、法院,依照各國的執行法規(如行政程序法、行政罰法、訴訟法等)確保人工智慧規則的有效施行。
針對AI系統違法之制裁,歐盟人工智慧規則只有框架性要求,因此各會員國有義務依照本法的準則規定有效、合比例且具有威嚇性之制裁(effective, proportionate, and dissuasive penalties),包括罰鍰,並通知執委會。所謂威嚇性,主要是針對廠商之罰鍰,分為三個層級:
第一層級是最高三千萬歐元的罰鍰,如為企業,最高可處去年全球年度營業額的6%,兩者取其高者。此層級係針對重大違反之情形,包含違反本法第5條針對不可接受風險的禁令,或高風險AI系統不符合本法第10條規定之要求。
其他違反本法所規定之強制性義務,依第二層級最高罰兩千萬歐元,如為企業,最高可處去年全球年度營業額的4%。
第三層級是最高一千萬歐元,如為企業,最高可處去年全球年度營業額的2%。主要係對認證機構或認證監理機關要求提供之相關資料,提供錯誤、不完全,或誤導資料之情形。
結語
介紹完歐盟人工智慧法草案的基本架構,可知其根本目的是藉由創造安全而值得信賴的法治環境,創造AI系統的單一市場目標以風險取向的管制方法,兼顧安全、歐盟基本價值、AI科技,及發展中科技的創新投資機會。
實際上是否能均衡兼顧尚有斟酌餘地,且此一草案也只是歐盟多年立法籌備的暫時成果,欲待其正式完成立法程序,尚須經歐洲議會、理事會的折衝,因此現行草案中的基本原則、條文雖是全球首創的全面性管制方法,但未來仍有許多不確定性。

問題與討論(敬稱省略)
李建良:
補充幾點作為後續討論的基礎:第一,本草案有特別排除以軍事用途的AI,雖然風險可能更高,但因其在歐盟條約裡的立法基礎是以單一市場為取向,因此軍事用途不在其立法權限範圍內;第二,不可接受風險的AI雖看似嚴格禁止,但在特定條件下仍有例外;第三,雖然本草案不影響既有GDPR規範框架,但草案中隱含針對AI的特性強化個資保護之精神。然而, GDPR的原則是資料的最小化,AI基本上是資料越多越好,以進行大量的機器學習,因此兩者間有一定程度的規範取向差異性。
陳柏良:
歐盟針對深度偽造的管制模式,主要關鍵一是揭露,二是要有與人的互動性。以美國的立法模式而言,對深度偽造的管制並不強調與人的互動,其管制的核心在發表人的身份同一性,或被描述者的身份同意系統漏疏,進而可能動搖公眾對真實的理解。以下問題有三:第一,歐盟是否對互動性作為啟動管制的必要門檻?第二,歐盟對於揭露要求的程度為何?只要揭露有使用深度偽造技術,還是必須揭露到發言人、表意者的身份?第三,歐盟對於故意不揭露之情形是否會敦促各國訂定刑事罰責或行政處罰的罰則?
陳錫平:
與人互動應與深度偽造區隔,而在法規中屬不同類別,因此在深度偽造之情形並不強調跟人的互動關係。深度偽造的重點在透過偽造讓人信以為真而有詐欺的可能性。第52條只規定應有揭露義務,至於違反的罰責,仍有待進一步區分是單純的深度偽造而屬低風險,或其運用於其他脈絡下而屬高風險,例如假造發射核彈影片而影響到民主程序。因此風險取決於運用目的為何,一旦屬於高風險的AI,就必須符合草案中有關高風險AI的各種要求。
李建良:
高風險與低風險的區分涉及AI system的定義,草案中除了有描述性定義,還有附錄。高風險與否連結到上市管制的問題,進而連結歐盟商品安全法的規範體系。但deep fake雖然也是透過AI system運作,但沒有上市的問題,也沒有驗證的問題,因此重點在如何在社交媒體上降低可能產生的傷害,因此規範上是強調告知義務。
李長瞱:
請問AI的運用與歐盟整個內部市場是如何連接的?另外,歐盟的草案以風險區別的標準,是用對人的基本權益受限影響範圍,還是用內部市場,或更具體而言是對歐盟十大自由的危害影響做區別?
陳錫平:
歐盟想管制以及能夠管制的原因,在於其眾多會員國已經打算針對AI在公共安全、公共衛生、基本權的影響進行管制。由於可預期各國管制的方法、強度不一樣,為避免各國不同的法規造成法安定性的影響,阻礙AI產品的跨界流通,
進而影響AI相關內部市場的正常運作。因此,表面上看起來只是權限規定,手段卻能降低對基本權的危害或風險,藉以達到內部市場的目標。至於區分風險高低的標準並非以內部市場或跨界流通的影響程度為對象,而是以對歐盟基本價值、人性尊嚴、基本權的危害程度予以區分。
李建良:
針對AI專責機關,歐盟法除了末端的罰鍰制度,還有內部成員國的問題,因為歐盟沒辦法直接規範成員國的運作模式,所以採用能跨歐盟的管制方式,但這種管制機制不等於各國的管制機制,尤其是未來歐盟也會有全歐洲通用的AI安全標章,因此應該會有AI的專員,進而應如何與個資保護專員進行調和?
陳錫平:
法典中也有對供應商有大篇幅的要求,尤其在第16條,明白列舉高風險的AI供應商應該遵守的義務。因此除了前述之風險管理機制外,還有技術上記錄、調整,或合格檢驗程序的要求。檢驗程序是透過類似委託行使公權力的作法,使第三方認證單位進行認證,針對認證未通過規定相對應的救濟程序。對此,必須核發認證權限給認證機構,認證監理機構監督其是否依法進行認證。
另外補充,由於主要是管制AI系統所造成的風險,與風險來源無涉,基本上不區分受規範對象為公或私部門,因此歐盟的機構也在被管制的範圍裡內,也可能因此被處以罰鍰,且因這種管制權限不屬於各會員國,所以在規則中有較清楚之明文規定,屬於跨界、橫向的管制模式。
李長瞱:
請問這個草案是否有規定人類介入AI的空間及時間點?
陳錫平:
人類的介入規定在草案第14條,所有高風險AI系統的設計研發,為了排除剩餘風險,必須要確保整體生命週期都有自然人有效的監控機制。在後續幾款規定中,有提到對人類監督機制的要件、預防性措施,確保人類能夠有效的介入,相對應的是行使監督機制的人必須要具備一定的特質與知識,足以在危險發生前按下停止運作鈕。
李建良:
人為介入的其中一個例子是自駕車。雖然目前未達L5,但在第4級就已經可使駕駛在開車的同時做別的事情,因此必須設計可隨時接手的機制。目前草案中,較沒有看到相關規定,甚至也沒有針對自駕車的規定。草案最多只能依附錄提到交通系統的描述,將自駕車歸類為高風險系統,但以自駕車的專門領域而言,這個規定太大了,難以透過AI的法案來處理相關問題。以德國的自駕車為例,道路交通有規範如何確保人為監控的系統,以及什麼情況下能確保駕駛人隨時接手自動駕駛系統。
另外,相對於防治風險,草案中有一個專章規範「沙盒規範」,屬於相對鼓勵、促進的角度,並提供AI沙盒實驗有較多的便利。但相關問題仍有待討論,特別是個人資料保護的問題,例如沙盒的規範專章中,規定在沙盒實驗過程中,必須將實驗資料傳到一個機構裡,而這個機構能將沙盒實驗裡所取得的資訊提供給其他人做更進一步的研究。因此引發個資保護人士的批評,同樣的問題在AI草案裡也存在。
劉靜怡:
請問目前在歐洲學界或產業界,對這個草案的回應如何?有哪些主要的爭執點?
陳錫平:
第一,有些是認為規定不夠清楚。而太多不清楚可能導致有些部分無法運作,所以仍有賴各國做補充性規定。第二,有的是批評這個草案的野心太大,特別是橫向的管制,以前述的自駕車為例,可能一兩句就帶過,卻對於如何管制、管制的衝擊和影響的程度都著墨較少,因此可能因管制的範圍太廣,而無法達到有效管制之目的。第三,此草案目前的立法程序似乎卡住了,因此未來的變化可能性還很高,甚至可能胎死腹中。
劉靜怡:
歐洲本土的學者與產業界的回應,以及各政府的接受度程度,將決定這部草案有沒有辦法走下去,請問這部分的相關資訊?
李建良:
目前學者確有許多分析性的相關文章,絕大多數是批評的態度。至於德國政府對這個草案非常有意見,因為認為通過對德國的影響很大。
劉靜怡:
現行草案提供一個討論框架的起點,可以進而思考一套AI相關的法律必須包括哪些清單,以及應如何設計管制架構。
陳錫平:
目前草案是預防性的,欠缺能參考的立法模式,管制範圍又廣,容易導致成熟度不夠。目前也是利用草案的提出,收集各方意見,進行第二次或更多的草案提出。這種作法常見於歐盟裡對於爭議性高或新興領域,可能導致立法程序跑個一、二十年,甚至對於爭議更大領域,執委會可能連草案都提不出來,而無限期延期提出草案,所以對於這種草案都只是暫時性的結果。
劉靜怡:
補充國際上可能影響草案將來的內容或調整方向的發展趨勢。OECD曾有與AI相關的recommendation,G7國家跟G20國家也有一些statement,甚至OECD還以G7國家為主導、由法國與加拿大發起的GPAI(Global Partnership on Artificial Intelligence),從原本的四個工作團體,現在因疫情產生第五個暫時性的工作團體,未來也可能發展為國際組織。其中已有非常成熟、實質的報告與建議,很有可能未來歐盟將之作為各國立法的參考。
美國在組織上相對落後,且在GPAI拿不到主導權,因此美國國務院想藉由cyber security的計畫主導成立一個國際性的AI網絡。
韓其珍:
美國因為聯邦法的制度,針對deep fake的立法並不順利,理由有二:一是對言論自由、思想自由的保護;二是因為deep fake是好萊塢等影視製作的很大好處,降低電影製作中由真人上場的可能危害。目前加州、德州、維州的立法制度,是區分是否為虛假內容,導致國安危險或影響選舉的類型,以及虛假的性愛、大尺度影片、照片的類型。
台灣從小玉的deep fake事件後,法務部比較認為應修訂刑法,我國是否也可以參考美國法的思考方式,區分政治,如妨礙國安的類型,或虛假的性愛影片類型?另外請問,為何加州對於傳播欺騙性的視頻、音頻的規定(AD730)有一個落日條款,使2023年1月1日以後不再有效?
陳柏良:
台灣目前針對deep fake不只有法務部處理,主要是分成兩個路線,一個是法務部想用刑法,另一個是NCC,在NCC十二月底出的新聞稿中,看不出草案是以數位內容服務法或是傳播法處理,但至少兩者的處理方法不同,層次也不同,刑法主要是處理表意者,NCC主要是處理平臺責任。兩個部門的草案之所以沒有具體條文,是行政院內部各部會也還在角力。
美國主要以三個法益切入,第一是國家安全、第二是民主選舉、第三是色情,都不是用隱私切入。但法務部一開始就點明不處理國安法,也不是選罷法的主管機關,因此只處理刑法本文,即刑法分則。從章節就有爭論係屬偽造公文書私文書章、妨害秘密章,還是妨礙電腦使用罪?目前法務部提出的草案傾向選擇鎖定在個人法益的妨害秘密罪章,並將罪章改名為妨害秘密及性隱私罪。但我認為深度偽造真正的問題在是資訊的混淆,而不是個人特定秘密被妨礙,因此我認為應在刑法第220條以下增訂章節,或至少是妨礙電腦使用。
對於加州的日落條款的制定理由,是立法者無法確定深度偽造技術的未來使用程度,因此制定兩年的期限,至少可以避免2020年的美國聯邦總統選舉、2022年年底的美國期中選舉被危害,另外補充,加州法的行政、刑事罰責並沒有通過,只通過民事的侵權責任。理由在於,處罰的基礎並非不能使用深度偽造技術,而是使用深度偽造技術卻未加告知、標示警語、浮水印,但有善意利用條款(good face)、大眾新聞媒體使用例外條款、喜劇條款等。由於正反兩方對言論自由的想像不一樣,無法確認例外條款的範圍。