◎劉靜怡(國立臺灣大學國家發展研究所教授、科技部人文及社會科學研究發展司法律學門共同召集人 )
一、前言
人工智慧在資訊科學領域的再度興起,被認為是具有掀起第四波工業革命的潛力,並且可能因此劇烈改變人類的經濟、社會與文化生活模式。在此一各國學界與產業界競相發展人工智慧相關研究議題與應用產品的浪潮下,科技部去年也提出了人工智慧推動策略,準備在核心硬體設施、演算法技術、智慧應用領域等面向多管齊下,希望藉此促成臺灣在國際 AI 研究和產業價值鏈中扮演關鍵角色。
然而,因為人工智慧對當前社會的影響,迫在眼前,在努力促成人工智慧在各個領域中的廣泛與深化應用之際,關於人工智慧發展過程中可能帶來的社會影響、倫理爭議和法律問題等,也不該忽略。換言之,由於人工智慧的發展應該會進一步引發勞動市場、產業結構、社會平等、專業倫理等層面的變動,而上述各層面的變動,也將衍生出許多法律爭議,有待眾人合力釐清與克服。因此,科技部人文司法律學門即在去年 9 月 25 日舉辦一天的「人工智慧相關法律議題工作坊」公開活動,以這波人工智慧浪潮的發展截至目前為止所浮現的法律議題為主題,針對人工智慧對於法學理論和法律體系將帶來哪些影響,以及人工智慧在民刑事法律責任、個資保護、智慧財產權、行政管制、政府執法和跨國互動等法律層面,將有哪些潛在法律爭議值得注意,進行研討與分析,希望藉此提供給人工智慧研究者和產業參與者關於法學觀點的思考與法律適用層面的建議,並作為政府後續進行政策規劃及做成決策的參考。
二、活動舉辦過程
法律學門上述工作坊的全程籌備工作大約歷時一個半月,並於 2017 年 9 月 25 日在臺灣大學總圖書館地下一樓國際會議廳順利舉辦一整天的活動,當天進行議程如下:
第一場(10:00-12:00)
(一)部長致詞
(二) AI 法律爭議簡介(劉靜怡教授/國立臺灣大學國家發展研究所)
AI 潛在法律議題鳥瞰與初步分析:從責任分配到市場競爭
(三) 由 AI 反省法學(顏厥安教授/國立臺灣大學法律學院)
(四)AI 的民事責任議題:以契約法和侵權行為法為核心 (吳從周副教授/國立臺灣大學法律學院)
午餐休息(12:00-13:30)
第二場(13:30-14:30)
(一)AI 與個資保護的發展趨勢(邱文聰副研究員/中央研究院法律學研究所)
(二)AI 與行政管制、執法系統的未來(李榮耕教授/國立臺北大學法律學院)
第三場(14:45-15:45)
(一)AI 與智慧財產權的調適(沈宗倫教授/國立政治大學法律學院)
(二)AI 的潛在國際法爭議(黃居正教授/國立清華大學科技法律研究所)
中場休息(15:45-16:00)
茶點時間
第四場(16:00-17:30)
綜合座談:機會與挑戰、對話與合作

本工作坊報名人數約 230 人,實際參與人數約 180 人左右。從報名者所提供的個人資料進行簡要分析,就背景分布狀況而言,約有二分之一是非法律背景的 AI 相關議題研究者、產業界人士和政府機關各個不同部門的決策者;其他的二分之一,背景則是法學界和法律實務界人士,包括教授、律師、法官、立法院助理、智庫研究員和法律系所學生等。從此一背景分布狀況,或可得出關於人工智慧相關法律議題的研究興趣和探討需求,不管是否具有法律背景,均不乏其人的結論。其次,由於本工作坊可以說是法律學界第一次針對人工智慧相關法律議題舉辦的學術性活動,由當天工作坊進行過程中與結束後,參與者和講者熱烈對話討論的內容與情景來看,也可以看出,國內對於人工智慧法律議題發展的探討熱情與研究興趣,的確有明顯的趨勢。
基於以上尚稱良好的工作坊活動成果,以及自該工作坊中所感受到的知識累積必要性和法學長期研究需求,在本工作坊結束後,本次工作坊的講者,乃共同決定根據此次工作坊的議題分工,以及各自的報告內容,進一步撰寫成學術論文,編纂成一本關於「人工智慧相關法律議題」的專書,並且已經洽妥出版社,預計最近收齊稿件並結集出版,可望使本工作坊的活動成果更加具體化,也藉此為國內法學界建立關於人工智慧相關法律議題的初步研究基礎。
三、各場主題報告內容及內容簡介
在本工作坊的第一場的主題報告中,首先由此次工作坊主辦人劉靜怡教授針對 AI 法律爭議進行簡介,報告題目為「AI 潛在法律議題鳥瞰與初步分析:從責任分配到市場競爭」,主要內容是從法律的基本原則將如何受到人工智慧發展的影響進行分析,探討責任分配與市場競爭議題。其次,則是由顏厥安教授針對如何由人工智慧反省法學發表第二個主題報告,顏教授在該主題報告中指出: 人工智慧一語的創造者 John McCarthy 是一位電腦工程師及數學家,曾說「不打算做算術就會流於胡言亂語」;而顏教授認為,人工智慧自始就是一個哲學問題,因為,所謂數字、智慧與人工,都是富含哲學意義的概念。顏教授將這個主題報告撰寫成〈人之苦難,機器恩典必看顧安慰─ 人工智慧、心靈與法律責任〉一文,指出人工智慧與法律,最早的關聯主要是在法律推理方面,此一關於法律推理的問題固然擁有持續的重要性,但是也有許多其他層面的問題陸續浮現。而該文則是從心靈哲學的觀點出發,嘗試探索人工智慧、心靈與法律責任的議題,其指出:法律責任的成立,一般認為預設了自由意志與因果關係的二元世界,不過,自二十世紀以來的法學理論,卻越來越趨向於懷疑心靈的獨立存在,因此挑戰了自由意志的理論基礎;若此一方向正確,則人工智慧與「真正的智慧」─ 也就是心靈─ 之間的差異將日趨模糊。雖然該文並非嘗試針對此一問題提供終局回答,但指出了人工智慧的挑戰,不僅在於機器的擬人化,也在於人性的機器化或自然化,是相當值得深思的理論探索。本場第三個主題報告,則是由吳從周教授針對人工智慧所引發的民事責任議題進行分析與探討。這個主題報告以契約法和侵權行為法為說明核心,不但引用既有的國內外相關判決作為分析背景,也進一步從人工智慧應用趨勢下可能使這些判決所展現的規範方向如何發展,提出預測,兼具學理和實務參考價值。

第二場主題報告,分別由邱文聰教授針對 AI 與個資保護的發展趨勢,以及李榮耕教授針對 AI 與行政管制、執法系統的未來進行分析。首先,邱文聰教授以「AI 與個資保護的發展趨勢與潛在的歧視悖論難題」為主題,指出人工智慧在實際社會應用上的挑戰,主要來自於兩個面向:一是人類對人工智能主體的智慧學習,可有多大的決定能力;二是對人工智能主體在智慧應用上的結果,可有多少的控制能力。邱教授指出:在智慧學習上,人工智能主體的設計者無不希望盡量透過充分的「訓練資料」,使人工智能主體得以「心領神會」人類在特定工作上的思考與決策模式,以便能模仿人類之行為,但也可能因此在無意中承襲了人類既有的偏見。至於在智慧應用方面,邱教授則是指出,人工智能主體不一定都會按照設計者的想定與期待,做出決定或行動,有時甚至可能出現非預期或難以為社會接受之結果,遠超出原始設計者的理解能力之外。本場主題報告指出:以過去法院判決為「訓練資料」的人工智慧判決系統,雖然在面對新的案件事實時,或許能依據構成要件的要求,做出與真人法官一樣的判決,但卻也可能延續原來存在於司法系統中的偏見或錯誤,例如美國司法系統中普遍存在黑白種族在判決結果上的差異,一旦成為智慧學習的對象,其所訓練出的人工智能主體,頂多也只是複製這種偏見與差異。
邱教授同時指出,在人工智慧結合大規模資料蒐集與巨量資料分析的資料探勘技術之後,若應用各種社會資源於分配決策上,那麼人工智慧便會成為一種最新的社會差異的排序(social sorting)工具。邱教授以銀行借款決策為例,指出依統計關聯而針對不同借款人所為的「差別待遇」,這種經濟學上的「統計歧視(statistical discrimination)概念,是為了特定目的之最有效達成而進行差別待遇,所以對行動者而言具有合理性,而相對於此的「非理性歧視」,因無助於目的之達成,則可藉由一般的市場機制而獲得矯治。因此,只有當「統計歧視」係基於惡意(bad intention, malice, animosity),或基於特定的可疑分類(suspect classes)時,才受到反歧視法制(anti-discrimination laws)的規範與禁止。就當前法制因應策略而言,多從個人資料的蒐集規範,控制智慧學習的範圍與深度; 但在面對上述智慧應用時,則恐怕難以僅透過個人資料的利用規範有效回應歧視問題。接著,李榮耕教授以「初探刑事程序法的人工智慧應用─ 以犯罪熱區為例」為題,分析人工智慧在執法層面上例如犯罪活動的預測及預測性警察勤務上的應用。李教授在這個主題報告中同樣指出:人工智慧能夠發揮上述功能,是透過歸納、分析及處理大量過往的案件資料,用以預測將來可能發生的事件,而犯罪熱區的劃定,便是典型的人工智慧的應用方式。但是,李教授在本報告中特別指出,上述分析結果,在具體的應用上,應認為犯罪熱區只能夠作為合理懷疑或相當理由的證據之一,不能作為唯一的依據。犯罪熱區的劃定,本身即帶有著偏見及歧視的危險。同時,用以訓練人工智慧的資料不完整或不正確,也會影響到犯罪熱區的正確性。李教授這篇主題報告的結論認為,一旦在刑事程序中使用人工智慧,就應該特別注意被告或犯罪嫌疑人的程序權利,而正因為如此,我們應該以更有效的方式,檢視政府所使用的人工智慧技術,以便有效保護人民的基本權利。有鑑於此,李教授主張國家所使用的人工智慧應有外部獨立的檢視及評估,而今後法院在處理相關挑戰時,也必須逐漸形成審查使用人工智慧的程序及要件的標準。

第三場的主題報告,分別由沈宗倫教授針對 AI 與智慧財產權的調適問題,以及黃居正教授針對 AI 所帶來的潛在國際法爭議,進行分析。在本場主題報告中,首先沈宗倫教授以「人工智慧科技與智慧財產權法制的交會與調和─ 以著作權法與專利權法之權利歸屬為中心」為題,說明在智慧財產法藉由專屬權或排他權之授予,促進國家文化或產業的創新發展,亦同時兼顧市場的公平競爭的立法宗旨下,人工智慧科技朝向自主學習與自行決策方向發展的趨勢,對於智慧財產法所帶來的衝擊,最可能聚焦在權利歸屬的爭議上。而這篇報告則是針對此一潛在問題,分析人工智慧就其創作或研發成果,在著作權法與專利法上的權利歸屬問題,嘗試提出最適的解決模式,以緩解人工智慧科技對智慧財產法制的衝擊,並使智慧財產法制在面對人工智慧科技進展時,得以適度的因應與調適。接著,本場次另一主題報告,由黃居正教授以「AI 科技中的國際法議題:從國際人道法到生命體系法」為題,分析與人工智慧相關的國際法議題。黃教授指出:國際法因為受限於性質與規範力來源,法的確信與遵行機制之形成與發展比較緩慢,並且向來呈現團塊化現象,不過,在與人工智慧相關的規範方面,則非如此,而是發展異常迅速而且已取得一般性。黃教授根據其主題報告內容所撰寫的論文,以當前逐漸成形、與人工智慧相關之國際法原則為討論內容,主要分析則涵蓋與人工智慧武器相關之國際法議題,以及生命體法如何應對人工智慧新主體兩大面向。前者探討對象包括人工智慧武器在國際人道法規範下之定義、人工智慧武器所涉及之人性本質論題、國際人道法對人工智慧武器之種類與使用方法之規範、如何結合科技中立原則與馬爾頓條款強行適用國際人道法規範人工智慧武器,以及有意義的人類控制原則。後者的分析,則是聚焦在適用於有別於傳統人格體或其所能控制之「新主體」的規範內容與其性質,即通常所謂之「生命體法」或「超世俗規範」議題。包括如何自既有的國際太空法原則抽繹出「生命體法」的核心價值,譬如全體人類必須共同決定其立場的規範一般性,以及藉由國際公有物規範,解釋對於有異於地球人之生命體的積極管轄原則與型態。上述分析,對於向來對國際規範較為陌生的國內學界與產業界而言,應該可以提供相當的刺激與參考作用。
四、結語
由於 AI 的(潛在)應用方式和應用領域近來不斷地增加,幾乎可以預見其將對人類社會的各個層面都帶來大小不一的衝擊,因而也可能帶來更多潛在的社會、倫理與法律爭議。以法學界為例,美加近年來有許多屬於中生代和新生代的優秀法學院教授,均陸續投入關於人工智慧相關法律議題的研究,例如自 2014 年起即已開始由美國各知名法律學院輪流舉辦的人工智慧法律議題重要研討會之一,明年四月將在 Stanford Law School 舉辦 We Robot 20181。又如 Harvard, Yale, Toronto 等知名法學院,也競相成立研究中心,投入人工智慧相關法律議題的研究。例如,2017 年上半年,本人曾於 2012-2013 年之間擔任 faculty-level fellow 一年的 Berkman-Klein Center for Internet and Society(Harvard Law School),即與 MIT Media Lab 在 Knight Foundation 的 Ethics and Governance of Artificial Intelligence Fund2 共同以跨領域研究的方式,推動關於人工智慧可能涉及之法律、倫理、社會、經濟等各層面的治理議題研究3。同樣地,在哲學界,對於人工智慧可能衍生的社會與倫理議題,也相當重視,例如英國 The University of Cambridge 即在知名哲學家 Huw Price 的領導下成立 Leverhulme Centre for the Future of Intelligence4,將 AI 發展當成重點研究對象。
就上述隨著人工智慧再度興起而出現的人文社會科學的新興研究趨勢而言,不但具有學術上的價值,對於社會發展和政府決策來說,也應該是面對人工智慧所帶來的各種挑戰時,不可或缺的一環;所以,筆者建議對新興研究議題向來扮演引導角色的科技部,應該及早規劃因應之道。再者,就目前亞洲地區的人文社會領域研究現況而言,雖然亞洲各國也都極力設法推動人工智慧研究與應用,並且在產業發展上也有千秋,但是,針對人工智慧發展可能衍生的倫理法律社會影響(Ethical, Legal and Social Implications,簡稱 ELSI)及其相關對策的研究,整體而言,亞洲各國仍處於尚未真正有具體成果出現的狀態,因此,臺灣若能及早啟動此一領域的研究,應該大有可為。
具體可行的建議方案,則是科技部盡快邀集人文社會各個領域對於人工智慧相關議題具有高度興趣、願意投注研究精力甚至已在從事研究的學者,針對人工智慧相關議題成立一個 AI ELSI Committee,扮演科技部智囊的角色,共同規劃人工智慧相關議題在人文社會領域的研究發展策略,一方面取得領先亞洲地區國家的研究先機,他方面也為各政府部門應該如何因應人工智慧所帶來的倫理、法律、社會和經濟等面向的挑戰,及早累積政府決策所需的充分知識基礎。