人工智慧與法律規範學術研究群
第二年期(2019-2020)
第四次會議
2019年10月31日(星期四)
主持人:李建良(中央研究院法律學研究所研究員兼所長)
主講人:黃居正(國立清華大學科技法律研究所教授)
◎整理:邱筠雅、洪于庭
◎註解、定稿:李建良

前言
戰爭侵權行為經常被提出且受到廣泛討論,戰爭行為結束後,可能會發現在占領過程中,有大量私人機構協助侵權行為。就主權豁免議題而言,由民間進行占領,無法主張主權豁免,因此,今天關於侵權行為的想像會跟戰場有關係。在今天報告中,一方面以先前討論的自駕車議題為事實基礎,另一方面以戰場侵權行為所呈現的事實作為想像。侵權行為法的範圍相當巨大,所以我們提供的事實基礎顯然非常有限,以目前的想像做形式化或具體化的判斷,也可能無法推演出非常完整的規範,推演的結果可能會有一些不足,也麻煩不吝指教。
AI到底處於何種事實狀態?如果無法確立其事實狀態,很難適用侵權行為法。因為侵權法並不是主動性的規範,而是被動性規範。要由請求者去啟動之後,此規範才會被動回應。在事實發生前,很難想像侵權行為法要怎麼樣回應這個基礎事實。或有認為AI目前可能產生兩種行為主體的態樣,為了驗證這種說法,我們做了兩年的回歸整理。目前尚未發展出太完整的結論,僅能看到一些結構性、假設性的規範建議。例如,希望有個主管機關,透過認證的方式,執行侵權行為法裡面,依過去經驗可行的條件。目前提出的可行建議都是骨架式的,這也說明了完整發展規範體系上的困難。
行為主體的設想與分類
選項A—機器自主學習:
AI可以透過自主學習來自我改善、成長,並演化出自主性;AI不只是受指令限制,僅在指令限制範圍內採取行動的主體,而是可以透過漸次的知識累積及分析,最後進行綜合知識判斷,自主做出超越既有知識範圍的機器學習主體。
選項B—強化輔助學習(reinforce learning):
因為科技的進步,縮短AI能力演化的時間,但這種學習是在人類的控制、輔助條件下進行,不允許它做自主性的分析。實際上,自駕車應該是採取輔助學習,在大數據資料庫及高速演算的輔助下發展其安全性。
如果不只是單純以系統化或時間線性的角度來討論知識的累積,勢必要碰觸到知識論的問題。所謂的知識論是指知識客觀性繫於綜合知識和分析知識的對比,過去的分析知識會不會因為運算結果形成綜合知識?如果會,那顯然無法排除機器的自主性,也就是最後還是會發展出自主性的知識,不可能受限於規範的知識。
人類的知識本來就是以累積、分析、經驗、辯證來形成客觀性。前面這兩個區別到底有沒有意義?
另外還有一個絕對性的差異,也是在侵權法中一直被提出來的議題,那就是人類直覺。人類的直覺包括飢餓、疼痛、情感等等,在緊急狀態下,原本直覺會影響事情的判斷,但在應用自主性AI時,機器顯然不會有這個狀況,這就會在侵權行為前形成兩條岔路,影響到過去侵權行為所提出來的道德命題。
很顯然的,侵權行為法是被動的法律工具。在侵權事件中,最佳風險分配是一種後見之明。以後見之明的判斷方式,告訴我們不該做這件事情。同樣的命題也出現在戰爭法上面。在對戰場上的侵權行為法做風險判斷時,考慮到的是全體性的戰爭目標,或是個案上人道風險?這些都是透過直覺建立的規範系統,在AI沒有直覺的狀況下,可能會得到完全不同的結果。
如果再進一步討論剛才講到的直覺命題,侵權行為法有很多地方建立在這樣的直覺命題之上,地域性的規則也是一個典型的例子,如果單純用量的指標來說,這些判斷可能是不合理的,比如說鄉下醫生和醫學中心醫生的判斷差異,或是地方性文化影響到人的行為模式。
透過直覺和連結直覺的生理特徵所做出的評價,不是量的評價而是質的評價,完全繫於行為人本身的強壯程度、職業、身體對於風險的忍受程度等等,這些透過連結到侵權行為法的特徵,都不是量的評價,而是質的評價。因此以AI作為行為主體時,顯然會對侵權行為法原則帶來變化,我們該如何對應?

對應的策略為何?
第一個選擇:對AI的具體範圍提出限制。
第二個選擇:以科學至上的立場來說,科學家希望只有最小限度的限制,不希望以AI的自主範圍來提出限制,也不希望限制知識的擴張或是演進的進程。
若做第一種選擇,侵權法原則不會有太大的變動。侵權行為法主體仍然有相同的適用,不過相關的對應討論還是有它發展的特殊性,只是就侵權行為法的主體性變化不大。
若做第二種選擇,就可能需要規範AIS主體的出現,它除了模擬人類既有的行為,還能經由互動學習去擴張知識範圍,透過知識範圍的擴張,採取更好的風險預測和能力分配,最終它會在風險管理的能力上超越人類。在此情況之下,相對於人類,AI會變成更高的智慧體,變成一個行為主體。
在選擇一的時候,就管理的層次而言,可能是哪個階段的集團應該對AI的行為負責的問題。但在選擇二的時候,就可能會有比較特別的狀態,因為AIS的行為模式可能已經超越程式設計者的合理預測,程式設計者可能可以在既有的規範體系下主張免責。
另外是主觀意識的問題,在侵權行為法裡面,主觀意識是否完整,是否具備客觀與主觀條件,其生理能力、社會評價的主觀評價為何,都是要件之一,所謂的理性人的客觀標準,有其評價方法。AIS在這些條件下可能會被評價為智力未熟、經驗不足的侵權行為。
注意義務的標準?
還有注意義務範圍的問題,要建立一個過失責任系統,最後會結晶化變成一個交換條件。重點仍然在於注意義務的標準是如何建立的?侵權行為法的注意義務標準主要是以習知技術、操作經驗和同儕團體的評價來做基礎,但難以套用在AIS上,同儕團體也沒有評價的能力,無法預測該如何建立合理的注意義務。
就可否直接採取嚴格責任、結果責任或無過失責任的問題,科學家反對是因為這會壓抑科學發展,所以要採行嚴格責任或結果責任顯然要有一定的妥協。推定過失責任、最高賠償責任顯然是科學家比較樂於採取的模式。但即便是採取這個模式,甚或是嚴格責任或結果責任,都還是會出現很大的問題,因為這裡還是要建立因果關係的連結。
傳統侵權法要解決這類問題時,還是要建立因果關係。因果關係是建立在過去經驗基礎的邏輯判斷,包括風險客觀可預見性和風險認識。但AIS技術可能發生的風險,顯然無法用這樣的定義來評價,所以如何建立行為和結果間的因果關係是一件很奧妙的事情,在沒有這套因果關係的狀況下,如何建立嚴格責任或結果責任的規範體系,勢必還需要更多討論。
結論
- 建立特殊法制:自主性人工智慧發展法
- 用社會風險控管機制、強制險或社會保險取代侵權行為法的系統:主要觀察到的通常是主管機關的認證系統,可以自主性地取得認證或是加入監管系統,允許進行風險的責任交換,取得最高賠償限額之類的。在太空活動法也可以看到這種模型,目前日本、韓國、紐西蘭、澳洲太空活動法都是採取這種模型,因為不知道太空中會發生什麼事,無從評價,所以採取架構性的啟動交換機制。
問題與討論(敬稱省略)
李建良:
不同於契約可以先約定,侵權行為法則基本上是透過法律規範,很大程度也是一種強行法。所以,當AI的科技發展因素進入法秩序之後,侵權行為法是不是要有所變動,嚴格來講,也是一個公法問題,涉及國家規範權力要如何行使。宏觀來說,侵權行為法其實是利益分配、風險分配的問題,最後會導致社會正義的問題,乃至於衝突。也因此才需要有保險制度進行調合。侵權行為法可以從純粹的民法問題,到行政法上的管制課題,更有可能是非常大格局的利益版圖的變動問題。
楊岳平:
法人責任的類別:我國法院向來不承認法人有獨立的侵權能力,如AI如此設計可能就沒有意義了。但這其實也牽涉到法院見解的問題,很多判決並不是把法人無法負擔責任看得這麼絕對,這牽涉到應然和實然面的問題。
如果把AIS當作獨立的責任歸屬者,要不要這樣做?如果要的話,怎麼履行這個責任?錢從哪來?在金融法談到責任的時候,會需要搭配責任金,如果要求他負責的話,在設計前期就應該要有一個資金。也是在執行這個責任的時候需要考慮的問題。
選擇上述二麻煩的地方在於,讓AIS有獨立責任的時候,此時程式設計者是不是就免責了?AI的狀況類似我國民法第191條之2動物佔有人責任。是否要適用這個選項?還是適用共同侵權責任,讓各自負責任?
主觀意識的問題:注意義務客觀化的問題,這個概念的發展到什麼程度了?如果找不到其主觀的義務,可能可以找客觀的行為義務作為替代處理方式,這裡有一個義務的選擇,在界定因果關係的時候,要推定或是要建立因果關係?
李建良:
關於侵權行為法則要不要成立一個責任基金?用責任基金制度模式來處理侵權事件是可能的,這種制度模式不只是在私法領域,在公法也可能有相同的問題。
把AI比擬成動物?近來有民法學者嘗試把AI比擬成一種奴隸,把羅馬法有關奴隸的法則轉用到AI的責任歸屬問題。因為動物不會像人類一樣思考,但AI可能會仿人類思考。在羅馬法時期,奴隸是物,在AI的狀況也是類似。
關於「主觀客觀化」與「過失推定」的問題:在公法領域也常有難以認定主觀要件(如故意或過失)的時候,例如國家賠償法的過失認定就有同樣的趨勢。但是與民事賠償有個差別是:國家的賠償在做主觀責任的客觀化時,會用有「不法」來推定有過失,但民法卻很少去討論不法的問題。國家賠償事件,公務員是否「不法」必須進行證立。反之,民法侵權事件比較少討論不法的問題。在行政法或國家賠償,必須正面討論公權力違反義務,但民法的不法通常是略過的。
王怡蘋:
民法的不法比較像是先推定其不法,再用阻卻違法事由去推翻。
劉靜怡:
為什麼德國民法跟行政法的操作不同?
黃相博:
原則上不會認為政府會違法,所以要正面的去論述其不法性,但是在人民為侵權行為的時候,我們不會認為不法是一個構成要件,而是應該用阻卻違法事由去排除。
莊錦秀:
在報告中提到的AB兩類,從美國醫療器械監管的問題來看,其實是在探討AI相關的「醫療器械」FDA要不要監管的問題,甚至有些學者認為B類應該不被考慮,因為那只是一個資料庫。美國的憲法修正法案認為應該是不能介入這種資料庫,FDA監管更不可能介入。B類不是在監管的部分來討論,但A類以現有的法制層面還是無法介入,因而有風險。
民法的不法性從反面處理,可能是因為人和人之間沒有權利去侵害他人的權利,尤其是在憲法所保障的各種權利上面,只要是侵害就是權利受到侵害,不法性出現,從這個角度看也應該是一種正面。
若要處理自動化演算,有自動化演算機能的人工智能,需要再細分成兩個部分,要用產品責任或是特殊侵權行為。產品責任,製造商應該負無過失責任,程式設計可能會是以推定過失責任,才能讓大家勇於設計。
何之行:
上次座談有位哲學背景的老師提出,將AI類比於製造飛機(當然這兩個例子不一定要拿來作類比),認為製造飛機時同樣是不可預見的風險,所以一個直觀的問題是:AI和飛機同樣面對不可預見的風險,這兩者的差別在哪裡?為什麼把無過失責任降成「與有過失」才須負責,是鼓勵AI去創造,或鼓勵製造商有更大的空間創造?但其實他們面對的都是不可預見的風險。到底AI的製造跟其他製造商品責任的差別為何?是因為我們對機器學習本身難以解釋,還是有什麼本質的差別。這個問題我當時沒有更好的理由可以反駁,有點被說服,提出來大家可以討論一下。
王怡蘋:
為什麼在AI領域,硬體製造商採製造商責任(商品責任),還是採無過失責任。
莊錦秀:
該老師的想法其實將我說服,也就是在程式設計的過程中,可能就是採用某種物理、符號來設計。設計完以後,製造商如果按此方式製造,就是這樣的使用方法。可是在設計程式的概念中,若用無過失責任會阻礙設計,設計者通常獲得的報酬較少,製造商獲得的利潤較大。所以利潤可以平衡,就是利益衡平的概念,程式設計者收到的錢,其實是少的。產品可以透過產品責任保險來轉嫁出去,製造商不會負擔太大的風險,等同於汽車強制險的機制,將此套用在自動化AI產品上,有其可行性。但此說法的缺漏在於,如何區分「程式設計」與「產品製造」的問題,這兩者如何區分?
鄭瑞健:
就理解的脈絡下來,很像程式設計師的商業判斷規則,現在除了合作管理者以外,還有一個「機器管理者」,劃出一塊免責範圍。後面透過董事的責任保險來處理,跳脫了過去對傳統民法的理解,朝向治理的角度來管控風險。
莊錦秀:
這個觀點的出發點大概就是照你剛剛的邏輯,可是特殊侵權行為法也隨著時代變遷一直增加,因為有些東西無法管控,風險過高的時候,就會用這種方式。回到這裡,為什麼民法侵權行為的規則、法則還是一直變動?
黃居正:
在普通法系中,大家都記得在「過失系統」裡並沒有「不法」這個字眼,就是不小心做了一件低於大家認為的注意義務標準的事,而且注意義務標準為後見之明,在做的時候其實自己本質上覺得這樣做是沒問題的,結果後來大家認為是有問題的,所以當時其實沒有不法意識可言,在普通法系統就沒有這樣的看法。可是在德國法裡面,大家對於人的道德標準顯然比較較強調它的客觀性,我們這次提出來的東西其實都沒有涉及到故意行為的態樣,因為目前文獻還沒有發展出如果哪一天自主性達到一定階段,會有故意不法出現。所以剛剛談及不法的說法,如果將之化約成為比較技術性的侵權法觀點,是可以找到一個軌跡,該軌跡為法定注意義務,像醫療常規、食品標準、公共衛生條件,可能可以找到類比的東西。
我對這種制度的設計前提有點好奇,如果大家談及AI是負面的,無法控制的,或說其實它只不過是個超人類,如果用這種方式來思考,是不是應該使用結果責任或嚴格責任,或為它預設責任基金,先替它做個回饋金。
最後一點是岳平提到的因果歷程,我與制定法有很大的不同觀點。我認為因果歷程,特別在普通法裡面,是呈現出一個文明發展的結果。我的學生將過去20年來台灣法院就因果論斷的判決文本整理,結果發現台灣法院根本不論斷,幾乎都是以結果來倒推。換言之,我們從來不討論過去的經驗,包括在這經驗過程中的其他變體,以及我們本身的文化因素。譬如說地方的環境,一個鄉下醫生跟一個醫學中心醫生做出判斷的文化基礎,以及其與結果之間的關係。如果立刻用推定因果來取代這樣子難得的知識發展機會,我覺得蠻可惜的。
陳柏良:
請問老師剛剛那個因果關係研究,是研究「作為」還是「不作為」?
黃居正:
對,就是作為、不作為,只要是討論到因果關係這個關鍵詞,不管是刑事或民事都在研究範圍內。我其實最主要是做文本研究,不是做制度研究。探討我們思考裡面到底對因和果之間的關聯,如何用語言去進行描述。
王怡蘋:
有關不法的問題,至少在歐洲的侵權法中會有不法的這個要件,應是評價這個行為。人的行為本來是很自由的,那為什麼會有人的行為要去負責,所以一定要用一個不法去評價它,要去把責任加諸過去。只是在這個評價的過程,確實會有兩套規則。採行為評價,或者是像法國的方式正面評價,每一個行為構成要件對應後,就真的正面評價說這個行為是否不法。德國是比較反向的做法,就像我國民法第184條已經類型化,類型化以後變成構成要件只要成立時,我們就先假設不法,除非有阻卻構成要件的情況,否則不會再一次評價。確實在不作為的地方曾經有過很多的討論,於不作為的情況,我們是否額外的去做一個評價,至少在德國後來還是沒有成為通說被接受。
在AI的討論中,可能很多時候會涉及到不作為的情況,特別是設計者可能忽略的部分,可能就會回應到剛剛居正講的,這會是一個作為義務的問題,有沒有忽略掉什麼作為義務,或者有什麼行為準則可以被當成一個作為義務來認定?再者,常常看到文獻在討論到底誰是責任主體,是某一個人,還是真的就是AI?於歐盟的2016草案(引起很大的爭議沒有通過),確實也提到E Person的這個概念。很可能就是因為侵權責任規則發展到最後,在歸責性、因果關係等等的處理上會有問題,所以就直接把AI當成歸責的主體,這只是個猜測。我們希望把責任主體放在誰那裡,會影響到整個制度的設計。
楊岳平:
為什麼同樣是製造商品,製造AI者不想要負商品製造人責任,我認為一個很大的關鍵就在因果關係。如果我們所指的AI是有自主學習能力,這會有一個因果關係中斷的問題。相當因果關係本身雖很籠統,但於我國法院的判決中還是有因果關係中斷的概念。有無第三人介入?如果AI被當成第三人,它介入改變了因果關係,那就應該AI負責而不是製造人負責。我認為是在該理由上使AI跟製造飛機不同,製造飛機比較不會有第三人介入的問題。既然AI是第三人,是否需賦予一個「人」的身份,這樣就可以追究其責任,這就是為何一直在討論是否須給予AI一個責任主體的身份。原來的設計者、製造者,雖然因果關係被中斷,是否還需要負責?又是下一個層次的問題。
我不太確定現在保險制度有沒有辦法處理這種問題,每次提到保險的時候,第一個問題是真的有這種保險產品嗎?如果沒有這種產品,用保險來分散風險就變成無稽之談。理論上,保險要等到一個產業到一個規模,才有大數法則,才能發展保險產品,初期應如何操作,會是另一個可能的顧慮。
陳柏良:
在學習英美侵權法則時,討論侵權行為一般是有兩個政策目的,一是損失填補,一是預防跟嚇阻。預防嚇阻甚至會產生懲罰性賠償金,這就跟傳統台灣學的侵權行為法一般的原理原則不太一樣,台灣一般關注在損失填補這一塊。
我們在討論AI的侵權行為問題時,是不是要把兩個政策目的重新思考。除了處理損失填補以外,對於結果的預防或是結果的嚇阻,是不是要特別免責,禁止損害賠償,因為我們消保法有一些懲罰性賠償金的相關規定,是不是要放棄,還是要進一步加重拉到更高。
李建良:
「culpa」我們都把它翻成「過失」,但其實這個概念涵蓋的很廣,不只是過失,可能包括「不法」、「過咎」,也就是fault。以culpa in contrahendo(締約上過失)責任為例,其實上就是一種侵權行為。從我國民法第245條之1的規定可以看出,構成「締約上過失」的都是一些侵權行為。我認為這條規定將來也都有可能放在AI中,例如重要事項惡意隱匿或為不實說明(一種故意)。我認為culpa這個概念是民法或侵權行為法是很重要的一個核心概念,需要開展、建構成為一個比較完整的規範體系。
侵權行為法是要損害填補,還是具有預防的功能?值得討論,這點需要特別凸顯出來。再者,剛剛提到有產品責任法,或者是法人責任法, AI屬於哪一種?是否需一定程度的類型化?或是不一定要一般性的類型化,而是關注在與AI較有關聯的問題上。比如說,AI會不會侵害人格權,這個問題會牽涉到剛剛提到的不法性,在此會非常複雜,因為有言論自由的問題。此外,不法性不能用傳統的culpa去討論,其中可能有憲法基本權的問題。當然,我們也可以只關注在產品責任上,比如說自駕車或是金融科技的問題,在這部分是不是要稍微分類或類型化。
剛剛討論的問題,我一直在想,很多部分是否只要透過現行法的解釋就可以解決,還是需立法修法?
劉靜怡:
如果用產品責任法的那種模式來處理AI,相對就不是那麼古典,以民商法的體系或管制法的體系來講,已經是一種常規式的東西。可是在講產品責任法的時候,我們所講的產品通常不具自主性,比較接近民法上物的概念,或不會動的動產或不動產。像被AI enable的產品,它的問題與過去的產品的本質並不類似,所以不可控制的風險其實更高,產品責任法能夠處理到這部分嗎?還是說,在產品責任法必須再創另一種模型,有相應的新的責任法則出來。
陳柏良:
劉老師的意思是要把它變得傾向嚴格責任,還是更寬鬆?
劉靜怡:
我無法確定,如果用產品責任法的話,或者在雙方中可能又變成是一種侵權行為,或在侵權行為管制、產品責任跟民法中間,另外找出一個新的規範模式。
陳柏良:
像網路剛開始的時候,傾向於鼓勵,所以會給網路的提供者規範免責。我們到底是要正向鼓勵AI,給它比較大的免責空間,或是賦予它嚴格責任,因為損失難以控管。這一開始就是一個價值衡量,需做取捨。
劉靜怡:
我不認為網路開始的時候是提供免責,當時聯邦最高法院就採取wait and see模式(Reno v. American Civil Liberties Union)1。這20年來的發展,我也不知道成功還是失敗?就整個法律的發展模式是只要遇到網路的問題,就各自去尋找真實世界裡面有哪個法律可以拿來用,其實幾乎沒有真正去嘗試創造網路法,在網路規範裡唯一有被創造出來的只有IP address 跟 domain name。所以各個國家都看不到所謂的網路法,都是針對可能跟網路有關的行為,把這個行為獨立出來,用既有的法律管制。如果既有法律無法找到相對應的條文,就增修條文到既有的法律,例如我們的刑法。而民法可能是用解釋的方式,美國就在通訊傳播法去解釋title 2,這其實是一種分散式的模式,因此有個棘手的地方是,如果針對網路這個虛擬空間(當時聯邦最高法院是用空間的概念去理解)去制定法律,似乎也承認有某種的主權地位,所以必須在該主權空間中建構一個法律管制。
陳柏良:
其實有許多免責條款在裡面的。
劉靜怡:
如果仔細去看這個免責條款,意思是只要是某種行為可以免責,並沒有說在網路上所有的行為都可以免責。即使包括現在所說的假消息也是如此,但它並沒有說只有在網路上傳假消息,在某種情況下傳假消息才會免責,而是在任何情況下傳假消息都可能免責,當然這個問題可能就更複雜了。
楊岳平:
如果網路不是個好例子的話,商品製造人責任包括服務提供者責任,醫療服務跟金融服務都有特別法,都可以是無過失責任。
劉靜怡:
是,如果它不是產品,那它是不是服務?它到底是什麼樣的服務?如果它是服務的話,是不是可以用特別法?
楊岳平:
就算是把它當成商品製造人或服務提供者,也不代表一定是無過失責任,因為可以用特別法另行創造特別的責任。我無法理解該特別法目的,因為解釋不一,為何金融法為無過失責任,為什麼醫療法卻不是。是因為利害團體遊說,還是醫療風險太大?我相信誰是因誰是果有時候很難講,可能是政治上先設定立場再找這個解釋方法也有可能。
劉靜怡:
有時候需要一種特殊的管制模式,可能是歷史發展過程中暫時的必需品。比如說,國家組織內需要有獨立行政機關,因為某些特定的產業領域,特別需要專業中立、獨立超然的執法者,但請問哪個產業不需要這樣的執法者?所以有沒有可能我們需要電信的執法者是獨立行政機關,只是某個特定時代虛擬出來的東西,是一個短暫的產物。美國採用這樣的模式,但事實上歐洲不是這樣的,內閣制的國家基本上用一般的部會來管理電信業。英國剛好在兩者之間,嘗試在內閣制裡面設立獨立超然的機關,但是它還是在內閣制之下,它不叫獨立行政機關。至於我國的金管會,現在已非獨立行政機關,但它於組織法中又強調獨立行使職權。在憲法上強調,因為這種產業的管制既需要專業效率,又需要獨立超然公正,但我認為每個產業都須如此。以比較法與比較經驗的角度觀之,其實不管辦選舉、電信產業、金融產業、能源產業等等,內閣制用一般部會來做這些事情也沒有做得比美國、台灣差。所以,所謂美國的獨立行政機關的管制模式,就是歷史的偶然,可能是某種利益團體特別去推動而產生。
李建良:
會議的最後,請文聰就本次會議的主題與AI政策白皮書的關係,簡單做的總結,謝謝。
邱文聰:
我們AI發展階段為何?我們是不是因為對事實狀態都處於一種想像,所以對於很多制度設計的討論,其實難以有很聚焦或很具體的內容,而比較是架構式、framework的呈現。經過居正的報告跟各位的討論以後,我認為未偏離白皮書的任務定位,因為白皮書的任務定位就是把現在文獻、學界對於這個問題的討論到哪個階段、目前遇到的困境,做出一個我們的分析跟評價。所以我覺得從這個角度來看的話,居正跟剛剛各位的討論應該是成功的,至少我們把很多問題的層次都講出來了。
回到這一題,我覺得剛剛大家已經至少點出在侵權行為上面所牽涉的幾個關鍵議題,包括風險分配。所謂風險分配就是到底我們在很多時候要把它當成天災還是當成人禍,如果是人禍的話到底要找誰來負責,牽涉到整個社會制度如何決定風險分配的問題。所以才會說到底是侵權行為中的過失責任,是要用產品責任的模型來想像,還是要有另一套完全不一樣的東西,或者是保險,或者是補償等等。這其實是一個最上位的問題,雖然我們這個月的主題是侵權行為,但其實有前端的部分需要處理。
第二個是主體的問題,包括到底要把它當奴隸,當成動物,還是把它類比成法人,還是當成產品,這些都是我們在做白皮書的兩節,第一節是做衝擊影響的時候要去處理的,到後面才是做幾個制度選擇。比如說在主體問題上,有幾種制度選項,我們會覺得各自的選項在前面一節已經分析完它可能遇到的現況問題。在後面一節,看看我們覺得有沒有共識,有共識的話,就提出我們的建議;如果沒有共識,當然就停留在只列出有哪些選項,大致上還是要扣合著現在台灣的法治現狀來談。
從這點來看,侵權行為是個被動回應問題的制度,但這可能是在普通法下的狀態。台灣的侵權行為系統畢竟還是在制定法的框架下,從這一點來看它在處理AI問題上可能遇到的問題,以及如果要做出修法或其他新體制的建議,哪些建議是有可能的,我覺得應該是朝這個方向,不需要太拘泥於普通法下需要案子出現才有辦法去具體討論的限制,我覺得大體上可以跳脫出來。在現在這個制度底下,包括剛剛講的風險分配、主體設計、因果關係、注意義務、主觀意識這些問題,都可以以現有制度當作基礎,去討論AI出現之後有可能對這套體制產生的衝擊,制度適用上面會出現什麼樣的狀況,提出一些分析,分析完之後才是選項的問題。
就架構的部分,有幾個實體的問題,如果我們採取產品責任的話,AI會不會因為具有自主性,使得因果關係中斷?有另外一種想法認為,其實是風險創造者導入一個新的風險到這個生活事件當中,如果從這種風險導入的角度來看,可以做有別於因果關係中斷的思考。
因果關係有幾種不同的想像,與事實相反的部分到底是設定在何處,如是設定在「要不是導入這個東西,根本不會有這個結果」的話,它是有因果關係的。如果對因果歷程的做另外一種想像,可能對這個結果是不是有因果歷程會有疑問,因為我們不知道中間的歷程是如何傳遞的。
要怎麼去談程式設計者的責任,有很多種方法,那就是選項的問題,怎麼去決定說風險分配要怎麼做,可能是必須做的最上位價值決定。這個價值決定大家可能較不擅長,過去的法學訓練都是把我們訓練成最高法院法官,就會認為先wait and see。但是這個白皮書可能必須逼迫我們在這件事情上,以我們這個群體當作範疇,做出某一種價值判斷,這個價值判斷可能是在第0章要設定出來的。也是經過一年下來,我們必須要共同去看可不可以達到共識的價值。我覺得可以再往前一步,給一些理由,為什麼我們覺得這樣的價值選擇會比另一個要好,這當然是主觀上的期望。
回到產品責任的問題,居正有問到區分製造跟程式設計兩階段,是不是一個恰當的模式。我認為這樣的區分可能會越來越困難,比如說醫療部分,現在很多軟體本身就是醫療器材,或是說醫療器材形式上就是以軟體出現,叫做software as medical device,software本身就是器材。所以你說它是製造還是programing的階段,其實已經很難做出明確區分。不過,我們要的風險分配模式是什麼?我們要用產品責任的模型來想像它,還是要用其他東西來想像它,這是我們最後可能必須做出的決定。
當然在第一節部分的分析,我們就必須說明,它可能對既有產品責任的制度衝擊是什麼?如果是在傳統侵權行為下,對每個構成要件帶來的衝擊是什麼?至於保險部分,可能現在沒有保險產品,但未來的發展值得關注。我嘗試把大家剛剛的討論放進AI白皮書的脈絡中。