人工智慧與法律規範學術研究群
第二年期(2019-2020)
第十一次會議(主題二)
2020年5月28日(星期四)
主持人:李建良(中央研究院法律學研究所特聘研究員兼所長)
主講人:黃詩淳(臺灣大學法律系副教授)
◎ 整理:邱筠雅
◎ 定稿:李建良

AI在民事程序的具體運用
接著(主題一:AI與刑事司法系統,主講人:蘇凱平),以下我從AI在民事程序的具體運用講起。我所謂的民事程序,主要是以法庭內的審判活動為主,最後會略微提到審判前階段的調解、和解,以及在前階段的legal research,AI會在此起到何作用。
講到AI在民事審判、民事程序的具體運用,如同剛剛凱平老師所述,一般人的第一反應是AI是否可以當法官?雖然愛沙尼亞有此計畫,但就我查詢到的資料,目前還在建置中,而且打算是限於小額契約的紛爭。我會再仔細檢討民事程序的每個步驟,可能會發現AI在某些事上是可以勝任的,有些事情還是沒辦法,距離AI變成真正法官還有一段時間,我是持保留態度。
愛沙尼亞機器法官預計適用在7,000歐元以下小額契約紛爭,使用方法是兩造當事人分別上傳自己的相關文件資料後,由AI法官判決,之後如同凱平老師所述,當事人可以再上訴到二審由人類法官審判。這個系統是由Ott Velsberg所建置,他目前是一位博士班學生,已經擔任了愛沙尼亞的首席資料官,2018年八月受僱於愛沙尼亞政府。愛沙尼亞政府認為自己公務員人數太多,將實施裁員計畫,並導入AI到各種公部門領域,希望AI可以取代部分人力。此系統尚在實驗建置中,預計完成後,先給法官、律師適用,再依據他們的意見加以調整。
雖然這不是第一個結合AI與法律的例子,卻是第一個給予AI決策權限的例子。根據分析,該國之所以可以做AI法官,有兩個前提:一是該國有National ID card system,二是國民已習慣操作線上投票及報稅系統。再來是政府資料庫間互相連接資料,國民也可以登入系統,看到哪個政府機關使用他們的資料。這樣的密切連結及資料共享,曾經發生過資安上的問題。在2017年鑑於該系統的脆弱性,所以更換全民的身分證。不過,該國政府還是宣稱這並不是個重大問題。在民事程序中,法官需要判斷證據的價值,接下來法官須從證據中認定事實、適用法律,並判斷法律效果,上述步驟AI能夠做到嗎?接下來,我會進入較細的分析。
1. 要件事實的法律推論模型(Rule-Based Expert System)
首先介紹的是凱平老師剛剛提到的第一波AI,也就是第一個世代,AI如何與司法系統結合、幫助法律。當時的發展方向是建置一個系統,即Expert System,一種專家系統,主要是以法律構成要件,還有證明構成要件成立的要件事實為主的法律推論模型。專家系統會依照法條規定,將法條的構成要件輸入機器中,再以邏輯表達建立推論模型。使用者需要做的是輸入自己的問題,透過這個系統跑,最後得到使用者的案例是否適用該法條的結論。例如是否有罪或是否能得到損害賠償。這樣的系統建置必須依照法律條文規定,把構成要件都輸入,需要人類的法學專家與工程師一起,把專家知識儲存機器中,才能解決法律問題。建構方式、模式形成問題,模擬法學專家思考過程,建立模型,最後得到一個解決方法。
「表格一」是為表示以一種規則為基礎的專家系統是如何適用的,譬如民法、刑法、刑事訴訟法這三種條文,大概可以區分成法律要件與法律效果,通常用邏輯推理是「如果」(if)法律行為背於善良風俗,(then)等於無效,大概就是整個系統的邏輯。
關於專家系統,有一個實際的例子:Waterman’s product liability expert system,這個系統想要解決的問題是,身為一個消費糾紛的消費者,在與廠商談判後,是否應接受對方提出的條件同意和解。這系統就可以讓消費者輸入相關事實,然後給出可能獲得的和解金金額。於是,系統使用者取得據以與廠商談判的基礎,應用方法如同剛才所述,消費者先輸入與產品責任相關的案件事實,系統會推薦和解金與分析結果。它背後的運作模式與思考邏輯,會建置很多的規則,也就是將產品嚴格任的要件都做成規則,目的是讓系統判斷消費者的損失是否得該當產品責任中的損害,以及後續是否得對製造商主張無過失責任。在此(圖一),首先系統需判斷事實是否該當損害即lost,第一種是Rule 3.1,設定如果損害人身傷害就該當,第二種Rule 3.2是損害是生命的情形,第三種Rule 3.3,則是財產生的損害。如果損害確定後,Rule 4則是將無過失責任,即嚴格責任的定義用End表達構成要件,這些構成要件中包括損害必須符合特地的類別,就是上述規則三的其中一種。第二個是例如產品製造人必須是生產者、販售者或是出租人中的其中一種,他們必須會產品的使用負責,接下來是法律必須有管轄權,購買時物即存有瑕疵,最後是商品從製造到出售皆無改變,符合這些end全部條件之後,最後用then輸出結果,就是原告的損害可以主張嚴格產品責任這樣的結論。實際再操作一個事件或案件時,使用者輸入各種事實與產品責任相關的事實,讓系統判斷是否有損害、被告是否應負擔無過失責任,以及可能的和解金額。W-LES系統的缺點是,首先法律適用在美國有不同管轄,有概念是不明確的,機器可能無法很好的判斷,例如可以發現圖一在右邊右下角,一個條件是被告的期待要有合理性,什麼叫做合理性?這就是不確定的法律概念。再者,機器有時無法完全確定事實是否能適用該法律,很多因素可能會導出結果可能會是不正確的。
同樣的思維在日本也獲有一定的發展,我舉出的例子是一位在日本的國立情報學研究所一樣叫做佐藤健的教授,他做出的Proleg系統,Proleg是Prolog這樣的程式語言所根基的一樣法律推論支援系統。佐藤教授具有資工與法律的兩個專長,第十一頁的圖展現的是他用proleg語言製作的專家系統的示意圖,這次系統處理的是日本民法第612條,也就是當承租人未經過出租人的承諾轉租他人時,出租人得否終止租賃契約的解釋適用,台灣民法第443條也是類似的規定,根據他一開始列的六個要件,要行使終止權須符合此六個案件,中間的文字大概是這個案件要件一到要件五,原告都已經證明成功了,但是在要件六雙方有較多爭執,案件中被告承認原告有對被告表示終止契約,在是在平成21年6月18日做終止的意思表示,但是被告抗辯原告承諾被告轉租,後來被告就做了這個主張。接下來系統又增加新的兩個要件,再倒數六七行,他要符合兩個要件,一個要件是確實是有承諾轉租是在何日,第二個要件是承諾的日期必須先於真正轉租行為的日期,結論是被告無法證明上述事實,故被告上述轉租承諾的抗辯沒有被認可,最後的結論是原告的終止契約有理由。上述幾個專家系統都是將法律條文的構成要件,還有要證明這些構成要件存在的主要事實或稱要件事實預先輸入至系統中,以此系統為例,舉證的成功與否還是要由使用者,可能是法官或是輸入者判斷在輸入是否證明成功,系統才能繼續往下個要件審查,這樣的系統是沒辦法取代法官的,甚至是否得減輕法官工作負擔都有疑問,所以此系統實質上的功能,較像是作法學教育、幫助訴狀準備或是判決書的做成而已。專家系統之問題如此所示,對於不確定與不完整的資訊往往不可靠與不能概化,而指引規則是不確明確的,如我們剛剛所看到的合理性,就需要進一步的解釋,甚至是會因為時空的變化而有新的可能。第二個專家系統不能普及,原因是太過昂貴而沒有效率,每做一個系統就要耗費大量人力建立規則,故只能用於很小限縮的特定領域,很多的法律爭議,例如利益衡量是無法用邏輯推論模式表示,就算能夠用人力窮盡一切規則,前一世代的電腦硬體上的處理能力不足,所以專家系統並沒有非常成功。
條號 | 法律要件 | 法律效果 |
民法第72條 | 法律行為有背公共秩序或善良風俗者 | ,無效。 |
刑法第352條 | 毀棄、損壞他人文書或致令不堪用,足以生損害於公眾或他人者 | ,處三年以下有期徒刑、拘役或三萬元以下罰金。 |
刑事訴訟法第158條之3 | 證人、鑑定人依法應具結而未具結者 | ,其證言或鑑定意見,不得作為證據。 |

2. 證據資料之評價
證言跟證物的評價,在這部分可能會比較困難,因要綜合聲音跟表,綜合判斷此證言的可信度,這樣的評價是否可用AI為之,或許有進步的AI可以判斷是否有說謊,但問題在於AI沒有辦法判斷這個人是不小心說錯還是聽者有誤解,AI也沒辦法判斷這個人是在記憶或認知上面有錯誤,這部分的證言是否與他部分有矛盾。也沒有辦法理解證物的意義。
3. 事實認定
訴訟上面的待證事實可以分成間接事實、直接事實。
直接事實:可以用該事實就得出法律構成要件
間接事實:需要藉由經驗法則推認出主要事實,間接事實不是主要事實,而是非法條的構成要件相關的事實,沒有辦法直接發生對於事實真正存在或不存在的效果。例如PROLAG租賃契約終止系統之中,要件一:原告有租賃契約,租賃契約就可以當作直接證據,雙方有租賃契約是一個直接事實,但如果原告今天拿出的是每個月的匯款紀錄,就是間接事實,必須要透過審判者經驗法則的運用,再配合其他的要件,才能夠推論要件事實的存在,必須跟其他事實交互作用才可以推出主要事實。
日本的民訴學者者指出,AI可以透過大量整理過去的案例,藉由機器學習深度學習這個演算法,把個別紛爭類型模式化,輔助認定要件事實的存在,也就是去大量分析過去的例子,例如說租賃契約的案例裡面,確實也都有匯款的紀錄,足以證明雙方契約的存在,也許就可以證明,AI可以幫助我們這樣推論。
綜合以上所述,要AI從所有的證據裡面判斷出事實,因為其必須去透過知道當事人的表情、其他各種資料,是沒有辦法透過學習判決書達成的,原因是,就算讓AI讀裁判書的內容,其學習到的是法官揀選出來所要刻意評價的事實,推論的pattern雖然有用,但可能沒有辦法作為學習的材料,所以學者認為可能只能作為偵錯的手段,要取代人類可能還沒有辦法。
4. 法律適用
在此階段可以達到更好的效用,更能夠做出沒有矛盾的判斷,透過大量學法律適用過去的案例,可以提出跟過去的裁判、相整合的結論。
範例一:針對歐洲人權法院判決進行機器學習,讓機器學習法院適用法律的結果,有79%的準確率。
Prediction of EctGR Judgement
選擇了跟第3、6、8條相關的判決,每個條文所涉及的案件數量並不一樣,此研究最大的突破點,就是直接使用法院的裁判書來訓練機器。他們的作法是讓機器直接去讀文字,他們將每則判決按順序分成Procedure、事實的部分Circumstances(事實背景)、Relevant Law(公約、內國法)、Law(原被告雙方的主張、歐洲人權法院自己的法律推論)、Operative Provisions歐洲人權法院是否違反公約的判斷,但為了驗證機器是否有學習正確,研究者將Operative Provisions也就是類似我國的主文的地方拿掉,因為其是最明確的說出違反公約與否、違反第幾條的地方。主文這個部分就被排除。
研究方法是把每一則判決做成磁帶、再做成一個又一個的矩陣,透過機器分類,去判斷這則判決是符合公約的、還是違背公約的。在其研究結果發現,透過學習Circumstance段落,準確率是最高的。為什麼會發生這樣的結果,研究者認為,因為法院判決書中的事實,已經不是純然的事實,而是法院已經揀選過,所以有一定的特徵,機器比較好學習跟歸納。法律歸納的段落為何學習效果不佳,可能是因為許多判決裡面根本沒有Law的段落,原告根本沒有理由,從這個段落學習根本沒有效果。
範例二:應用Natural Language Processing於中文的判決
中文的裁判跟英文的裁判的差異在於,中文必須要兩個字才能夠構成一個詞,所以中文必須要先segment分詞,需要自然語言處理的技術,再從比較重要的詞彙,做成磁帶,再讓類神經網絡去學習判斷人類法官的判斷結果,此研究的目的和實證研究比較不同的是,並不是要找出法官酌定親權的時候重視的因素或邏輯推理,而是想知道機器是否可以做出相同的結果,如果不問過程只問結果,機器可以做到多少?
與歐洲法院裁判的研究類似,並非給予機器全文,因為全文非常複雜,會有很多跟親權酌定無關的部分,所以是用人工剪下判斷親權酌定的部分,而且並沒有給機器社工調查報告的結果。首先先進行分詞,很多分詞是正確的,但是有可能會有一些錯誤的地方。
段落包括法院認定的事實還有少數一兩句適用法律的結果,由OOO單獨任之,始符合最佳的子女利益。但機器不會知道聲請人是父親還是母親,而是必須自行從其他的地方判斷。
作法剛才類似,其先將其作成DTM再用ANN類神經網絡分類,此為一個二元的分類器,其準確率大概可以到77.25%,實際上與歐洲人權法院判決的結果差不多。如果再將原被告是父或母讓機器知道,準確率從77%提升到79%。機器可以從裁判的文本當中去讀出有意義的資訊,並不是要用來取代法官,而是用來提升裁判檢索系統的效能。如果能夠讓機器可以去讀裁判、理解法官裁判的結果,可以有效提升效用。
可能有另一個意義是,也可以在事後區辨,有些法官的法律適用結果其實跟別人不同,也就是比較主流或是特別的裁判。
AI能不能夠協助法官找到一個比較可預測的結果?
在慰撫金金額的酌定,張永健老師的研究中,以統計的基礎,統計也就是機器學習的基礎,也是AI可以協助的地方,也許使用預測模式,就可以設計出賠償金額試算的app,就具有可預測性,就可以大概算出慰撫金。
另外也做過離婚的無過失配偶的慰撫金的回歸研究,金額的部分通常是使用迴歸統計比較多。其他可能應用的場景,只要是跟金額有關的,AI可能都可以派上用場,比如說贍養費、老親扶養費。
另外一個可以提供參考的法律效果的部分,就是過失比例的探究的部分,之前有一個研究是在探討在車禍財物損害,法官如何判斷雙方的過失比例。其使用盡可能多的情狀,尋找影響法院可能影響的因素。
AI在online dispute resolution(ODR)的使用
從交涉到調解
在交涉階段,申請人可以先提出幾個方案,相對人可以選擇接受方案,或是不接受,不接受、提出新的方案,若有提出新方案,交涉過程繼續,拒絕或沉默,交涉終止。接下來可以請調解員介入,根據其主張和期望提出可能的方案,如果可以接受的話就把結果寄到雙方的信箱裡。這個階段尚沒有開發出AI,他們希望能夠擴展到另外一些類型的紛爭,例如消費者紛爭,勞工紛爭、家庭法、行政法紛爭之類的。
- AI在ADR程序的貢獻有很多功能可以期待,
- 對於事實關係進行初步的整理:可能需要更進一步的發展,如同前述對於證據的判斷,AI比較欠缺這樣的能力。
- 適時提出解決的參考方案
- 作為紛爭前解決工具,可以減少訟源

AI在司法程序應用之優缺點
優點一:訴訟前紛爭解決
透過ODR系統,協助解決小額紛爭。因為其在法律資料檢索的功能,律師與當事人可以快速的評估要不要接受和解方案,日本在這方面的研究,法律的效果如果非常明確的話,例如因為交通事故車禍住院的天數對應損害賠償的金額,似乎是可以得到明確的金額。不只是交通事故,父母離婚未成年的扶養費,也發展出簡易查表式的東西,通常權利人都會是母親、義務人則是父親,通常會因為義務人的年收、兒女的年齡就可以查表得到義務人需要給多少扶養費
Ramseyer認為,日本車禍侵權訴訟量少,是因損害賠償程度的金額已經非常清楚,不管是行為人或是被害人,都很清楚知道要多少賠償,所以就不會輕易走入訴訟。如果AI可以很明確地計算出要多少賠償的話,可能就會影響當事人使用ADR或是訴訟。
優點二:擴大Access to justice
因為AI的介入使得使用法律資訊的門檻降低了,這是一個democratizing the legal profession,可以讓一般的人很容易的取得法律服務,但法律跟服務的成本降低,會受惠的並不只是窮人,有錢人仍然可以使用這些東西來鞏固這個優勢。
另外一個角度來審視,如果使用AI或其他自動化的技術,可以讓原本沒有辦法解決、律師也無法介入的法律爭議,就可以被認真的對待,比如說AI可以協助一般人,可以協助其無法靠單一力量解決的問題,公益團體設置AI介面,對特定企業之要求,例如定型化契約的不公平要求,因為消費者的人數夠多,就會讓大企業能夠正視這個問題。這些事情是過去一個消費者做不到的。
日本最近在進行日本民訴IT化的改革,大概也是在expanding access to justice的文脈底下進行的,希望可以透過此次改革,實現妥速的裁判,讓民事裁判的服務更能夠讓一般的使用者所使用。
缺點
- Digital Injustice
- 資料的取得方式,是否侵犯他人的隱私
- 資料偏誤的可能性
- COMPAS延續了人類的偏見,使得AI做出的就是帶有偏見的判斷。
問題與討論(敬稱省略)
主題一:AI與刑事司法系統,主講人:蘇凱平(臺灣大學法律系助理教授),參見 https://ai.iias.sinica.edu.tw/ai-criminal-law/
李建良:
謝謝凱平、詩淳兩位老師精彩的報告。聽起來,對於是否使用AI法官似乎觀點有異,凱平老師較為樂觀,而詩淳老師則是比較保留。
邱文聰:
沿著剛才李老師的觀點,存在不一樣的差異,從一個點來說,凱平老師對於AI可不可以認定事實顯然較為樂觀,但詩淳老師的則是覺得很難做證據評價,我的看法是,要把一個複雜的社會生活事實,剪裁成一個法律事實,的確不是那麼容易,凱平老師如此樂觀的原因是什麼?
另外一個凱平老師提到的,現在AI談的一個black box欠缺可解釋性,跟我們要求模仿法官的AI去給出一個像是法官在判決上給出理由,其實是兩件事情,其實還是可以模仿給出像是法官的決策的過程,在第二波的機器學習是可以做到的,但是不是真誠的是真正的腦袋得到的,的確在外觀上面應該已經可以做出給理由的地步,但真正的挑戰,凱平老師說的不確定性,反而這是AI的優勢,因為不應該允許這麼多的不確定性。
提出一個不同的觀點,並非用不確定性來看待,而是應該是用典範的移轉來看待,他disprudence的差異,因為不同社會文化脈絡的變遷而有所改變,所以可能會有所改變。現在第二波會面臨的挑戰是,我們到底允許多少典範移轉的可能,讓AI法官得出沒有變異性的結果,願意用多少代價去換這樣的東西?
針對詩淳老師的部分,想請問,剛才提到的針對歐洲人權法院、以及您做的磁帶的學習,我不是很確定,似乎強調的法院的主文去隱去掉讓機器去學習,在老師自己的研究是不是也遮蔽掉,透過自然語言是不是可以讀懂語言,是不是只是在做這樣的一個研究,
不是像凱平老師所說的去做,包括法律適用的涵攝之類,這個研究到底是supervised learning還是unsupervised learning,這裡可能還需要更多說明,到底要讓她學到的是什麼?
蘇凱平:
在這些法律科技的寫作很容易反映作者的信念,還是主觀的希望可以完成這樣的研究。從細部的要件裡面可以去分析,AI法官通常會當作一個整體在想像,通常會把AI的方式的想像,會想說:「因為人類法官是這樣想的,你就必須要這樣,不然就不能操作。」這會比較像是當我們學習新的語言,必須要達到母語程度,可能必須在某個年紀之前,必須在那個地方生長,如果用這樣要求,在AI身上就會很奇怪。
比較想要將他拆解成:一個刑事庭法官的判斷需要哪些知識,腦袋會怎樣運作,從這個部分去看看他是怎樣的過程,所以一定有些部分是AI作得到的、但也有很吃力的部分,在這個投影片說到的,事實關係的段落最好預測判決的結果,其實是相輔相成的去說明這個情況,至少代表一件事情,AI在讀事實關係的理解時,是可以做到相當高的程度的。
探討一個實務家是怎麼樣去理解事實的時候,就是一個把它轉變成法律事實的過程,他用的是歸類跟推理的能力。怎麼樣透過以人的話、腦神經元的運作,以機器來說就是機器學習的方式,怎麼樣去把社會的生活事實,將社會的抽象性、一致性剝離出來,建立符合法律要件的法律事實,從這個方法來說,AI是可以作得到的,可以從事實裡面剝離出法律的要件,的確就我的了解是可以做到這件事,但準確率可能要再回測,這個報告的重點是,這個實現的可能性有沒有。
法庭AI說實在得到的資源非常少,得到資源很少,會讓其進展的速度不會這麼快,以目前人腦的運作方式,透過人機共作上面,就應該是不排除他的可能性,比如說剛才有提到的證物,AI是不能理解的,但就會想要進一步去理解,證物這件事情,人類是怎麼去理解這個東西的意義的?
人類如果看到一把刀,會怎麼處理?比如說,刀上面有指紋、指紋有做鑑定。如果是這樣的話,可能就能想像機器是作得到的。
只是說就目前,就可以隨手拾得的例子來看,其實目前審判過程中,大部分情況可以想像有些類型AI是可以操作的,在第二波的second life to AI,現在的AI可以做這些事,現在有很多的APP,去年2019 LAWSNOTE去辦了一個黑克松,裡面就有很多組是做法律文書的生成系統,設計的邏輯是幫助律師寫書狀,一樣的就是去寫書狀、梳理事實、打草稿,再讓人類律師去編纂,英國美國法國中國都有相似的商品出現,但多是商業導向。一樣的原理其實就可以用在法院寫判決上,法院寫判決的時候可以從中拼湊出一個reasoning,確實是在第二波沒有辦法達到的。
我們不會去問人類駕駛開車的時候,有沒有喝酒、精神好不好這些問題,但自駕車系統我們卻會不斷地去詢問這些問題。所以就是說,技術擺在面前,AI可以提出一個判決書,但就是一個black box的方式,那在第二波的技術階段,就是去說服這個是一個好的,即使是black box,但判決書很有道理。但到了第三波,到一個white box的狀況下,有沒有辦法去跟當事人講,為什麼去做這個結論。如果在這個沒有任何原因的狀況下,所謂上級審的法官其實就只是覆審,重新做一次判決而已,因為沒有判決理由,理論上人的法官就有可能去講說,原本的機器法官太考慮這個因素了,衡量這個因素不考慮這麼多,量刑輕一點。這種事在第二波做不到,但第三波可能就做得到。至於說交出一份判決這件事情,可能第二波就可以。
我們值不值得為了達到判決的一致性跟一致的平等的價值,放棄典範移轉的可能性
有沒有可能在透過機器法官參與一部分的事實認定過程中,像詩淳老師提到的,會發現一些人類在平常的狀況下不會發現的型態,這件事情是可能的從而促成典範轉移。
如果透過AI去加入,可以去揭露人類的思維型態,在一些判決中,在大數據上就可能會顯現出性別、種族在審判上的差異,透過AI去發現自己的偏見,這是未來透過此促成典範的轉移。
黃詩淳:
接下來我就回應一下文聰老師所提出的問題,文聰老師剛才是詢問說歐洲人權法院的研究結果跟我們用中文的裁判書的去做研究,有什麼樣的異同,相同我們都是刻意的去隱匿了裁判的結果,例如說歐洲人權法院的研究當中把主文遮掉,我們也是這樣做,因為如果把主文直接放在機器讀取的文本中,機器自然會知道說他以後會建立一個pattern,他只要讀取那一句話,他就可以知道結果會是歸父或是歸母,結果是違反或不違反公約,這樣子幾乎可以說他猜對的機率,或是預測準確的機率會接近百分之百,那為了避免發生這樣的結果,我們都把主文的段落都拿掉了,但同樣的兩邊的研究都沒辦法避免的缺陷,就是我們的法律推論的部分,不免得最後一句話都還是法院完整的論述,他一定還是會說這件事情是不是違反公約,或是這一個案件由誰來擔任,由聲請人還是相對人來擔任親權人,比較符合子女的最佳利益。這樣的段落是會出現的,只是在我們研究裡面,機器沒有辦法直接從這個段落裡知道這是父親還是母親,他必須要知道其他的詞彙來做推理和reasoning才有辦法,比如說,在我們餵給機器的法律段落裡面,法官很可能會講到說,例如未成年子女出生至今,都是由誰誰誰,例如由聲請人擔任主要照顧者,然後相對人未盡父職,類似這樣的用句,他們是會使用,所以如果說機器學習他人,他能夠知道說都是由誰擔任主要照顧者,於是大部分結果都會是歸於那個人,那個主要照顧者,也就是那個申請人的話,那他就會建立一個這樣的堆論模型,就是凡事只要提到要照顧者是申請人的,他就猜是結果歸屬申請人,這我想這是他學習pattern的一個方式,那我們的機器學習的演算法都是supervised learning,都是監督式的結果,也就是為了訓練他建立這個pattern,這個模型,我們在一開始會先給百分之,例如七十的資料是有結果的,那剩下的百分之三十的資料做為測試,也就是機器不知道這百分三十的解答是什麼,他要當學生去應考一樣,去作答,最後我們在看這百分之三十作出來的準確率,正確率是多少。
文聰老師剛才也詢問說:「那於是我們這兩篇研究能夠得出什麼樣的結論?」我們不會說我們已經知道了人類的法官是怎麼樣推論,也就是我們沒有辦法從這個文字探勘的結果很快速、或是很直觀的告訴使用者說:因為他是看到主要照顧者,所以他認為親權是要歸屬給主要照顧者,我想並不是這樣,原因是文字被切的很細,那到底機器是用什麼樣的方式去理解,他會得到這樣歸屬到父或母的結果,說真的我們不知道那這也是AI演算法,類神經網路演算法所不可避免的一個黑盒子的批判,那為了解決這個問題,我們可以嘗試去換別種演算法,比如說比較透明的決策樹decision tree這樣的做法,那有或者我們有做過另外一種嘗試,我們讓機器不要自己去切單字,然後用文字去做,相反的我們是用人類介入,就是說我們看完整則判決之後,把法官依據判決的這些事實都編成是數字的編碼,那然後呢我們希望機器去計算出,到底這些事實,是用了什麼樣的方式影響了最後判決給父親還是母親的結論,那在後面這種實踐的過程裡面我們就發現機器猜的準確率高出剛才的文字方法非常多,機器可以建立正確率很高,到94%~97%的準確率,他可以去預測到結果,他也可以透過決策樹去畫圖方式, 去告訴我們說,因為他算出第一個最主要的分別點會是主要照顧者,所以是因為主要照顧者,所以才判斷這個結果是歸屬於父或母,所以他是可以告訴使用者他到底是基於什麼原因而判段出最終的結果,因此,剛才的報告當中,對於AI運用在抽象涵攝的能力方面會持比較樂觀的態度,那如同文聰老師所說的,這邊我是樂觀,但對於AI怎樣從個別的證據,去推導出整個案件的圖像和事實是什麼,這邊我就比較沒有把握,但這也能是我學藝不精,比較沒有接觸到另外這一方面AI運用的方法,所以我今天就比較不敢提那個部分的東西。
不過,感謝凱平老師剛才在後續的補充當中有提到證物的認定那方面,也可能讓AI建立學習的可能性。最後我想呼應一下凱平老師,他有提到一個很重要的概念,也是我很認同的概念,就是人機共做或是人機協作這樣的一個的想法,即便AI不可能完全取代法官做一連串的審判工作,但是會不會在某些細部的程序上面有了AI的幫助之後大家可以更快速、更有效率、甚至是更正確地得到結果,或許某些案件是可能的,但是最後還是要連結到凱平老師說的最後的問題,我們能不能接受一個機器作為審判者,這樣的一個角色的存在,這個問題這就不是AI技術面的問題,而是人民對於AI角色的期望及信賴與否的問題。
楊岳平:
其實我滿同意剛剛凱平老師和詩淳老師人機共作可能是接下來司法審判第一步可以先去努力的方向,不過還是想要挑戰一下凱平老師提到再進階的問題,就是有沒有可能讓AI扮演更多司法的角色,我覺得是不是進一步去挖下去就是陪審團得比喻,對我來說陪審團大概跟AI有兩點很類似的部分,剛好就是凱平老師提到AI的兩個弱點,第一個是抽象涵攝的部分,第二個是說明理由的部分,但是如果我們思考陪審團的運作模式的話,其實在這兩點上頭陪審團也基本上是不附理由的在做事實的涵攝,但也因為他不附理由,所以說實話他做事實涵攝是對是錯、是否值得同意其實也都不知道,那我們也知道陪審團來自四面八方,也不一定是受過法律訓練的人,然後他對於事實的涵攝,說實話我們法律訓練也很少訓練事實涵攝這一部份,所以其實某種程度上來說,我覺得我們對陪審團和對AI用了不同的標準在看待,當我們相對可以接受陪審團不附理由的去事實涵攝,這時候我們對於人工智慧好像給予更高的標準,然後用一些我們可以接受陪審的理由來挑剔人工智慧,那我想問題還是回到就是凱平老師跟詩淳老師剛剛結語的時候都有提到的問題,就是因為我們人類先天好像不相信AI,然後好像相對更相信人類。
像凱平老師所說的,即使數據可能證明AI的正確率比人類高,比如說在自駕車這種案例,我們還是先天的不相信AI,即使我掏得出數據來告訴你我的數據比較好,我其實是比較可信的,但你還是不相信我,那我們還有進一步的有什麼方法可以去建立他的正當性,也許這跟正當法律程序怎麼建立有關,也許這是人民信賴的問題,像是一些心理障礙的問題。
我自己想了一些例子,其實我們人類生活中,有很多時候是真的無條件相信機器的。我們其實不真的真的,比如說剛老師們說到回歸統計,我們其實在跑回歸統計的時候也是用一些軟體,我們其實也不是真的回頭去驗算了他,但是在經過一定程度的信賴之後我們相信他跑出來的都是對的,那甚至有更多更進階的,我們不是那麼清楚這個機器是怎麼運作,但是我們一般人類,其實在很多時候不太了解機器運作的情況下,他也會無條件的去相信他。或許是因為某種專家背書,Maybe是商品認證等等的,現在有沒有可能從這個角度切入去讓一些所謂的司法AI系統,在經過一定程度的測試之後可得到人類的reliability、的信任,或者是另外一種像陪審團的做法,就是那如果我們不要用一台AI,我們用十二個不同品牌的AI,如果這十二個不同品牌的AI,都跑出來一樣的理由,就像十二個不同的人類,但是做出相同的決定,這時候我們是不是會比較信賴他,在想像有沒有什麼可以突破這信賴危機或是信賴問題的方法,這是我大概的問題,不知道幾位老師有沒有什麼想法?
邱文聰:
我可以回應一下,岳平老師的說法指出了說,凱平有提到就是說,因為自駕車可以減少更多的肇事,但我們還是不太希望去使用它。當然這也是剛才所提到confidence得差異,但是這事情還有另外一個層次的問題,就是我們到底要放棄多少開車的自由?就是說開車對我們來講他可能有很多不同的目的,有的時候就是純粹工具性的目的,我要從A點到B點需要一個交通工具,所以如果這是你想要的東西,你最好坐上自駕車,但是當你希望你從A到B,你想要放鬆一下,你想要開車感受一下奔馳的快感的時候,自駕車不可能帶領你這樣,所以當我們在討論說有多少人的社會活動可以被AI取代的時候,可能要討論的層次不只有剛剛我們去規劃出來他到底多reliable ,或是說他在某一個單一面向上面perform有多好這樣子而已,他其實還牽扯到很多其他人類社會的生活要追求的價值,那這是我對這個議題的問題或是他評論的回應。
那針對剛剛詩淳老師的回答兩個Study跟歐盟那study回答當中我還是有點不是很明白,但剛剛有得出一個結論,就是你們做得跟歐盟法院做的是為了要測試自然語言處理到底有沒有辦法去理解某一種表述的方式,那這個表述方式他可能是法院的判決,那我們當然可以用在語言來讀,看你有沒有讀懂紅樓夢裡頭的某一段話,你有沒有辦法去斷字,去理解說原來紅樓夢那一段話的意思是這樣,所以基本上我們在談說我們有沒有辦法用AI來模仿法官去適用法律,這整個論證過程好像不太一樣,所以你們剛所講的supervised learning卻是遮蔽掉法院判決結果,這就跟我或剛剛前面凱平在講的說用AI來做判決,好像是不太一樣的問題,但不是說你們的study跟歐盟法院判決的study是沒有任何意義的,不過我還是有地方覺得對於詩淳老師的study,是不是有誤會了你們的study想要達成的目標?
黃詩淳:
老師理解的非常正確,自然語言處理的那兩個研究,確實都是只是在測試機器是不是,用個比方,機器是不是可以達到與人相同的閱讀能力,看完了那段之後,可以知道法官打算把結果判成違反公約或不違反公約,把親權給父親還是母親,所以用白話一點講就是測試AI的閱讀能力是沒有錯的,那這個確實是那兩個研究的目的所在,他並不是在測試那個機器可不可以做出跟法官一樣的法律推論,那我今天比較沒有說明,因為沒有時間的關係,還有另外一種作法,我們做過的,那是完全不一樣的,是我們不讓機器去讀文本,我們不是要看他能不能讀懂文本,我們想要看他的是,我們想要知道的是,他能不能夠像法官一樣看到各種事實之後推論出一個最終的法律的結果判斷,那我們給她的事實是經過人類編碼轉換過的事實,當然都是各個判決上面法院認定的事實,比如說主要照顧者今天是父親還是母親,就看判決裡面法官提到誰是主要照顧者,我們就標示,標示出主要照顧者是誰。再來法官也會他提到說提到考量了小孩人在是媽媽家或爸爸家,我們也標進去。再來他也會說我們考量到父親的親職能力好或不好,我們也標注進去。法官在他的裁判上面都提到過他考量過的事實,都標進去之後,然後透過機器的演算法的運算,然後我們請機器去預測這個裁判最終會是給予父或母。這樣的一個過程就是跟剛才的那兩篇研究不一樣,這樣的一個研究我們就是想要探究機器能否模仿法官的個推論,的結構的順序,然後同樣給他一樣的事實,他就能夠得到最終判決的結果為何。所以這一個是另外一個類型的研究,如果說要討論法律的適用的話,應該是要那樣的研究比較適合,比起我今天舉的這兩個透過自然語言的研究,確實是比較沒有那麼恰當。
蘇凱平:
就剛岳平老師講的簡單做個回應,剛所提到的那個陪審團不附理由,根據最近的討論,我國民眾,不只是民眾,我國學者與不太能接受,就是不附理由這件事情,因為最近不是在討論國內應該要採參審制還是陪審制嗎?那就把不附理由這件事情包括在歐洲人權法院可不可以接受都拿出來討論。這是最近的新聞在刑事訴訟領域在討論。所以其實像Richard在他的書裡面他有提到說,分析AI科技在法庭上,特別是法官,最為法官一部份的工作的可能性,他有提出五個部分的斟酌:技術上的、道德上的、法學上的、還有commercially,商業上的、文化上的,那我覺得其實像陪審團或是AI,都是在文化上面與我國的現況來說,我覺得會有比較大的困難的地方。因為哪怕說是採取陪審團不負理由的方式,大家在文化上不知道可不可以接受,更遑論是AI現在的狀況。那拿陪審團來做類比,就像岳平老師講得,就是想要凸顯說,這至少在邏輯上或是在經驗上,都不是一個不可能的事情,並不是說,你現在不能很清楚地解釋你達成結論真正的理由是什麼,我們沒有辦法清楚的了解,我們就要完全不考慮他的可能性,我想這不是真的人類社會排斥AI作為法官或是承擔一部份任務的理由,我想那不是真的理由,那至少是非常表面的理由,這麼多的國家採用陪審團制,而那種陪審團制是不需要給的理由,但還是有人可以接受啊,那老師提到人類不能接受沒有理由的判決,這可能不是真的原因,所以這我是同意岳平老師的觀點。那岳平老師的提到的另外一個事情很有意思,就是說要怎麼去突破這一點,我其實比較覺得有趣的就是我剛剛提到的就是在司法方面的投資,其實在數位化上面,AI上面是比較少的,也就是說講的比較好聽一點就是非常前瞻性的研究,就是因為大家覺得這的這件事情不急,在愛沙尼亞之所以為什麼會作成這樣,愛沙尼亞的國土比台灣還大,有四萬五千多平方公里,比台灣還大,那他全國只有130萬人,他們自始就有兩個認知,第一個就是是我們人超少,所以我們能夠不要人作的事情,盡量就不要人作,第二個就是愛沙尼亞把自己建設成去歐洲網路最發達,網路跟科技最發達的國家,這是他們的國家政策目標,他們是在這樣的動力之下。那我們去建立AI法源,這樣就等於說是他們可以把所有AI化的東西,所有可能科技化的東西都盡量往前推。可是台灣跟大部分的法域,坦白講都沒有這樣子的動力,台灣司法任務繁重,法官的任務很多,如果說這是一個非常非常真實困難的話,那麼就算不考慮AI,還有會考慮人數上如何增加,爭取法官人數,但大家還是會考慮法官的quality,人數不能增加,這就跟日本有點像,我記得日本的最高法官討論過,法官現在這麼忙碌,有沒有考慮增加?然後當時其也是很不可置信,怎麼可以增加呢?
所以我想比如說金融科技跟商業上面有巨大價值的比起來,可能在司法領域或許相對比較少,目前還沒有找到一個可以讓司法機關buy in的點,目前想嘗試切入的點是從量刑方面,可能量刑對國家司法政策比較有興趣的,希望能夠從這個點去切入,但是在認清事實適用法律涵攝上面。
李建良:
兩位今天提到的很多地方,讓我們大開眼界,知道AI在法律領域的應用與開展,可以學習許多的知識。
但這其中的「法律問題性」到底在什麼?是我是比較在思考的問題。簡單的說,剛剛岳平老師所提到的問題,我們或許可以用是否引進陪審團制度的爭議,來做類比思考。問題的討論可先做若干設定,有點像是經濟學一樣,我們要先做一些限定或假定。我很粗淺的了解是,在美國並不是什麼的案件都是用陪審團,只有某一些案件才用陪審團。換到是否用AI來審判,或者像詩淳老師說的AI可否去閱讀法院的判決,或是說可不可以當法官,在討論這些問題時,同樣也一定會有些限定或限制。比如說是否只能是「書面審理」?對於AI判決如有不服,能不能救濟?是不是要交給另一個AI法官?AI法官能否看到當事人的表情,從被告的表情看出被告有沒有說謊?以愛沙尼亞的例子來說,只處理小額民事事件,不需要開庭的,這是不是也是一種限定。
第二個部分,剛剛兩位提到,AI分析的東西是法官事前整理好的,不是raw data,但有沒有可能發展出由AI去整理raw data?限定在「人機協作」比較可行的做法,很大的一個原因是因為前置的東西必須把事實整理好,再輸入,所以說AI無法處理raw data的部分,有沒有可能是第二個限定。第三個就是剛剛詩淳提到艾沙尼亞上訴的問題,這個問題跟陪審團的問題有點類似,問題在有沒有附理由?對陪審團的決定,可否用另外一個陪審團改變?AI不管透過什麼,我們相不相信它的決定?在愛沙尼亞上訴都需要由人類審判,這也是一個限定的問題。我們想像的法官是可以開庭,我們是不是可以預料AI也會看大家的表情,機器學習讓AI學習看表情,或是將來可不可以從被告的一個眼神就可以判定他是否在說謊。最後,最近關於陪審團的爭議,我一直有一種想法:「哪裡跌倒,就從哪裡爬起來。」如果法官不好的話,為什麼我們不去改法官?剛岳平老師也提到說,為什麼我們不相信AI,而寧願相信法官?同樣的問題我也可以去問,為什麼我們相信陪審團,而不相信法官?或者也可以倒過來問。
如凱平老師說的,AI可行性問題是不是一定要從跟人做比較談起?像Alpha GO或是自駕車,在判斷輸贏或勝敗上有客觀的標準,但是判決是AI做的,是人做的,哪個比較好,這也會涉及到誰是裁判的問題。在推展AI時,會說AI比人好,這裡面存在一個先天的難題:AI比人好的考量因素是什麼?因為判決的好壞是一個最困難、所謂裁判品質的問題,回歸到司法改革,這本身就是一個開放性的問題。今天AI進入司法體系之後,我們要站在什麼樣的角度去看待這個問題,我相當期待詩淳老師剛說到,這系統在檢索判決的時候,可以檢索到之前檢索不到的東西。這非常有吸引力,因為這裡不會涉及到判決結果的好壞,但可能協助我們看得到之前看不到的地方。但AI進來之後,裁判是否會比較好,還是更不好,我覺得是一個開放性、價值判斷的問題。
回到主題(一):AI與刑事司法系統