公共性與AI論壇(七)
2021年5月7日(星期五)
◎ 主持人:李建良(中研院法律學研究所特聘研究員兼所長)
◎ 主講人:蘇凱平(國立臺灣大學法律學系暨研究所助理教授)、邵軒磊(國立臺灣師範大學東亞學系副教授)
◎ 整理:趙怡嘉、黃毓庭

司法院量刑資訊系統之簡介與相關討論(蘇凱平)
司法院所自行建置的這個量刑資訊服務平台,是一個所有人都可以直接使用的系統。這個量刑資訊系統所呈現的第一個罪為妨害性自主罪,而此有其特殊之歷史因素。2010年所發生的白玫瑰運動,引起台灣政壇及司法界相當大的震盪,由於當時認為法院的量刑似乎欠缺明確標準,因此司法院即順應相關討論著手開發這個量刑資訊的系統,妨害性自主罪也順應成為第一個著手整理的罪刑。司法院當時得以開發量刑資訊系統的原因,除了白玫瑰運動外,另一個原因則是替代役的人力協助,由於當時司法院有大量的司法替代役在各個廳服務,而司法院刑事廳也有大批的替代役人力,因此能不斷地進行coding,從原本的判決裡面將特定資訊code出來,再進行編碼以及做系統,也因此成為了現行司法院量刑資訊系統的結構。
若以「搶奪罪暨強盜罪」為例,這兩個罪之所以會一併呈現,是由於其屬於刑法同一個罪章之下,而其結構首先為選擇適用法條,例如選擇普通強盜罪後,會呈現許多項目,包含強盜得利、強盜因而致人於死、強盜因而致重傷、未遂、預備犯等等,亦即刑法第328條下的每一項皆可以進行選擇,只是只能選擇一個,而不得複選,因為其建置的想法是認為,當確定罪名後就只能選擇一個罪名,例如選擇第一項的普通強盜罪後,就不能再進行其他罪名的選擇。在適用法條的選擇確定後,可以再選擇其他的因素,例如法律明定的加重減輕事由。加重事由例如刑法第47條的累犯、兒童及少年福利法第70條(舊法)、兒童及少年福利與權益保障法第112條(新法)、刑法第134條公務員犯罪之加重處罰,減輕事由例如未滿18歲或滿80歲之人的減刑等等,加重減輕事由部分即可以進行複選。
首先,這個系統所擁有的資料,其判決年度是介於2009年至2016年之間,之所以2016年後的判決資料未納入系統中,是由於2017年左右,司法院替代役的數量開始大幅減少,因此缺少相關人力能再進行作業協助。此外,這個系統的原理大致有二,第一為「篩漏」,亦即符合的資料筆數將隨著勾選的事實條件增加而變少,例如若只有勾選適用法條中之普通強盜罪,資料筆數共有216筆,但若增加一個加重減輕事由中的累犯,資料筆數將減少為172筆,因此這是像漏斗式的篩選,也就是就每一層的條件不斷篩漏、再篩漏,最後特定出所需要的參考案件範圍。而通常若輸入一個較為特定的條件,例如強盜案件加上精神障礙、心智缺陷的情況,符合的資料筆數將為零,也就是既有的系統中,並沒有精神障礙者為強盜行為,或是反面言之,成立強盜罪者沒有被認為具有精神障礙而得以減刑的案例,因此無任何參考資料,這是第一個篩漏原理。
第二個是比較深層的原理,亦即這個系統的建置預設為何?原本的假設是若有相同的事實,法官應該要做相同的量刑,不然這個系統將失去參考價值。例如法官手上有一件新案,當要將這件新案與系統中其他案件相比,是以事實與事實相比,因此所輸入的這些量刑因子皆為客觀存在的事實,例如當事人的年齡,是否為累犯等,且有些量刑因子是互斥,而不得複選的,例如前案紀錄是一次或三次,當前案紀錄有三次的人,過去都是如此的判決,若法官手上案件當事人的前案紀錄也是三次,即可做相同的判決,這是司法院量刑資訊系統的假設,亦即相同的事實要為相同的判決。這個假設乍看之下是對的,但實際上其存在著相當大的問題,也因此導致實務上很少有法官願意使用這個量刑資訊系統。同樣以「搶奪罪暨強盜罪」為例,其中有一項可勾選的量刑因子為「強盜或搶奪財物種類」,此部分可以複選,例如皮包類、珠寶首飾類、消費性電子產品類,和有價證券類等等。它認為若今天搶的是皮包類,就應該與珠寶首飾類是不同的事實,因此量刑也將不一樣,但為什麼呢?皮包有許多種類,有很貴的皮包,也有不值錢的皮包,因此沒有辦法直接去比較。同樣的,這個系統將消費性電子產品列為同一類,因為它是以事實進行分類,而此類旁邊的括號中寫有手機、遊戲機、電腦、ipod、ipad等,這些皆非同樣的價錢,甚至差距很大,但系統會認為反正事實是一樣的。有趣的是,若勾選交通工具,系統則會呈現其他選項,例如腳踏車、機車、小客車、休旅車、小貨車等。若按照一般想像,強盜罪的量刑是以強盜的財物價值作為判斷標準之一的話,那顯然上述區分的類型並不符合這個想像,例如小客車和休旅車的價值可能就存在著許多不同類型間的差異。再加上,若希望越精準,因此勾選的事實選項越多,最後也將造成其結果的參考價值越低,因為越沒有案件得以參考。此外,就相同事實,法官於量刑時就應該以相同標準看待,並得出相同結果,這樣的基本假設亦不符合刑法的原理以及實務的運作。可以想像的是,在搶奪罪的事實中,可能有一些法官會覺得,搶奪皮包是一件較為嚴重的事情,因為在拉扯皮包的過程中,被害人可能會受傷,因此不只有財物價值高低的問題,又或者同樣是搶奪電腦,但其中一台電腦中,存有重要的資料等等。但這樣的事實考量是否能在系統中呈現呢?答案是不行,透過這個系統仍舊無法清楚法官的想法為何。
過去曾有一個研究案提及,當初司法院剛推出量刑資訊系統時,許多法官其實是願意使用的,但使用後發現量刑建議與實務差距很大,因為法官並非完全沒有經驗的一群人。假設一個案子按通常經驗的量刑是落在5年到10年之間,若使用這個系統查詢,不是相符的案件數量很少,就是結果過於奇怪,例如量刑建議15年或2年等等,對法官這樣存在預先知識的人而言,就不可能相信這個系統,並且使用一次、兩次後,也就會放棄這個系統,因此造成量刑資訊系統在實務上其實使用率不高的情形。
前年有一位高等法院的許辰舟法官,運用這個量刑資訊系統寫了一份判決,這份判決後來也被選為高等法院具參考價值的裁判。這份判決的事實背景是酒駕案件,被告對一審判決提起上訴,上訴理由並不爭執任何事實,唯一爭執的只有原審判刑過重。其實許多稍微單純的案件,被告都不會爭執事實認定部分,而只單就量刑進行爭執。而高等法院一直以來的處理方式,可能有些時候認為的確量刑過重,因此進行改判,更多時候高等法院會認為雖然量刑較重但仍舊符合裁量的空間,因此維持原審判決,不過無論如何高等法院就這類案件皆欠缺如何認定量刑輕重的實體說理。許法官在這個上訴案件,即運用了量刑資訊系統,在將上訴案件的條件輸入系統後,最後剩下兩個相符案件。由於不像殺人或強盜案件在事實部分可能千變萬化,酒駕案件相對單純,並且同質性可能會相當高,因為事實部分主要就是喝酒、酒精濃度達到一定標準、駕駛動力交通工具,以及是否有撞人等情形。在透過量刑資訊系統篩選後所得的兩個類似案件,其中一個判決四個月,另一個六個月,因此許法官於本案判決就認為,本案原審法院判決六個月有期徒刑,是落在過去類似案件的量刑區間中,因此原審量刑並未過重,駁回上訴確定。
去年在高等法院的實務研討會上,我有就這個案件從平等原則的觀點進行討論,並發表在當期的台灣法學雜誌上。在爭執量刑的部分,高等法院法官只需要探討原審就刑度的判決是否妥當,而無需自行衡量刑度,只是量刑是否過重或過輕確實在說理上存在困難,這時使用量刑資訊系統即可以協助高等法院法官進行量刑判斷的說理,因此許法官在這個判決的運用確實達到一個新的境界。只是這樣的做法應該不能適用於一審法院的判決,姑且認為法院一樣能找到兩個相似案件,而其中一個判決5年,另一個判決10年,難道法官刑度判決5年到10年內就是正確的嗎?其實過去的判決也有可能存在錯誤,因此上述許法官就量刑部分運用量刑資訊系統所進行的說理,至少在一審是有問題的,而二審可能存在的問題相對會較少。

問題與討論(敬稱省略)
邱文聰:
有兩個問題請教,第一個問題是,當事人主張原審量刑過重,他的reference point是剛剛提到的三個月、六個月這兩個案件,還是他是比較同樣是酒駕的其他類型案件。這套系統是否可以提供相近,但不一定完全一樣(例如構成要件並不完全相同)的類似情形進行比較,而因此較能夠透過數量多一點的案件來證成它們的相似性?第二個問題想請問,您們是否有統計過,每一個罪刑或法條下的構成要件或一些加重點的選項,總共有多少個洞?並且案件的數量是否可以例如平均分配到這些洞,或者洞的數量其實多到案件根本就填不滿呢?
蘇凱平:
第一個問題其實問到很關鍵的地方,我剛剛講的是這個案件的簡易版,而較複雜的版本是,被告以量刑過重上訴的reference point,是協助被告上訴的律師主張,運用量刑資訊系統後的結果區間顯示地院的量刑過重。而二審法院法官同樣也是運用相同的量刑資訊系統,但輸入條件後所顯示的結果區間與律師所主張的並不相同。其實完全可以想像為何律師與法官就相同案件使用量刑資訊系統後所得到的結果有所差異,因為其輸入系統的條件是不一樣的。就系統的條件其實存在一個解讀的問題,這也是後來我們的研究計畫與原系統的最大差異。同樣都是一個客觀的案件,司法院預設所有法官看到這個事實會有一樣的判斷,也就是這些事實在大家眼中是一模一樣的事實,再根據這相同的事實進行相同的量刑。但事實上並非如此,不同的人看這個判決的事實,可能認為重要的部分並不相同。可以想像被告律師一定會盡可能在系統中拉低量刑區間,而這樣的結果就會跟二審法官所框出來的區間不同,兩個人之間其實沒有辦法對話或討論,這是這個系統的問題之一。針對第二個問題,其實這不是我們研究的主要內容,這是一個既有已經存在的系統。不過只要是較複雜的犯罪類型,例如強盜案件,不僅行為會比較複雜,事實也會較為複雜,因此案件數量和洞相比確實會分不夠,所以絕對會有一些條件是一選就沒有相符案件的情形,例如精神障礙、心智缺陷減刑的部分即屬之。
由於存在上述問題,因此司法院發包計畫希望可以改良,但事實上我們不是改良,而是做出一個完全不一樣的系統,因為兩者的基本方法概念是不一樣的,所以無從改良之。我們所使用的方法包含接下來邵老師會介紹的機器學習方法,以及下述我將介紹的法律實證。在法律實證的部分,我們的方式並不是去抓事實,而是抓出法官在個案判決中對於事實所展現出來的心證為何,因此它就不是一個純粹客觀事實的存在。例如法官在判決中寫出殺人後分屍,這個行為罪大惡極,亦將引起社會很大的震撼,當法官如此描述事情時,我們就能認知到個案法官對於事實情狀的解讀是加重的。反面言之,有時候法官會寫說,雖然這個犯罪很可惡,但被告明顯有悔悟之意,亦有道歉賠償等等,因此依其情形並非不能宥恕或不能原諒,從這樣的描述我們也能認知到,個案法官有考慮到減輕的要素。
因此,我們的做法是將案件分成四類,再進行編碼。第一類是法官有提到並且看的出來法官認為要加重的;第二類是法官有提到並且看的出來法官認為要減輕的;第三類佔最大宗,是法官有提到,但並沒有說是否加重減輕的,因為法官必須要描述事實,例如判決中有提到分屍,這個針對犯罪情狀的描述可能與量刑有關,但法官並沒有針對是否加重減輕表態,這樣的類型我們將其歸為第三類;第四類是法官完全沒提到,例如刑法第57條第9款,犯罪所生之危險或損害,就是經常法官不會提及的審酌要素。
我們的系統與原有系統的最大差異是,原有系統認為同樣的事實應該有同樣的判斷,我們系統的基礎方法則非如此,而是將每一種法官在個案中對於每一個情狀的解讀都列出來。例如雖然是兩個類似的事實,但甲法官認為在這個案子應該加重,而乙法官認為這應該包含在構成要件的評價,而不應加重,不同法官可能存在不同的解讀,但我們都將其列出。這確實需要大量的閱讀和coding的工,我們每一個罪刑大概都做超過1千個判決,強盜罪則做了將近2千個判決。我們將很多情形之下的每一個內容都標出來,而中間確實會存在許多歧異,因此我按照法律實證研究的規範性學理方法,設計了數個分層機制,以確保所有人的意見相同。當意見仍舊不一樣時,我們會尋求法官的意見,因此我們做了許多法官訪談,詢問法官就判決書上的內容是否存在加重或減輕的意思。可想而知,法官的意見也不會完全一致,例如對分屍的描述,有些法官會認為這單純是在描述事實,但有些法官認為對分屍情狀的描述寫得那麼細緻,其實已經有加重之意。因此我們會以各種學理上能接受的方法將其標註出來,在標註出來後就落到後面機器學習的部分,即邵老師的報告內容。
邱文聰:
是否可以針對四個分類的部分再詳細說明?
蘇凱平:
四個分類的第一個分類是,在判決中法官對於某一個事實情狀有所表態,並且認為應該加重;第二個分類是法官對於事實情狀有所表態,並且認為應該減輕;第三個分類是,法官有提到事實情狀,但並沒有認為應加重或減輕,例如在強盜罪中,法官會提到被害人的損失共13578元,但對於這個損失是加重或減輕的要素,於判決中未提及,不過在很特別的情況法官可能會說,由於損失的財物很少因此似乎並非特別嚴重,這時候我們就會知道法官要減輕;第四個分類是,即使法條有規定應表態,但法官對於事實情狀仍舊完全沒有表態,例如殺人罪中犯罪所生之損害,許多時候於判決中並不會特別提及。以上的四個分類是我們構築新系統的基礎。
邱文聰:
針對第四種類型,雖然法官沒有提及,但在結果上是有加重或減輕的嗎?
蘇凱平:
這個等等會由邵老師回應,因為不同情況會不一樣。
邱文聰:
意思是判決中若有提到要加重或減輕,其實是已經把涵攝結果講出來,而第三個類型有提到事實,但沒提及是否加重減輕的,其實是有提到構成要件,但沒有講出涵攝結果,最後一個類型則是包括相關構成要件等完全未提及。
蘇凱平:
沒錯,我們對照的對象是刑法第57條的10款量刑事由。
邱文聰:
因此我們也很難認定這是有審酌但未交代的判決不附理由,或是單純忘了審酌的情形。
蘇凱平:
對,我們並不知道,因為刑法第57條是要求法官要特別審酌這些事由,但並沒有要求每一款皆須審酌。例如犯後態度,可能於判決中就完全未提及。
邱文聰:
這個方法是否有一個因果推論認為,若法官認定要加重減輕,就會於理由中交代,然後才呈現出結果是加重或減輕?
蘇凱平:
我覺得是相反的,應該是只有法官交代了,我們才能確定他有加重或減輕的意思在,而其他法官未交代的我們並不清楚。也就是你有講,我們就知道你有,而且對判決有影響,但你沒有講的是否可能有影響,的確有可能,但我們不知道你有沒有,因此我們就註記你沒有講。

機器學習量刑與法律資料分析(邵軒磊)
在理論上,法官在審判時,會思考某些量刑要素重,然後某些量刑項目輕,最後對這個犯行做出宣判。我們可以試圖使用機器學習來模擬/重現這個過程。我們使用機器學習做出一個「模型」,可以想像是一堆加減乘除的算式,能夠藉由「判決內容」,得到量刑數值。使用模型模仿法官的思考,這就是廣義的法律人工智慧。
這個思路看起來很新奇,可以稍微開展一下。有三個階段性的論文:首先是「以人工智慧讀取親權酌定裁判文本:自然語言與文字探勘之實踐」(黃詩淳、邵軒磊,2020)能夠在人工選取重點段落前提下,自動化判斷判決;其次是「新住民相關親權酌定裁判書的文字探勘:對平等問題的法實證研究嘗試」(邵軒磊、黃詩淳:2020),這做到了自動化判斷判決,並找出「判決關鍵字」。最後是「人工智慧與酒駕刑度估計──深度學習卷積神經網路量刑模型之實踐」,(邵軒磊:2021)能全自動根據事實情狀來判斷。這些論文逐步而且深入的導入機器學習自動化,從部分人力介入部分人工智慧,到幾乎全人工智慧。
在最新的研究「人工智慧與酒駕刑度估計」中,使用了深度學習(deep-learning),我們可以全自動根據事實情狀來判斷。其使用卷積神經網路(CNN,Convolutional Neural Network)的演算法。這個演算法多數被使用在圖像辨識,比如說數字辨識,口罩圖像辨識等等,甚至打球的動作等等。在本文中,CNN會匡列一些判決中的文字順序,藉由各種排列方式,稱為卷積(convolute)字詞組合。具體而言,若所選取核心大小為5,就會把「不能安全駕駛動力交通工具」一句話,分解成「不能安全駕」、「能安全駕駛」、「安全駕駛動」、「全駕駛動力」、「駕駛動力交」、「駛動力交通」、「動力交通工」、「力交通工具」的字詞組合。然後輸入神經網路(Neural Network)中計算結果。
如同各位所見,這些字詞組合大部分可能沒有(人類閱讀理解下的)意義,不過在特定的文字排列下,會使得量刑數值發生關聯。機器學習會記住那些特定字的排列組合,並且判斷這個「排列」對量刑影響多少。這種思維模仿了人類,因為人類閱讀並不是閱讀單字,我們是閱讀對單字的一串描述,我們是看到這個單字的前後,譬如說「違反某行為」跟「不違反某行為」意義是完全不同的。CNN能模仿這個思路。
由上述的演算法,我們能得到一個「CNN-酒駕案件」的模型,我們可以放入一些沒有訓練過的「新判決」去讓模型判讀。就像法官會在學習階段閱讀之前的判決,而他們在面對未定案件要下判決時,這個情狀就是「新」的。這些「新判決」並沒有被在訓練階段電腦分析過,所以在這個意義上對於模型而言是「新」的,不過我們在資料蒐集時,就已經知道答案,只是不告訴電腦,讓他作答之後,再與我們手上有的正確答案比對。
所以,最後會知道這個模型究竟答對多少?具體而言,模型的準確率(precision)、召回率(recall)、正確率(accurancy)、F1-score多落在0.65~0.7左右,也就是在量刑區間四選一(2月以下、大於2月但3月以下、大於3月但6月以下,超過6月)的情形下大約7成正確。而且多半會猜到鄰近的分類,嚴重的誤判是比較少的,所以我們覺得說還可以,模型不是隨機亂猜。(上述段落的詳細說明與數字,請見邵軒磊,2021,「人工智慧與酒駕刑度估計──深度學習卷積神經網路量刑模型之實踐」,《月旦法學雜誌》,312期。)

問題與討論(敬稱省略)
李建良:
現在看起來應該是司法院基本上已經先有一個量刑系統,再由你們研究團隊協助開發另外一個系統?
蘇凱平:
對,司法院原本就有一個系統。
邱文聰:
原來司法院的量刑系統其實是一個歸納法,現在他們做的是想要用AI系統來預測。
蘇凱平:
司法院有兩個系統,剛才報告中說明的是量刑資訊系統,另外一個則為量刑趨勢建議系統。量刑資訊系統是司法院本來就有的案件,我將它稱為實然面的系統;而量刑趨勢建議系統則是應然面的,透過司法院所組成的委員會,委員至少包含學者、法官、檢察官等,討論如何量刑才是正確的,不過這個系統在實務上的接受度可能更低。我們研究團隊所做的系統是基於實然面的,因此與量刑趨勢建議系統並不相同。
李建良:
第二個問題是,這裡所謂的量刑,基本上是有期徒刑,而非罰金;再來是,有期徒刑與無期徒刑之間的區別,這個部分的考量也先被排除,所以是直接做有期徒刑的部分。但比較重罪的部分是否有可能與無期徒刑之間有一定的關聯,您們會如何切開?最後想請問,這個系統的使用率大概為何?
邱文聰:
請教一下,剛剛蘇老師提及四個類型的判決標準,到後來邵老師說您們是用CNN在做,我想再次確認您們是用CNN做,或是用有標註的判決去做?
蘇凱平:
針對李老師的問題,我們確實只有做有期徒刑,並且做的是殺人罪和強盜罪,因此基本上成罪不會是罰金或是拘役,都是有期徒刑起跳。但是我們殺人罪和強盜罪的樣本中有無期徒刑與死刑,不過我選擇將這個部分拿掉,理由是,首先從量的觀點而言,死刑與無期徒刑的案件數量很少,因此從機器學習的角度就不見得具有一定的意義;第二,從刑事政策的觀點,或從刑罰學的觀點而言,無期徒刑或死刑的意義跟有期徒刑不一樣,因為有期徒刑有具體數量的存在。假設在有一個客觀標準的情況下,可以說15年的有期徒刑比10年更嚴重,並且嚴重的程度可能是有數字上關聯性的;但無期徒刑的基本定義是個無限大的徒刑,死刑更是如此。因此當法官願意判無期徒刑或死刑時,我會認為某種程度上代表法官其實已經願意將自己的生命與人生經驗跟這個案件綁在一起,所以我不覺得死刑和無期徒刑的判決有任何參考價值。最後,關於既有使用率的問題,我沒有直接數字上的答案,但我所知道的使用次數是非常低的,而判決中會引用到量刑資訊系統作為佐證的也非常少,但是我沒有一個明確的數字。
邵軒磊:
關於邱老師詢問的問題,我們目前提交且具體落地的是機器學習的方法,而CNN目前是學理的方法,是我們未來有可能會做的。
李建良:
請問司法院的量刑系統因子,最早是由誰所設的?
蘇凱平:
最早的量刑資訊系統是透過開會的方式,將構成要件以及所有認為應該會影響到判決的項目及事實都列出來,但有時是法官認為應該增列,有時則是替代役男的意見,因此並沒有相當一致的標準。我認為以事實要素區分的缺點是它本身可以無限的細分,例如殺人罪的犯罪方法及犯罪工具就分得相當細,這個在實證研究裡我們稱為「淺層的摘取資料」,也就是我看到什麼,就寫什麼。因此,可以想像司法院量刑資訊系統鮮少人使用的原因,主要是因為不夠準確,而不夠準確的原因,如同前述,是因為它假設相同事實就要有相同的判決,但這個假設在實務運作面並未成立,而在法律規範面亦相當值得懷疑。我所寫的判決評釋是從平等原則的角度,思考是否不同的案件要講求平等,若不同的案件有類似的事實,是否應該要有一樣的結果,而這是否是憲法所給的建議,基本上實務見解針對這些問題都是持否定態度的,平等原則在量刑上的適用主要仍是針對同一案件、同一被告所犯的罪刑。不過,司法院量刑資訊系統的目的是要跨案件的探究過去的案件對現在的案件是否有所影響,而法院向來都不認為這有平等原則的適用。司法院量刑資訊系統將犯罪方法、犯罪工具等,依據事實不斷細分,例如分類出撲殺、絞殺、窒息殺、刺殺、射殺等犯罪方法,是假設這個勾選有所意義,並會得出不同的判決結果,但為什麼呢?因此我們認為不能以事實進行分類。
王道維:
我有兩個問題,一個是法律面的,另一個是技術面的。法律面的部分,我覺得法官關心的可能是,當他勾選了一些選項後,系統能夠呈現出一個刑期的分布,而若這個刑期分布是合理的,也就是判決數量夠多的話,的確可能對法官的量刑有參考價值。這種參考價值的意義與丟到一個機器裡面進行預測,兩者的可靠性對法官而言似乎是不一樣的,就後者,法官要先相信機器學習是可靠、預測正確、並且有足夠數據的,這個預測才可能有點參考價值,畢竟機器學習的過程是法官不熟悉的。但若法官是透過選取相關因子,不論是就事實部分或是心證部分進行選取,再根據所得出的刑期分布進行判決,這樣法官心理上可能會較為踏實。這種根據實然面所做成的決定,好處可能是幫助維持司法的穩定性,但壞處可能是無法避免過去多數法官是判錯,或是未考量特定事實的情形。因此我想要請教,從法學的角度而言,即使過去的案件呈現特定分布而有實際的參考性,但是否代表法官就應該參考?我認為可能應該要有一定的參考性,但有一些法官認為他應該是完全獨立的,不過完全獨立是否代表可以無視過去的判決?第二個技術問題我想要請教邵老師,通常我們是將CNN用在圖片辨識上,但容易產生的問題是時常會不知道它是根據哪些要素進行判斷,因此雖然預測結果的準確度很高,但可能理由是錯誤的,不知道您的系統中是否有考慮這件事情?
邵軒磊:
針對道維老師的第二個問題,目前肉眼可見應該是沒有發現錯誤的部分。
蘇凱平:
針對第一個問題,黃榮堅老師曾說過:「量刑有多難,人生就有多難。」這裡的量刑應該是指絕對正確的量刑,但現實中無法做到,因此司法機關其實是退而求其次,至少作出不會被罵的量刑,也就是追求與過去判決一致的標準,而這同時也是我們的課題,亦即如何找出一個一致性的標準。整個研究的重點我認為就是「相類似判決」的定義問題,因為若只是隨意地選取要素,可能就會造成欠缺可比性的情況。因此,整個計畫就是希望去克服相類似判決的定義問題,以提供一個最好的一致性基礎。但當然回到規範上意義而言,追求一致性本身是否是好的值得討論,只不過這可能並非量刑資訊系統所追求的目的。因此,若呼應道維老師最後所舉例的Google性別判斷問題,能準確判斷性別本身,或許就已經達到系統的目的了。
王道維:
您的意思是認為理由的構成不重要?
蘇凱平:
即使理由是錯的,但若我的目的是要知道過去與這個判決最類似的情形,那只要最後結果是對的,從哪裡判斷出來可能就不是問題。
王道維:
但是問題在於若理由是錯的,並且發現錯誤時並不知道為什麼,可能就會產生究責的困難。
蘇凱平:
我認為這就要看在做量刑系統時,這件事情是否被認為是一件重要的事情,這背後的考量會完全不一樣。
陳陽升:
我想要請問,前述提到高等法院法官透過量刑資訊系統所作成的量刑判決,是否仍舊符合法官應受法律拘束的原則?透過機器學習或是其他的方式,是否可以認為有分享法的拘束力?
蘇凱平:
首先併刑有三個過程,第一個是法定刑的過程,這部分有法律拘束力,第二個是宣告刑的過程,這部分也有法律拘束力,例如累犯加重,未滿18歲減輕其刑等,刑期的範圍就會進一步的限縮。假設最後宣告刑的範圍是10-15年,法官不論是判10年或是15年都對,因為這本來就是法官可以透過自己對於法的認識與對社會經驗的認識、事實的認識去衡量的,我們只要求法官應該負說理義務。因此在宣告刑的範圍內,法官是否可以參考過去的案件進行判斷,就我的理解應該沒有不行。
陳陽升:
高等法院的那份判決,是參考司法院的量刑資訊系統,以對六個月的量刑是否過重過輕進行說理,並透過這個方式填充平等;但法官其實也可以透過另外一種方式說理,例如被告之所以酒駕是因為在應酬場合被硬逼喝了幾口啤酒等等。我會認為像後者這樣以事實情狀的認識進行量刑說理,會比透過量刑系統來衡量平等問題,可能更具有說服力,並且我也會認為高等法院的那份判決說理並無法回答平等問題。
邱文聰:
並且如同後者這樣的判決本身才能夠再做為下一個案子的training data,高等法院法官那個判決並無法做為training data。
蘇凱平:
針對陽升的這個說法我是能接受的,儘管在結論上想法略有不同,因為我首先想到說,如果法官採取後者的說理,由於這並非通常在量刑時會考慮的因素,因此三審法官可能會予以撤銷發回。那三審對量刑資訊系統的見解為何,從量刑資訊系統的發展來看,以前不太喜歡亦不太使用,但在高等法院法官的那份判決被高等法院選為具參考價值裁判後,就某種意義上我的理解可能會認為至少高等法院是支持量刑資訊系統的,而這個力量未來若越來越大,可能會驅使法官與其選擇實體說理,不如選擇量刑資訊系統,有點像是拿量刑資訊系統來當擋箭牌這樣。
王道維:
我認為實然面的東西應該是當成必要條件,但是不能作為充分條件。例如判決的量刑理由不能只提及過去的量刑標準,而必須提及其他理由,最後若判決並沒有超過過去判決量刑的適當範圍就代表不會有太大的問題。因此實然面條件的使用應該當成一個必然參考的條件,但不能作為充分條件。
邱文聰:
我認為是否是必要條件可能也是有疑問的。
王道維:
但量刑決定若與過去非常不同,可是卻沒有考慮過去的想法,這樣也很奇怪。
蘇凱平:
我比較認同文聰老師的觀點,我認為並非必要的條件。實務上當法官有意識到,他做這個判決量刑的結果是實務上比較少見的時候,法官會花相當大的篇幅進行說理。
王道維:
應該說是必要參考而非必要遵循。
蘇凱平:
我只能說它可能是一個佐證的存在,而這個佐證會被參考,但不能夠認為它有拘束力,我也不認為它適合有拘束力。但是我害怕的一件事情是,這個畢竟是追求一致性的系統,而這個系統的存在可能會讓法官比較不容易被罵,那會不會這個系統在事實上有巨大的吸引力,以致於大家容易忽略其他可能的說理空間,這可能是值得討論的一個問題。
張兆恬:
我想要請教一下兩個問題,第一個問題是,司法院量刑資訊系統所使用的方法,與凱平老師報告中提到四個標註的方法,會不會本質上是一樣的,只是前者是比較多人合作、粗糙的方法,而您們的是比較一致性、有訓練的方法。例如凱平老師方才提到說司法院量刑資訊系統是將事實無限細分,但您們所使用的標註方法,例如有一些特別被描述的事實但沒有說明是加重或減輕者,這會不會其實有同樣的問題?也就是用這四個標註方法,是不是同樣勢必會將被細分的事實標註進去,例如絞殺的工具是毛巾或是一條線等等,那這樣是不是與現有的系統是類似的,只是您們的方法更為細緻。第二個問題比較是評論性質的,我認為法官本身的背景可能也是一個影響判決重要的面向,例如美國的司法行為研究中,法官的政治傾向、性別、年齡等,都被認為是重要的因素。但當然我可以理解為何司法院沒有將這部分的因素放入考量,因為某種程度上可能會影響大家對於司法中立性的想法。
蘇凱平:
針對第一個問題,我手邊有一個我們之前coding的結果,這是某個強盜案的判決,而在最後一段量刑的部分判決寫道:「量刑:原審酌被告就個案之犯罪之動機目的、手段、智識程度、犯罪所生危害、參與犯罪之程度、所獲取之利益及犯後態度等一切情狀。」這是例稿,也就是大家都會寫的部分。這個判決有提到犯罪之動機目的,因此我們就將它編入刑法第57條第1款,而我們的評價就是它有提到,因為基本上用這樣的方式都會提到,只是並沒有進一步說明他是如何考量審酌的。我們這樣的編碼方式會與司法院既有的系統完全不同,因為司法院的系統並不在乎法官看出來什麼,而只在乎這個案件中有哪些客觀事實存在。以兆恬老師提到的毛巾絞殺為例,在司法院的系統中,首先只要案件中有出現毛巾跟絞殺的事實,那就會將這個案件編進去。此外,司法院的系統也假設用毛巾絞殺的方法是對量刑有影響的,並且這個影響會與其他殺法所造成的量刑影響不同,否則系統中就不會將不同的殺法分成不同的選項。可是法官按照判決書的格式記載本來就要記錄事實,因此判決書中即使記錄到毛巾絞殺的事實,但卻不一定對於量刑有所影響,也就是法官可能並不覺得這是一個量刑因子。因此我們的編碼方式與司法院的系統並不相同,因為司法院的系統認為只要是事實上存在的,那就要是量刑因子;但在我們的系統中,只有當我們辨識出法官認為這是個量刑因子而應該加重減輕時,才會真正有所影響。不過事實上,法官於量刑因子中真正提到加重減輕者很少,大部分都只有提及這些衡量要素,但我們並不知道法官衡量了什麼,可是卻又不能說法官並未衡量,因為於判決書中這些要素都有被提及。
邱文聰:
司法院的量刑資訊系統是想要從事實和判決的結果中找出pairing,也就是如果它是一套AI系統的話,它是想要從事實的諸種特徵中自動去pairing判決的結果,而您們的系統是想要透過法官行為的諸種特徵來找到判決的pairing結果。可是您們也提到,目前判決中所透露法官行為的訊息是有限或是殘缺不全的,那使用機器學習或是CNN,真的能夠抓到法官的行為特徵嗎?因為我們知道法官在寫判決時,有時候是先有答案,而並非真的是基於這些事實情狀,所以得出量刑的結果。因此這樣training的過程真的能夠學到法官的行為嗎?還是學到的是法官掩蓋自己內心的某種方法而已?我很好奇若您們的方法是真的要模仿法官的行為,那您們是如何找到法官行為與判決之間的pairing關係的?因為您們也沒有提到說最後您們的系統是否有成功做到,假設真的成功了,是否可以透露更多中間的過程為何?
邵軒磊:
原理就是根據剛才的機器學習模式,並且用比較多的時間去調整參數,將那個模型調出來。
邱文聰:
所以您們是將司法院原有的那些標註,再加上您們的四種分類來做training嗎?
蘇凱平:
我們完全沒有使用司法院原本的資料,就連樣本也不一樣。
邱文聰:
所以只有四個變項,就要去學出結果嗎?
黃詩淳:
應該是一個feature就有四個種類?
蘇凱平:
對,刑法第57條中的1到10款,每一款都有那四種情況存在。除此之外還有其他影響宣告刑的加重減輕者,我記得有20多種,所以加起來共有30多種。
黃詩淳:
我想將文聰老師的問題具體化,也就是如果有很多項目是根本沒有提及,或是提及但沒有判斷,也就是可能缺項的話,那會不會造成最後預測的結果不是很好?您們真的能夠看出所謂法官的行為模式是如何嗎?
邵軒磊:
其實嚴格來講這並沒有完美的解答,因為即使是很類似的情狀,法官的判決結果也可能天差地遠。因此,我們就是盡量去取得一個能夠在這個範圍中,盡量逼近法官真正量刑的結果,因為最後面對的都會是一個新的情狀,而面對這個新的情狀也不會用人工智慧讓它可以符合或是接近以前曾經有的情狀。
李建良:
我提一個比較全面性的理解,量刑換句話說就是裁量,而裁量跟人有關的部分基本上我們可以分成生命、身體和財產,因此死刑也會有量刑的問題,而財產的部分就是罰金。那針對中間的部分之所以會花比較多時間來做,是因為這個裁量牽涉到人身自由的問題,因此不論是從量或是從重要性而言,整個量刑系統其實是有它的正當性及意義。再來我的問題分成技術面、制度面、評價面三個部分,針對技術面,不論是machine-learning或是deep-learning,也不論技術如何發展,我是不是可以認為再怎麼樣都是在複製過去?
蘇凱平:
是,可以這麼說。
李建良:
那複製過去的正確性有多高,這個同樣是技術問題,且不論技術發展如何,不正確的可能性一定存在,這是第一個關於技術面的部分。第二個制度面的問題是剛剛一直在討論的,法官就量刑有說明理由的義務,但有了量刑系統後,假設這個系統的正確性很高,那法官使用了這個系統後,應該怎麼寫理由?並且法官所說明的理由是真的還是假的,亦即法官是否可能是先有答案再去找理由?另外一個制度面的問題是,量刑問題理論上是建立在救濟制度上,也就是因為有救濟制度才能爭執量刑過重過輕的問題。但在這之中有一個「不利變更禁止原則」的制度因素存在,若拿掉這個制度因素,許多案件的量刑判決可能都過輕,因為我們知道若回到正義理論,必須從整個刑法制度,而非單從被告的需求衡量刑度,因此不利變更禁止原則這個制度因素可能需要加以考量。第三個評價性的問題想先請教道維老師,在自然科學中,同一件事情是同一個事實,例如這件事情A事實和B事實是完全一樣的,這個可能性存在嗎?
王道維:
在自然科學中基本上可以,也就是在可以控制的範圍內是可以完全一樣的,也因此才可能得以重新驗證之前的結果。
李建良:
在自然科學領域可以做到,但在社會科學領域,有沒有完全一樣的事實,因為這是平等原則的第一道衡量。
王道維:
如果要再更精緻的說,我們會說是在可測量的範圍之內。例如這兩個瓶子我們雖然假設一樣重,但事實上它都是有誤差範圍的,只是在這個範圍之內已經無法再區別差異。因此我認為平等原則可能可以這樣理解,當評估的原則之間雖然並非完全一樣,但若足夠接近在一個範圍內,以至於我們可以認為它是同一類,並且預期後來的結果也是可信賴的落在某個範圍內的話,那我們就會認為這樣的司法具有可預測性。白話一點的說,若兩個案件在許多事實部分依據人的直覺認為相當接近,但結果卻相差甚遠,對人民而言就會無法理解。
蘇凱平:
道維老師說的其實就是我前述提到相類似案件的定義問題。
李建良:
所以當我們在講兩件事情是同一件事情時,是有條件存在的,並且不同人針對是否是同一個案件的標準也未必會一樣,這是在操作平等原則的首要問題。因此想請教邵老師,在抓取事實的同時,有沒有可能也要去分析它是不是同一個事實?另外一個評價性的問題其實已經是老問題,也就是複製過去本身就是一個問題,當過去是錯誤時,複製過去就是在複製錯誤。最後回到最核心的審判獨立問題,這個量刑系統其實就是在跟隨別人,因此審判獨立在這個部分是否一定程度的會被稀釋掉?
蘇凱平:
我想先補充說明,司法院之所以想要進一步的做量刑系統,主要的原因之一是因為接下來的國民法官將要參與量刑,而這些國民法官是欠缺量刑經驗的,因此司法院才有這個想法,覺得或許可以提供國民法官一個值得信任的系統作為建議或參考依據。國民法官所參與的案件分成兩種,第一種是2023年1月1日開始施行的故意犯罪導致死亡類型,包含故意殺人以及傷害致死,而其刑度都是有期徒刑以上;第二種是2026年1月1日開始施行的最輕本刑10年以上有期徒刑案件。兩種案件的刑度都是有期徒刑以上,也因此這個系統才會特別強調有期徒刑以上的案件。接著,連結到建良老師所提及的複製過去這個問題,我認為再更細緻地探究,其實不是只有複製過去,因為在面對現在這個判決之前,法官可能需要先理解過去發生什麼事。現在的方法可能是詢問學長姊,或是上網查判決,這也是一種想要從過去得到知識或指引的方式,只是或許不夠全面,因此這個量刑系統或是AI,在這個角度就發揮作用。所以我們在做的是運用可信的方法,將過去大概3至4年間所涉及的法官量刑樣本進行彙整,讓法官能夠在具備對過去判決的認識上,去面對這件新的判決。這件新判決的情狀組合在過去是未曾有過的,畢竟沒有兩件案子的情狀完全相同,但法官可以按照過去的知識進行判斷。這個過程可以很簡單地認為是在複製過去,不過我覺得這其實是用一種大家能接受的角度和視野在整理及理解過去。因此建良老師的問題可以再為細分,複製過去首先須理解過去,那如何理解過去?司法院既有系統的理解方式是認為相同事實應該有相同判決結果,但我們認為這並非是一個理解過去的良好方式。
王道維:
司法院量刑資訊系統應該只是統計判決結果,並沒有認為應該要有相同的判決結果。
蘇凱平:
但我認為司法院的系統有這樣的預設,因為在這個系統中沒有任何的權重概念,反而是以勾選的方式,代表系統認為每個選項都是具有相同影響力的。
王道維:
系統應該只是以這些選項來進行分類,並不代表其決定了最後的結果。
蘇凱平:
我認為系統有隱含每個選項的影響力是一樣的這種預設,這個對照趨勢系統可能會顯現地更清楚。
李建良:
我想要進一步針對前述提到複製過去的部分進行提問。瞭解過去的經驗本身無可厚非,只是若放到規範面的角度而言,是不是由上而下的?再者,它有沒有可能進入規範面,也就是有沒有可能會強制要追求判決一致性?當然若不強制可能又會產生notch的問題,這個又會是另外一個顧慮。
王道維:
我認為這個問題不難解決,只要多發展不同的系統就好,若同一案件使用不同系統、不同演算法的預測結果都差不多,那可能就有一個參考的方向;但若不同系統的結果分歧,代表這個案子可能有一定的難度。總之現在的問題是我們假設只有一個系統,但其實不能單靠一個系統的結果來做判斷。
李建良:
我還有一個問題想要請教,您們是否有做過相關的制度比較?
許慧瑩:
我想要請問一下,剛剛道維老師提到可能可以找不同公司做系統的開發,但問題是像我們在做工具時,會去拿最精準或排行最前面的公司所產的資料,那是否有可能最後會變成大家只傾向去找其中一間公司所產出的結果作為參考?
王道維:
我覺得可以以媒體識讀為例,如果今天只有一家媒體,我們會懷疑它是一言堂,但現在有一百多家媒體,並且有不同的立場,那這時候我們要訓練的就是媒體識讀,互相比較才能摸索出真正的事實。AI也會是這樣,未來的AI可能不只一個,那我們就必須瞭解不同AI所強調的重點、演算法特色為何,以及這個AI在什麼地方容易出錯,在哪個部分又會是比較準確的,這個會變成教育的一部分,使得大家能夠正確而非盲目地使用AI。
邱文聰:
如果以現在的瀏覽器為例,雖然市場上有很多家不同的瀏覽器,但大家大概就是用Google。另外還有牽涉到一個核心的問題是,理想中司法一致性的達成,應該是每個法官依據法律獨立判斷,然後結果剛好一樣。但現在AI的做法若以例子說明,會像是在考試時看看隔壁的,當第一個人交卷後產生encore effect,接著因為大家都是抄同一個人的,因此達成一致性。而這種做法比較會阻礙進步的產生,也會對於原本的司法體制造成衝擊,可能沒辦法像道維老師說的多看看幾套系統。
王道維:
所以我認為AI應用在司法,應該是節省時間的工具,而非是一個一定會提供更好判決結果的工具。我們假設多數的案件都類似,也被期待應該有類似的結果,那AI就可以協助我們在這些類似案件節省時間,而更多的時間就能被留在少數複雜或困難的案件中。因此我們不能期待AI能像上帝一樣告訴我們特殊案件應該怎麼做,這其實是完全的誤用。
邱文聰:
如果兩造當事人都同意用較快的時間進行判決,那就使用AI。
許慧瑩:
我想要請問,司法院有強調這個系統對於法官來說只是作為參考,但凱平老師剛剛也說發展這個工具的原因之一是要給國民法官參考。可是國民法官畢竟並非專業的法律人,可能無法獨立判斷,也無法充分瞭解這個工具的背景,因此這個工具是否會給予國民法官暗示性的量刑,而更損及司法的形象?
蘇凱平:
白袍效應可能會很強,而這個問題與國民法官本身的制度設計也有異曲同工之妙。我四月底擔任新北地院模擬法庭的觀察員,並觀看了整個評議的過程,發現他們在評議的過程中是真的沒有標準的,就是審判長主導,審判長會說我們通常是如何處理,並且說服大家,畢竟這件事若審判長不主導就沒有人會。另外,就AI到底能對司法做到哪些事情,我自己的想法是,不論是誰所開發出來的系統,都應該是當作參考而非強制的存在,並且也不應該變成AI法官,因為做決定的永遠應該是人的法官。至於若有多個系統,當然前提是有多個準確系統的話,那我也不認為在市場競爭上會變成只參考一個系統,因為這個系統本身就是提供參考的,也當然就不免除法官所應負的說理義務,而這裡的說理義務並不包含單僅援引系統的結果,這個並非實體的說理。我對於一個量刑建議系統的真正要求,並非要它取代人類法官,也不是要它提供法官應該怎麼判的建議,而是像被選為具參考價值裁判的那份高等法院判決書一樣,作為判斷是否「觭輕觭重」的標準存在。換句話說,當法官的判決結果是落在系統認為很特別的狀態,過去並沒有人會這樣判的時候,系統可以提醒法官做這樣的判決是特殊的,讓法官可以加強說理義務。因為目前法官在判決時,根本沒有一個廣大蒐集相類似判決的資料庫,讓法官知道他在做的這個判決之前是沒有人這樣判的。因此這套系統可以比喻為車道偏離警示系統,讓法官在出現觭輕觭重的判決時,能夠去加強說理義務。此外,就建良老師方才提到不利益變更禁止原則的救濟制度部分,這是我沒想到的,也相當有道理,確實有可能在一審時就判太輕了,例如在輕罪案件中判的異常的輕,因此根本不會上訴二審,而這在實證研究中就會成為一個干擾的因素。接著,就建良老師提到的平等原則的前提,我將案件分成四個種類:相同案件相同被告、相同案件不同被告、相同被告類似案件,以及不同被告類似案件。就相同案件相同被告,一定有平等原則的適用,因為必須做一模一樣的判斷,這不需要討論。而相同案件不同被告,例如共同涉及販毒的案件,多數會要求由於是相同的案件,因此判刑應該要有平等原則的適用,但適用平等原則不代表每個人的判刑都相同,而是若判得不同應該要有充分的基礎說明。例如共同被告中量刑不同,是因為行為分擔不一樣,或是其他量刑因子有所不同,這部分要充分說理,否則有被撤銷的可能,而平等原則的適用大部分是用在這類判決。同一個被告在類似案件的類型相當少,但確實有,事實好像是被告違法私製農藥,第一次違法被判刑後,第二次又再違法被判刑,而第二次的刑度與第一次相同,因為法院認為由於一些複雜因素,因此構成要件不一樣,並不構成累犯。只是我認為儘管並非累犯,但也應該考慮其行為是類似的,因此可能要更重一點,這是所謂同個被告在類似案件的情形,是非常少數的案件。真正的重點是,不同被告在不同但類似的案件中是否有平等原則的適用,而這可能也是人民最重視的。高等法院的那份判決之所以具有價值,是因為它認為這個類型有平等原則的適用,其實也只有在這個前提成立的情況下,使用司法院的量刑資訊系統才具備正當性。而接下來的重點就會是如何去定義什麼是相類似案件,那我們做的coding其實就是在code相類似的判決。最後,回應建良老師詢問除了我們在做這個之外,有沒有人在做類似系統的問題。美國有,但美國做這個系統是因為他們的量刑原本就有一個標準叫做Sentencing Guidelines,這個標準是除了法律規定外,由於刑事政策的考量,因此再縮小量刑區間,以致於判決會越趨一致。Sentencing Guidelines在美國甚至有十幾年的時間是強制標註,也就是強制規定必須按照這個標準量刑,只是這個規定後來被聯邦最高法院宣告違憲。因此美國在Sentencing Guidelines的基礎上,本來就比較能接受有個系統是在法律之外,沒有強制力,但有很強的建議效果,所以不論是在法律的觀點,或是在法律文化的觀點上,他們並沒有很大的接受障礙。但是我們沒有這樣的基礎,因此就會有部分法官以干預獨立審判的立場反對量刑系統。不過我們在進行法官訪談時,也發現有法官持不同見解,有法官認為說,其實法官是很快就能訓練和習慣的,而習慣後大家就會參考這個系統,因此發展系統本身可能是好事,但這些都是對未來的預測。
邵軒磊:
針對建良老師詢問模型是否有不正確的可能性,以及我們若認為應該要從寬處理時,應該怎麼做的問題,其實對於資訊工程或實際在做模型的人而言,這應該比較容易處理,因為只要我們能夠明確的意識到這個規則,並寫進模型中,這個問題就能解決。所以在實際操作時需要較為警惕的是我們無法辨識,甚至是外於我們思考範圍的規則,而這當然需要更多使用者及法學者給予回饋。
李建良:
另外一個關於事實部分的問題是,就哪些案件是類似案件,有沒有可能可以透過AI的方式更精準的得出來?
邵軒磊:
從資訊或資訊學的角度而言,資訊本身是一個客觀的東西,要看在使用資訊的當下對使用者是否產生意義。因此我們會預想使用者的需求和使用場景,並針對個案去設計我們所要取的變項,然後在這個變項上決定什麼是類似的。
李建良:
最後我講兩點簡單的結論,第一是回到最原初的裁量,裁量一定是個案化,因此裁量與一般化兩者一定程度上是有所衝突的。如同剛剛提到在美國被宣告違憲的例子,給予法官量刑空間,卻同時強制遵循Sentencing Guidelines,這兩者其實是衝突的。而在行政法制上也有類似問題,例如個案行政裁量和裁量基準的關係,當裁量基準有其參考性,可是實務上變成參考性很強,強到幾乎會依循的話,這可能也會有問題。第二是凱平老師提到的偏離可能性,基本上偏離可能性只有兩種,一種是凱平老師提到的,當要偏離時系統提醒法官,讓法官知道這個跟原本的常規不太一樣,因此要加強說理;另一種則是忘了偏離,也就是當法官已經習慣按照這個系統在判決時,可能就會習慣地去忽略案件的特殊性,並忽略應該要偏離的可能性,而這可能也是一個值得思考的問題。