人工智慧對刑法學的挑戰——以駕駛自動化為例

公共性與AI論壇(八)
2021年6月25日(星期五)

主持人:李建良(中研院法律學研究所特聘研究員兼所長)
主講人:薛智仁(國立台灣大學法律學系教授)

◎ 整理:何懿珊

Photo by A. L. on Unsplash

壹、人工智慧對刑法學的四個影響

隨著人工智慧與機器學習技術的發展,軍事系統、工業發展乃至於日常生活無不充斥著與該技術相關的設備,例如:機器人、自主武器系統、駕駛自動化等等。這些設備實際運用人工智慧的方式與細節固然有所差別,但是對於刑法學所帶來的挑戰及影響具有一致性。

人工智慧對刑法學的影響主要有四個面向:

第一、人工智慧使刑法學必須思考機器有無可能成為刑法上的責任主體。目前機器僅是人類所創造出來的產物,無法與人類平起平坐,未來具有自主學習和決策能力的機器人、智慧代理人逐漸出現時,機器的地位是否應該有所提升,甚至賦予其法律上的人格,係人工智慧對刑法學帶來的第一個影響。

第二、人工智慧帶來法學方法「電腦化」的趨勢。傳統上,法學方法的任務是透過良好的論證支撐決策的結論。但是,當法律科技以人工智慧解決傳統法學問題時,就會造成必須配合電腦的特徵,倚重「可量化」的因素做成決策,無法被量化的因素則是難以進入決策過程。以詐欺罪為例,以人工智慧方式進行量刑時,可能會讓量刑著重在被害人人數、財產損害、是否已賠償損害等容易量化的因素上,行為人家庭或經濟上的困境等因素,則不易進入以人工智慧支撐的量刑系統中,量刑結果有可能不符合罪責程度。

第三、人工智慧的發展會使科技取代法律,成為調控人類行為的方法,也就是所謂程式碼即法律(code is law)。法規範的功能乃要求或禁止人類從事特定行為,如果人類違反法規範,就可能會受到一定的處罰。在人工智慧發展之後,可能會使人類從事違規行為變得不可能。舉例來說,智慧機車可以被設計為不戴安全帽即無法啟動,這不僅大幅限縮人類行為的可能性,而且會導致無法透過「違規」推動法律的演進。此種對人類行為自由的限制,在憲法層次上是否能夠被正當化,亦是需要解決的問題。

第四、人工智慧會改變法律適用的對象,現行法律能否適用於新科技,是否需要增訂新的法律以應對,則是本次演講所討論的重點。我將以自動駕駛作為例子,說明人工智慧對於法律適用的影響。我的報告重點不在於自動駕駛的電車難題如何解決,而是在於自動駕駛發生事故時如何追究刑事責任。我將會分析在自動駕駛肇事時,追究駕駛人及製造人的過失責任會有何種困難,在立法上應該如何因應這些困難,以適當地平衡科技創新與法益保護。

貳、以過失犯回應人工智慧的風險:以自動駕駛為例

一、以刑法「過失犯」為應對方法

我國目前尚未針對駕駛自動化進行法規調適,僅在2018年增訂《無人載具科技創新實驗條例》,其中第22條第7款規定:「其他因無人載具科技之研究發展及應用需排除適用之法律。但不包括民事、刑事責任規定。」是以針對自駕車所帶來的風險,基本上還是以《刑法》作為回應的法令基礎。自駕車乃參與交通活動之人工智慧設備,而日常生活中的交通事故多以「過失犯」應對,因此自駕車造成交通事故之情形,同樣將以過失犯為應對方法。

刑法上的過失犯結構及成立要件,爭議不少。不過,我們可以暫且不論這些爭議,就以下幾個重要的過失犯成立要件進行檢討:(1)行為與結果間具備因果關係、(2)行為人對結果發生具備客觀及主觀預見可能性、(3)行為必須違反注意義務(容許風險、信賴原則)、(4)結果之可避免性、及(5)無第三人負責或被害人自我負責。

二、一般汽車肇事之過失責任

在一般汽車肇事時,除了汽車駕駛人有肇事責任之外,汽車製造人也有產品製造人責任,二者主要可能適用過失致死罪(刑法第276條)及過失致傷罪(刑法第284條)。我以兩個案例,分別說明駕駛人(案例1)與製造人(案例2)適用過失犯的問題。

案例1:甲於駕駛小客車時因分心使用手機,未注意前方有行人乙衝進快車道撿拾手機,甲煞車不及撞傷乙,乙被送醫後醫院遭到丙縱火,最終乙逃生不及而死亡。甲成立過失致死罪嗎?

可以確定的是,如果不是甲撞傷乙,乙不會被送醫,也不會因為丙縱火而死亡,故甲的行為與乙死亡結果間具有因果關係。除此之外,甲開車時分心使用手機,沒有隨時注意前方行車狀況,這是違反駕駛人的注意義務。雖然甲可能主張他有權信賴乙不會違規闖進快車道,但是實務和通說認為,甲本身已經先有違規行為,就不得主張信賴原則。至於乙的死亡結果有無可避免性,取決於甲分心使用手機的違反注意義務行為,與乙的死亡結果之間有無因果關係。這個問題,需要在個案中調查更多的事實,才能做成終局的判斷。假如可以確定,乙衝到快車道時,甲車和乙的距離很短,甲縱使沒有分心滑手機,而且及時發現乙並且踩煞車,無論如何都會撞上乙,則乙的死亡結果係不可避免會發生,甲不成立過失致死罪及過失致傷罪。相反地,如果甲車和乙車的距離很長,如果甲沒有分心滑手機,就有充分的反應時間,能夠及時發現乙並且踩煞車,則乙的死亡結果具有可避免性。若是如此,就必須進一步審查,此一死亡結果是否應由第三人或被害人負責。以本案而言,乙是在被甲撞傷住院之後,因為丙縱火而死亡,在甲的行為與乙的死亡之間,介入了一個丙必須負責的故意殺人行為,乙的死亡結果不可歸責於甲,最終甲僅會成立過失致傷罪。

案例2:甲駕駛A廠牌的汽車,於等紅燈時汽車暴衝,甲縱使踩足煞車仍然撞上乙。經調查確定,暴衝的原因是車速控制組件在某種環境下失效,依照上市時的科技水準無法辨別此安全性漏洞,A廠相關人員是否成立過失致傷罪?

在本案中,甲的駕駛行為並未違反注意義務,甲對汽車暴衝也沒有預見可能性,對於乙的傷害結果不成立過失致傷罪。必須思考的是,A廠相關人員製造與銷售有安全性漏洞的汽車,汽車因而暴衝撞傷乙,是否成立過失致傷罪。此案例同樣以前述過失犯成立要件審查,特別之處在於製造者的「注意義務」來源,學說上多認為製造者注意義務應援用民法上產品責任標準,參考《消費者保護法》第七條、第十條規定,產品上市前,製造者對於產品的製造,只要符合當時科技水準所得合理期待之安全性,並充分告知消費者產品使用方法,即已合於注意義務;相對地,產品上市後,製造者應該持續觀察產品的安全性,必要時對消費者發出警告或召回產品,如此方可謂合於注意義務。在本案中,依照上市時的科技水準,無法辨別汽車所具有的瑕疵,故製造者A廠牌針對被撞傷的乙並未違反注意義務。然而,若是A廠在此一事件之後,確認汽車有此一安全性漏洞,卻未針對同型汽車之車主提出警告,或必要時召回已銷售的汽車,同型汽車又因為同一安全性漏洞而肇事撞傷他人,A廠則可能因未盡產品上市後的責任而違反注意義務,構成不作為過失致傷罪。

三、自動駕駛肇事之過失責任

前面對於一般汽車肇事的駕駛人與製造人過失責任分析,可以作為我們討論自動駕駛肇事之過失責任的參照對象,思考過失犯概念面對駕駛自動化的新挑戰會是什麼。歸納而言,主要有三個新挑戰:一、自駕車上路的容許性;二、駕駛人注意義務是否應予降低;三、製造人產品責任歸屬判斷。

首先,將過失犯適用於自駕車會遇到與一般汽車不同的根本問題在於,是否應該容許自駕車上路?以刑法學的用語來說,使用自動駕駛是否為容許風險?這個問題的回答,需要對於自駕車的效益與風險進行衡量。一般認為,不同於一般汽車,自駕車的效益包含提升交通安全(減少人為疏失造成交通事故)、增加個人的能動性(無駕駛能力者也能夠上路)、提升生產力(將原本投注在駕駛的時間與精神使用在處理其他事務上)。相對地,不同於一般汽車,自駕車也有獨特的風險,可歸納為自主風險、互聯風險、及連結風險。首先,所謂自主風險係指自動駕駛系統獨立依照所接受資訊做出的決策欠缺可預見性,故其仍有發生事故的可能。所謂互聯風險係指自駕車與自駕車間形成的車聯網,可能他人被用來惡意操控自駕車,或者對特定自駕車傳送錯誤資訊,導致事故發生。最後,所謂連結風險係指駕駛人與自駕車的合作不順暢,例如,在系統發出警示訊號,要求駕駛人接管駕駛任務時,駕駛人未即時接手,可能導致事故的發生。由此可知,自駕車帶來效益的同時,也伴隨不可忽視的風險。在此一情況下,自駕車上路的風險是否被容許,必須交由立法者根據自駕車的發展程度權衡其效益與風險,決定何種條件下允許何種等級的自駕車上路。若是立法者允許自駕車上路,「使用自駕車」或「製造自駕車」便會成為容許風險,在刑法上不構成過失行為。

Jjunoo, CC BY-SA 4.0, via Wikimedia Commons

問題與討論(敬稱省略)

李建良:
關於自駕車可否被允許上路的問題,我認為人類習慣科技時自然能力可能會下降,所以可否上路的考量因素,也許可以納入有沒有防笨系統確保人類不要喪失駕駛能力,這是立法者考量是否允許自駕車上路時要考慮的前提問題。這個問題基本上是一個憲法問題,因為德國自駕車委員會有提出一個Guideline,裡面有一個原則就是自駕車不能讓人失去自主能力,否則會牴觸人性尊嚴,在這個脈絡底下,是不是允許自駕車上路後在刑法裡頭就會被視為容許風險,似乎還需要再考量。

薛智仁:
立法者在考量是否允許自駕車上路時,必須就自駕車的效益和風險進行評估和權衡,若是自駕車的技術可能使人失去自主能力,立法者就應該將其納入考量。如果考量的結果是許可自駕車上路,而自駕車本身也符合許可要件,製造和使用自駕車在刑法上就會被評價為一個容許風險行為。容許風險作為許可自駕車上路的實質思想,這或許大家都能接受,困難的問題其實在於,立法者應該為自駕車的設計製造設定哪些具體要件。例如,製造商在設計自駕車時,是否應該針對駕駛人可能錯誤使用自駕車這件事設計防範系統?這仍然有待討論。

(續前報告)

其次,倘若立法者允許自駕車上路,在自駕車肇事時,駕駛自動化對於駕駛人的過失責任認定有何影響,仍有待討論。我們以一個案例來說明:

案例3:甲駕駛SAE三級1之汽車,開啟自動駕駛系統後低頭觀賞影片,自動駕駛系統因陽光強烈無法辨識前方白色貨車,未啟動煞車系統而追撞,造成車上其他乘客死亡。試問,甲是否成立過失致死罪?

在本案中,駕駛人面對所謂「控制的兩難」,即在人機合作情況下,究竟應該信賴自動駕駛系統能夠安全駕駛,或者仍應隨時注意系統有無失效並保持全神貫注?對刑法而言,此一問題所涉及的是,駕駛人得否因為使用自動駕駛而降低其注意義務。對此,學說上目前尚無定論,基於以下三個理由,我傾向於降低自駕車駕駛人的注意義務。首先,駕駛人使用自動駕駛系統時,通常無法得知自動駕駛系統是否、何時不能安全運作,即使及時發覺系統失靈,也不一定有充分時間採取迴避事故的措施,此一注意義務可能超出駕駛人的能力。若是認定駕駛人違反注意義務,則形同要求駕駛人為其無法避免的事情負責,有違罪責原則。再者,若不降低駕駛人的注意義務,駕駛人將無法享受自駕車的好處,則自駕車並無發展之必要。最後,不降低駕駛人的注意義務,未必能提升駕駛的安全性,因為自駕車的重大利益就在於排除人為疏失,若是要求駕駛人隨時準備介入自動駕駛系統,反而增加人為疏失導致事故的風險。因此,我認為駕駛人的注意義務應該下降,唯有當駕駛人可能辨識自動駕駛系統無法安全運作,且駕駛人能夠及時介入,但駕駛人並未接管駕駛任務時,才算是違反注意義務,而可能應承擔過失責任。

第三,在立法者允許自駕車上路情況下,當自駕車的等級越高,駕駛人的注意義務隨之減少,甚至完全不承擔駕駛任務,一旦發生事故,追究駕駛人過失責任的空間變少,設計、製造與銷售自駕車的製造人就會成為主要的究責對象。以上述案例3為例,如果甲不成立過失致死罪,自駕車的製造人是否應該為系統失靈肇事成立過失致死罪呢?

基本上,包括自動駕駛在內的人工智慧系統,具有一種「可預見的不可預見性」的特性,這是意指自動車在進入市場之前,自動駕駛系統雖然已經被訓練和測試,在使用過程之中,自動駕駛系統會根據其所接收的資訊、獨立地根據不同環境作出決策,製造人並無法預見上路後會做出什麼樣的決策,而此種不可預見性是製造人已經可預見的,故稱之為「可預見的不可預見性」。在認定製造人的過失責任時,這個特性在三個方面帶來影響:一是製造人的注意義務,二是不易判斷結果可避免性,三是不能適用第三人負責。

第一,一般汽車製造人的注意義務,係依照消費者保護法之規定,區分為上市前與上市後而有不同標準,如前所述。然而,自駕車製造人的上市前注意義務到底是什麼,則是不易界定。以機器學習為例,目前尚無相關法規,對於機器學習過程是否充足、完善,或可參考軟體公司(如:Google、Amazon)提出的機器學習最佳實作規範。同樣困難的是,製造人的上市後注意義務是什麼。前面提到的人工智慧系統的「可預見的不可預見性」,會使製造人的上市後注意義務被強化,蓋自動駕駛系統的演化難以預測,且上市後會不斷改變,製造人就必須不斷地觀察、更新自駕車風險指數,採取最新技術以排除安全性漏洞。綜上,製造者在自駕車上市後的注意義務會被強化,若其未盡到警告、召回義務,則應認為製造者違反注意義務,而有被課予過失責任之可能。

第二,縱使製造人違反注意義務,依照過失犯檢驗架構,仍須判斷結果可避免性的有無。然而,自動駕駛系統的訓練、運作方式是一個黑盒子,即使我們認為製造人對於自動駕駛系統的訓練不足,我們也不一定能夠確定,如果製造人換另一種建模方式去訓練系統,就可以避免肇事的結果。因此,演算法黑盒子的主要影響就是難以判斷結果可避免性。若是如此,基於罪疑唯輕原則,製造人也不成立過失犯。

第三,在自動駕駛系統可以依據不同環境和資訊獨立決策之下,製造人可能主張肇事結果的發生是出於自動駕駛系統的自主決策,主張第三人負責進而排除自身責任。對此,由於機器在法律上尚未被承認為人,且機器如何決策也是取決於人類如何訓練,如果讓製造人因為機器介入就免除自身責任,並不合理。

問題與討論(敬稱省略)

楊岳平:
我有幾個問題想要跟主講人確認,你所提到的製造者事後觀察義務,在刑事領域是否已經是一個確定的義務?因為在民事領域中商品會被招回大多是因為有「上市前」就存在的問題,如果是進入市場後所延伸出來的瑕疵,在消保法底下並不是製造者要負的責任,所以人工智慧的民事責任才會討論是不是應該要增加這一個所謂的「事後監督義務」,我比較好奇刑法發展上這是不是一個相對比較確認的義務?

薛智仁:
我嘗試回答一下,製造者在商品上市之後的觀察義務、招回義務等等的擴大是跟著民事領域來理解的,在自駕車部分如岳平所說,歐盟討論是不是要擴大觀察、招回義務,基本上與刑事領域的走向相同,所以注意義務的部分可以這樣理解。

邱文聰:
可以回答一下岳平的第一個問題,到底產品製造者的責任是畫在上市前必須符合當時科技水準,或是之後仍然會有繼續觀察義務,我覺得可以用藥品或疫苗為例,當產品是一個新的東西、其風險還不確定時,我們會知道所謂上市時的科技水準存在相當多知識缺口,並不是那麼足以信賴,所以才會需要在上市之後繼續觀察安全性的問題。在藥品管制上有這樣的明文規定,某一些藥物在上市之後仍然必須要進行安全性的檢測,提供給兩位參考。

吳建昌:
您剛剛提到像amazon或是其他在發展自駕車這些公司,他們有best practice這樣的一個指引或者是概念,將來如果國家要讓這些自動駕駛的機器能夠上市,機器是不是應該要表現的比人類駕駛好?假設用一年當中造成的肇事率、死亡率或受傷率等指標去比較後,自動駕駛機器在上路後做千千萬次試驗,比率應該要比人類駕駛好,不能比人類更糟才可能上市,best practice應該要達到這樣的程度才值得我們參考,這是我第一個我的論述與想法。再者,人類將來駕駛技術會不會突飛猛進或者就此停滯無法確定,而自動駕駛技術則可能越來越好,則未來認定過失與否的標準,似乎是已經不是跟人類而是跟自動駕駛本身比較,那麼如果說廠商夠聰明話,是不是有可能永遠不要將自動駕駛提升到更好的程度,而只要永遠都比人類好即可,如此一來除非國家有自我提升義務存在,否則自駕車的技術似乎可能停滯不前?

薛智仁:
自駕車的廠商有沒有誘因讓他的機器越來越好,不只是比人類好,我認為這是有可能的,但是理由並非在於法律要求,而是在於經濟上的誘因。自駕車的發展之所以如火如荼,很重要的原因在於能夠帶來很大的經濟收益,對於廠商而言,若自駕車在各種環境下都被允許上路,則會有更多人願意使用自駕車,所以這種經濟上的誘因就足以讓這些廠商提升自駕車的性能,所以我想這個問題也不是刑法學本身可以回答的。

邱文聰:
針對在判斷何謂注意義務、best practice時,依照我的分類可以把人工智慧分成「模仿型AI」及「發現新關聯性AI」,模仿型AI成功與否有一個指標,可以從他模仿人類像不像來做判斷,例如剛剛建昌提到的以肇事率、致傷率來判斷。那發現新關聯性AI可能就不存在一個清楚的指標判斷成功與否,我們無法從表現來判斷,似乎只能從訓練程序予以規範,提出這個觀察與大家分享。

薛智仁:
我想可以補充一個同樣與機器學習有關的問題,自駕車的製造者對於自家車上路可能會遇到兩難困境,也就是當「電車難題」發生時,應該要如何訓練自駕車的問題。這個問題大家都知道在倫理上、法律上都有很多不同的聲音,到底應該要採取最少侵害原則或是優先保護乘客原則,都是設計自駕車時需要面對的難題。我個人認為應該賦予製造者在面對這個難題時有一個判斷餘地,也就是製造者所採取的方法只要在目前討論中有被支持,那便可以認為製造者符合注意義務。另一個可能性是,製造者在向國家申請上路許可時,應該要揭露其對於兩難困境所採取的演算法,只要主管機關在知情情況下許可了,那製造者就沒有違反注意義務。

(續前報告)

Norbert Nagel, CC BY-SA 3.0, via Wikimedia Commons

參、因應人工智慧風險的刑事立法模式

綜合前述討論可以發現,在自動駕駛肇事時,如果只以過失犯來追究駕駛人及製造人的責任,在某些情況下,可能導致無人為肇事結果負責,而由被害人承擔不幸的後果。駕駛人與製造人從發展自動駕駛中獲益,風險卻交給潛在的被害人承擔,對於此一風險分配失衡的結果,必須思考刑法如何因應。對此,我們可以分析三個可能的因應模式。

第一個模式乃承認人工智慧的可罰性,此模式在民事領域受到許多支持,但是我認為在刑法上可能不適合採用此模式,理由在於,刑法堅持罪責原則,無罪責則無犯罪,但人工智慧系統無法符合刑法上的罪責概念。依據規範性的罪責概念,罪責係指行為人可非難地決定實施違法行為,可非難性的前提是行為人有他行為可能性,也就是具有意志自由,然而人工智慧並不具有意志自由。依據功能性的罪責概念,罪責是社會建構的產物,刑法為了維護規範效力,而將罪責歸屬給某個人,只有能夠理解規範意義進而違反規範者才具有罪責,但是人工智慧也欠缺理解規範或違反規範的能力。因此不論依據哪個罪責概念,人工智慧都沒有承擔罪責的能力。附帶一提的是,若是承認人工智慧的可罰性,還可能產生一個風險,那就是製造人便能夠透過主張第三人負責來規避自己的過失責任。若是過快免除製造人的責任,將會忽略在機器所進行的各種決策背後,其實還是人類在決定,而無法真正回應人工智慧的獨特風險。

第二個模式乃比照民事法承認無過失責任,當自駕車肇事時課予製造人無過失責任。在民法上,承認無過失責任,一方面顧及科技創新的需求,另一方面讓因為科技而受益的人承擔人工智慧的風險,有其合理性。但是,刑法至今仍堅持罪責原則,不罰無故意或過失的行為,無過失責任將與罪責原則有所牴觸。除此之外,若是立法者基於容許風險而許可自駕車上路,卻又讓製造人在自駕車肇事時負無過失責任,等於是要求其為容許風險負起刑事責任,這很可能過分阻礙科技創新。

第三個模式乃針對具有高危險的人工智慧設備增訂危險犯構成要件,這是未來較為可行的立法模式。此模式的優點在於可以克服過失犯在人工智慧適用上的侷限,亦可以避免基於演算法黑盒子造成的結果可避免性認定困難,且能夠在特定範圍內容許人工智慧的發展,可謂在科技發展與法益保護中較能取得平衡的模式。例如,立法者可以透過禁止授權人工智慧系統決定人類的生死,或是禁止高風險的人工智慧系統進入市場等方式,明確劃定人類對於人工智慧系統風險的責任,增設犯罪構成要件處罰製造、銷售自動武器系統、未經許可販賣照護機器人或自駕車等,皆是考量防止生命身體之重大風險所必要的作法。

問題與討論(敬稱省略)

邱文聰:
想確認所謂的「強人工智慧」到底適不適用人類的刑法?

薛智仁:
我剛剛提到人工智慧無法成為被處罰的主體,是因為他沒有辦法理解規範,如果有一天強人工智慧出現,他也跟人類一樣可以理解並違反規範,那麼他便可以適用人類的刑法規範。但是,現實上更有可能發生的是,強人工智慧的能力比人類更強,表示人類已經喪失對強人工智慧的控制性可能性,那必須思考的就是:讓強人工智慧適用人類這種比他能力低下的生物所創造出來的法律,以及受制於人類擔任法官所做成的判決,到底對這種強人工智慧有沒有影響力?似乎更有可能演變成強人工智慧思考是不是要給人類一個法律上的地位,那麼根本上要做的可能是禁止強人工智慧的製造,且對於製造這種強人工智慧給予處罰。

邱文聰:
第二個想確認一下,你在立法的建議是採用抽象危險犯的方式處理,但抽象危險犯在一般刑法學理論下似乎有很多爭議,對於人工智慧到底會不會產生所謂的剩餘風險我們其實還不確定,這個情況下使用抽象危險犯的立法模式是否妥當?

薛智仁:
我們不應該直接了當的去拒絕抽象危險犯的這種立法方式,我們對抽象危險犯的控制應該是在於構成要件是否要訂的夠具體、夠詳細,以至於我們能夠盡量減少處罰實際上沒有危險的行為,同時又能夠透過這個抽象危險犯達成所想要的預防法益侵害效果。所以我認為關鍵在於構成要件如何設計,使我們一方面能夠預防法益侵害,另一方面又不會過度限制自由。結論上我個人不會這麼排斥抽象危險犯的立法,我認為關鍵在於如何設計構成要件。