AI與法律、哲學、社會議題跨領域對談〔自駕車場次〕

時 間:107 年 9 月 28 日(五)13:00-14:40
地 點:國立台灣大學社會科學院梁國樹國際會議廳
與談人:
劉靜怡(國立台灣大學國家發展研究所教授)
謝世民(國立中正大學哲學系教授)
薛智仁(國立台灣大學法律學院副教授)
陳忠五(國立台灣大學法律學院教授)
主持人:李建良(中央研究院法律學研究所研究員兼副所長)
記 錄:陳柏良(科技部人文社會科學研究中心博士後研究員)1

本場次議題由李建良教授擔任主持人開場,李教授指出:隨著 AI(Artificial Intelligence)與自動駕駛的發展,如何確保人的理性與尊嚴,是我們這個世代共同面對的課題。因此特別邀請四位具有法律與哲學背景的講者,分別就自駕車對於公法、民法、刑法與哲學等面向的衝擊挑戰與未來展望,進行 15 分鐘報告,並在隨後的與談時間,供現場參與的學者專家一起討論。

一、劉靜怡教授談〈自動駕駛的法律議題〉

劉教授首先提出的問題是:人工智慧是否有規範需求?劉教授指出:人工智慧是另一場進行中的產業革命。依歷次工業革命歷史經驗:產業革命將衍生各種管制需求。因此,在這次產業革命浪潮下,倫理與法律是否可以作為一種產業革命浪潮下的新保護性規範?

其次,劉教授初步認為:自動駕駛目前已是倫理與法律對話成熟的領域有機會成為未來人工智慧其它子領域的規範典範。劉教授回顧自動駕駛簡史: 從 1930 年代的自動公路系統,到 2010 年代的自動駕駛汽車。自駕車對社會整體提供的好處,主要是:提高交通安全、解決交通阻塞、提升能源利用效率。「交通安全」是作為自動駕駛汽車的「最大」優勢。因此許多公私部門研究計畫 計在 2020 年左右,自駕車可以量產商用。

雖然自駕車提供上述效益,然而其仍無法迴避一個關鍵議題:如何處理各國與各人間倫理評價不一的困境?劉教授指出:倫理評價,在人工智慧規範中扮演「定錨」功能。但是在機器倫理學中,我們仍然面對以下問題:倫理評價如何形成?遵循誰的倫理評價?自駕車演算法決定駕駛乘客行人及相關者的安危生死:如何看待演算法的性質?是否及如何監督演算法的形成與運用?自駕車的 Trolley Problems(電車難題):到底應該犧牲誰?自駕車規範爭議始於倫理? 終於法律經濟分析?

最後,就法律監督下,自動駕駛演算法的未來,以及倫理與法律作為人工智慧時代的保護性規範兩大議題,劉教授提出一張管制的初步問題清單,供學界與產業界各方一同思考:自駕車強制規範的界線與內涵?自駕車原始製造商 v.s. 第三方安裝自駕車系統?自駕車的駕照許可制?人類駕駛者的地位?自駕車操作者的地位?自駕車失靈提醒系統的必要性?個人資料搜集的告知同意程序及其效力?自駕車事故的責任歸屬原則?自駕車事故受害者補償救濟基金?自動駕駛演算法的(強制)監督必要性?如何監督?研發者的義務?製造商的 務?操作者的義務?駕駛的義務?何種情況下必須由人類駕駛接管人工智慧?對於受自駕車影響者的警告義務與警告範圍?

(左起)謝世民教授、薛智仁副教授、陳忠五教授、劉靜怡教授、李建良教授

二、謝世民教授談〈自駕車倫理學〉

謝教授表示隨著人工智慧科技發展,我們對於此一發展將帶給人類的潛在威脅必須辨識、防範、抉擇。謝教授呼應 Stuart Russel 的看法,認為當代社會與 AI Community 的共同難題在於:如何製造出契合人類價值觀的智能機(intelligent machines)?

在自駕車領域,第一個難題就是:是否需要在自動駕駛車上,內建安裝統一的倫理系統?還是安裝的系統應符合客製化需求?

從效益主義的觀點,自駕車的倫理系統程式應該以極大化社會總體福祉為 目標,因此應該安裝一個統一的倫理系統。然而從自由主義的觀點,合理的倫 理觀多元分歧,是現代社會的特色。科技只是個人的倫理代理人,因此政府應尊重個人的倫理觀。因此謝教授正在執行的計畫,乃是如何建構一個客製化的自駕車倫理內建系統。最後,謝教授並呼籲台灣各界認真思考德國聯邦政府對於自駕車倫理委員會的報告與 20 點提議,以供台灣未來研擬國內倫理規則參照。(Ethics Commission: Automated and Connected Driving, report, Federal Minister of Transport and Digital Infrastructure, June 2017)

三、薛智仁副教授談〈初探自駕車的電車難題:刑法學觀點〉

薛教授本次與各界對話的重點放在:刑法如何回應自動駕駛的電車難題? 古典的電車難題有二:當駕駛發覺異常狀況時,只能選擇撞上前方五人,或轉方向盤撞上左方三人,應如何選擇?(案例一)以及當駕駛發覺異常時,只能在選擇自己掉下懸崖,或者轉方向盤撞上右方一個行人,應如何選擇?(案例二)

薛教授指出,刑法學對於「人為駕駛」面臨上述電車難題,已經提出大致上具有共識的評價標準。現行台灣刑法第 24 條規定:「因避免自己或他人生命、身體、自由、財產之緊急危難而出於不得已之行為,不罰。但避難行為過當者,得減輕或免除其刑。」依此規定,「不得已之行為」係指避難行為係保全利益所必要,並也所保全之利益重大優越於所犧牲之利益。據此,人為駕駛在面臨上述生命與生命衝突的電車難題時,不得以犧牲他人生命的方式保全他人或自己的生命。因為,人的生命質量無法權衡,要求無辜第三人為他人犧牲自己的生命,亦已超出社會連帶義務的界限。

上述評價觀點係適用於直接面臨衝突狀況的駕駛人所發展而來,然而在第 四級與第五級的自動駕駛,在兩難困境發生時並無自然人操控汽車,而是由程式設計者事先決定自駕車在面臨兩難困境時如何反應。倘若程式設計者指示自動巡航系統遵守「最小損害原則」和「優先保護乘客原則」,自駕車因此轉彎撞死他人,程式設計者或使用者應該負殺人罪或過失致死罪的刑責嗎?自動駕駛與人為駕駛在電車難題的法律評價基準,是否不同?

對此,目前德國刑法學對於自駕車的電車難題,部分主張完全適用傳統的緊急避難規則;部分文獻主張不必適用緊急避難規則,而是只要遵守最小損害原則,即可阻卻不法,主要理由是自動駕駛的肇事率比人為駕駛更低,而且程式設計者的決策情境與人為駕駛不同。薛教授認為,自駕車之肇事率降低是一個與如何回應電車難題無關的事實,而程式設計者的決策情境不同於人為駕駛者,並不會改變生命質量不可權衡及社會中個人不負犧牲生命之社會連帶義務的事實,故應依據緊急避難規則,否定自駕車轉彎犧牲無辜第三人生命的權利。

基於如此的觀點,薛教授特別指出在人性尊嚴與個人自主原則下:(1)自駕車不得在緊急狀態下,造成他人死亡或重大傷害;(2)自駕車的技術只能因應相對單純的兩難困境;(3)自駕車之使用者應被告知其於兩難困境中的生命風險。

四、陳忠五教授談〈自駕車在民事法體系的未來〉

陳教授首先提出的問題是:機器人(自動車)是「人」還是「物」?而自駕車與機器人,首先必須面臨的課題是:機器人是「人」嗎?近代民法體系發展,將「人」的定義朝向功能性概念方向發展。因此「人」已經抽象化,包含「法人」以及物的「擬人化」;人體分離物、寵物、動物等,都已經在部分國家中某程度上被認定為具有「人格」。雖然如此,以現今各國的民法體系而言,對於機器人(自動車)目前仍然認為是「物」。因此,自駕車不僅是物,也是一種「交易客體」,因此適用民法物之「瑕疵」的概念,也可以成為「擔保標的物」,亦可成為履行輔助「物」。 其次,陳教授指出,民事責任法體系中,自動車也可以是一種「損害原因」,自動車除了可以作為一種「侵害行為」的工具或手段之外(人的行為責任),另可能作為一種獨立的「損害原因事實」(物的責任),包括:(1)危險物肇致意外事故中,自動車作為一種「交通工具」:交通事故責任;(2)自動車作為一種「流通市場的商品」:商品事故責任。

而上述這二種責任與傳統的行為責任有何區別?陳教授指出,自駕車肇致的損害,應有責任嚴格化的必要。亦即,必須探究(1)歸責對象:誰有管領權限?(2)歸責事由:安全性欠缺與否?(3)因果聯絡:物是否肇致損害?(4) 保護法益:人身或財物完整利益是否受到侵害?此外,除了責任嚴格化以外,民事法體系中,損害填補的需求,必須被實踐。因此陳教授主張,對於自駕車應該揚棄行為責任思考,轉而以:損害保險,人身、財產等商業保險或社會保險,責任保險,或擔保基金的方式,來分散不可預見的風險。

最後,陳教授認為:目前看來,機器人(自動車)對民事法的衝擊有限。不論是民事法規範結構,或民事法基本理論,都不會因為自動車及 AI 的發展有重大衝擊。陳教授認為民事法僅需在個別規定和用語重新調整,即可在新的 AI 時代中,有新的生命力。