人工智慧與法律規範學術研究群
第二年期(2019-2020)
第四次會議
2019年12月20日(星期五)
主持人:李建良(中央研究院法律學研究所特聘研究員兼所長)
主講人:吳全峰(中央研究院法律學研究所副研究員)、莊錦秀(國立東華大學財經法律研究所副教授)
◎整理:洪于庭
◎定稿:李建良

概念釐清
AI之定義
Model 1:單純把AI當成工具
Model 2:把AI當成actor或control agent
兩種模型的法律規範可能會不一樣,主要取決於政府或國家想要採取哪一個策略,會有相對應的法律規範。就醫療責任而言,醫生(醫療專業)似乎希望採取Model 1的方式。以美國來說,不認為會有可自主做決定的機器,機器無論如何都只是工具。歐盟也是類似的狀況,亦不認為AI可以完全取代醫師,傳統的侵權責任(類似危險動物的概念)已經可以處理這樣的問題,AI直接套用即可,所以傳統的責任體系即可解決。本次討論之AI,係指還沒有到達可以完全自動化或可以跟病人直接互動的、自主能力較低的AI。因為在醫生的概念之下,沒有完全自動化的可能性,故以下處理沒有自動化,或自主能力相對較低的AI。
討論角度
需要釐清的是,在討論醫療法律責任時,涉及許多的醫療專業人員,例如醫師、護理師、復健師等,在爬梳的過程中發現,處理的方式不太一樣,在此主要以醫師的角度來討論。在此前提下,歐洲和美國在處理類似問題時,會盡量把AI拉進醫療儀器之範圍內,使用既有的規範解決,而非嘗試發展另一套管制規範。此模式將AI視為單純的工具,不是一個獨立的法人格。醫療人員的操作如有過失,即回到侵權責任體系處理;設計製造的過失,則回到產品責任的規範體系。以下討論,若把傳統的框架套在醫療AI上,會出現什麼樣的挑戰?
傳統的框架在醫療AI上出現的挑戰
管制客體
傳統上,管制客體通常會區分software(醫生提供之服務,用侵權責任、契約責任處理,非常容易用免責聲明來排除責任)與hardware(醫生使用hardware出問題時,回到產品責任)兩大區塊處理。在醫療 AI 出現的狀況是,software和hardware能否清楚切割?哪些東西是單純的產品,哪些是單純的服務,並沒辦法切得那麼清楚,所以若要套用傳統的侵權責任,可能會出問題。
醫療AI提供多元的功能,在不同的狀況下會提供不同的服務,造成不同的傷害。服務之下的自主性程度,也可能不一樣。換句話說,Medical AI 在操作時,可能在A場域提供的是A功能,在B場域提供的是B功能,此AI在不同場域的自主程度可能不一樣,會影響責任之判斷,在此情形要如何區隔?舉例來說,Big data、Deep learning 跟AI是三個完全不同的概念,假設一個medical AI協助醫生做決定,其為提供醫生某種程度建議的工具,醫生採取其建議。在此情況下,其提供的建議是Big data下演算出的結果,我仍然能夠掌握該Big data(自主性之程度沒有那麼高,服務的功能較為單一);抑或是其已經演化成Deep learning 或AI(Autonomy之程度慢慢提升)。要如何切割,可能會出現問題。提供醫療服務的過程中,可能這個程序同時有Big data、Deep learning 跟AI,在三者同時出現時,要如何定義。在此情形下,管制客體需先釐清。
注意義務(醫療常規、醫療水準)與medical AI
在醫療糾紛中,需要檢視醫療常規、醫療水準,尤其條文修正後,醫療水準的比重佔得非常大。在此情形下,部分醫師會主張醫療糾紛需採用「漢德原則」,若管制的成本(即要求醫師負責)小於因接受治療所造成之損失可能性乘以損失強度,醫師即無須負責。部分醫師會認為,若medical AI介入,會使遭受損失可能性乘以損失強度大幅提升(相對於人類醫師),即使有損失發生,因為其管制成本較所帶來的利益小,故只要是medical AI,就不應負任何的醫療法律責任。
部分文章則指出這樣的比較方式是錯的,因其不應跟人類醫師做比較,應該把medical AI跟medical AI作比較,故管制成本大於遭受損失可能性乘以損失強度時(B>PL),仍應負責,而非人類一使用medical AI即完全無需負責。此會與duty of care有關,因為當medical AI跟medical AI作比較時,要判斷是否構成過失,涉及是否違反注意義務,此又涉及醫療常規及醫療水準,在此傳統的醫療常規及醫療水準,有些可以直接套用,例如medical AI沒有保養導致病人受感染,就如同手術刀沒有清潔乾淨造成感染而違反注意義務,可以套用傳統的注意義務。
然而,是否所有傳統的注意義務都能套到medical AI的使用上?醫療常規及醫療水準是否會因為medical AI的介入而產生變化?此變化會使醫療過失的判斷,也產生改變。例如,假設medical AI 需要定期掃毒,沒有掃毒會影響其判讀結果,假設把此medical AI連上網路,造成所有AI都可能判讀錯誤時,定期掃毒的責任歸責在何人?傳統上不會要求醫療人員盡這樣的責任。此責任會是醫師的責任嗎?或是另外有一個專業人員要來負責此事?是否要納入醫院的責任?依醫療水準及醫療常規的判斷,可能會有某種的擴張,此擴張包括範圍的擴張及內涵之質變。
- 範圍的擴張:
傳統的注意義務通常是依據醫療水準及醫療常規,此又是依據醫學會來判斷此醫療行為之醫療水準及醫療常規為何,但在medical AI的操作上,單純倚賴醫師來做注意義務之判斷,會發現有些缺失。
在此情形是否應納入medical AI的設計、製作、操作人員,來決定duty of care為何?例如,在購入medical AI時,需要輸入X光片讓AI學習(可能演算法的設計者會在前期輸入一些,後期則仰賴醫師的輸入),醫師在輸入時是否有應注意的地方來避免偏見,此輸入過程之注意義務為何?較困難的地方在於輸入此資料的醫師,不一定跟病人有直接的聯繫,並無建立醫病關係,但醫師所輸入之資料影響了medical AI,也影響了病人的權益,如何解決此問題?在輸入過程中,是否需要AI的設計、製作、操作知識來避免偏見強化的問題,此是否會跟醫師的不歧視義務有某種重疊?但又好像不是傳統想像中的不歧視注意義務,如何解決此問題?另外,程式設計者是否須負擔到醫療專業人員的注意義務?還是單純當成AI的操作人員?其範圍可能因不同的專業介入,使得他的範圍擴張,而影響到duty of care的內容。
- 內涵之質變:
medical AI 的出現改變了告知後同意的內涵,告知後同意在醫療法上一直是醫師的注意義務,沒有盡到告知後同意時,會認定為過失。假設AI的黑箱作業會造成告知後同意的原則出現挑戰時,要怎麼界定醫師使用medical AI 跟病人告知義務時,告知內容要如何轉變,注意義務的內涵在此會產生質變。
若把侵權行為的概念直接套入medical AI,可能會出現的第一個挑戰就是注意義務的問題要怎麼解決?也有學者認為,不論這些挑戰,傳統的注意義務直接套用在醫師身上;亦有學者認為,如此反而會扼殺了medical AI的發展,因為medical AI就是希望跳脫傳統的治療模式,如何又用傳統的醫療注意義務來套用。
在此會有一個比較難解的結—注意義務要如何介入?美國及台灣在此都非常尊重專業自主,注意義務的內容(醫療水準及醫療常規)通常由醫學會決定,若醫學會不願意納入其他專業,或不願意正視注意義務的改變,就會維持原有的醫療常規,法院不是強迫醫學會來做改變,就是維持此一狀況,我目前對此沒有解答。
另外的可能的方式是把medical AI變成專科,給予某種證照(類似家醫科或專利律師),這個專科再發展自己的注意義務,medical AI即會有自己的注意義務。證照制度可能會是一個解方,來改變注意義務。然而若真的成為一個專科,可能會使該專科下出現非常多的次專科,會非常複雜;也可能是一個次專科下面,每個都有medical AI,也會非常複雜,跟其他專科的界線怎麼區分,也會是另一個問題,這是我們目前還沒有解的地方。
總之,注意義務是一個問題,要怎麼去改變它,目前還沒有完整的解答。

因果關係與medical AI
另外一點是,假設把侵權責任或契約的侵權責任拉進來,因果關係非常容易被中斷。當涉及medical AI,有關黑盒子已經有非常多討論,當資料已經豐富到某種程度、演算法已經複雜到某種程度時,醫生可能不會知道AI為什麼提供這個建議。故即使醫生說是自己做的決定,也只是形式上做出此決定,完全不理解AI內部所採用的東西。此時,即便AI只是工具,醫生是否可主張此非其所做成的決定?可能是廠商設計的問題。在此沒有人能夠釐清到底是醫生判斷錯誤,還是廠商有問題。在此,黑盒子可能會造成因果關係中斷。
即便不是黑盒子,假設資料量夠大,同樣會有此問題,我們目前出現的狀況是,假設今天medical AI可以處理非常大量的資訊,也可以搜集到我所有的生活習慣、一直以來所有的心電圖、我的家族病史、基因資料。癌症醫師未必能從這麼大量的資料裡面去做出理性的判斷,決定該做什麼事。所以AI雖然作為工具,當資料量大到某個程度,就已經不再是工具了。在此因果關係會不會中斷?
另外,其可能牽涉到醫療領域內非常多不同的專業,甚至是與醫療以外的專業的互動(例如跟程式設計者的互動),在此要怎麼去認定因果關係?此甚至可能會複製到醫療體系內不同的專業,例如medical AI本身結合了檢驗科、放射線科之功能,結合兩者的資訊做出建議,此時癌症科醫師是否能做出判斷?當medical AI出現後界線會越來越模糊。
假設我們希望把medical AI當成工具,並套用傳統的侵權責任,就不能像目前醫療法的規範,把醫療行為當成單一行為。包括人機互動的程度、使用用途之差異、演算法設計的複雜程度、資訊量的多寡,都可能會影響到法律責任之認定。例如,放射線科判讀X光線的AI,與外科所使用之medical AI,邏輯跟影響完全不同,兩者可以套用同一套責任理論嗎?本文認為不行。在此可能要做更細緻的區分。
以上皆為單純將AI當成工具。然而當medical AI不再只是諮詢的角色,而可以跟病人直接互動,甚至可以取代人類決策時,就完全不是傳統法律可以解決的,因為傳統侵權責任的前提還是人類自由自主意識所做的決定。當AI跳脫此層次,就必須重新檢視原有的侵權責任,來解決此問題。那我們的討論要停在單純將AI當成工具,還是要包含下一步(automatic robot)?
醫療院所侵權責任
若目前把AI當成工具,醫療院所與醫師為僱用人及受雇人的關係,用傳統的方式解決並不會產生問題。比較有趣的在於,國內部分主張認為醫療院所可以負自己責任,假設可以負自己責任,medical AI自動化到某個程度(例如其可完整判讀影像資料),醫療院所可否主張,既然需負自己責任,我買一個medical AI,自己解讀X光影像,完全不需要醫師,由我自己當責任者(出了任何問題由醫療院所負責)。當醫療院所的自己責任被慢慢建立,將會改變醫療行為之定義(目前醫療行為必須由醫師為之),醫療行為不一定要由醫師為之,由醫療院所來負擔責任。
嚴格責任
依照消保法之規定,在商品設計時,須符合當時科技或專業水準可合理期待之安全性,問題在於何謂「當時科技或專業水準」。由於medical AI是一個不斷演化的過程,「當時」要如何界定,可能會出現問題。而「當時科技或專業水準」無法確立,「可合理期待」亦無法確定。
若醫師、醫院購買的medical AI算是醫療器材,是否適用消保法?目前衛福部沒有做出任何解釋。本文認為可以適用消保法,醫生購買以後,因為產品瑕疵造成病人之損害,病人可以跟廠商要求產品責任,但不確定衛福部之見解。可能有問題的是,醫師、醫院購買的medical AI是否算是消費關係。
另一個可能的問題是「不得僅因其後有較佳之商品或服務,而被視為不符合前條第一項之安全性」,但medical AI很可能在之後有較佳之商品或服務,在此要如何解釋?尤其是AI不斷升級時。另外的問題是,升級是廠商之義務還是醫療人員之義務?
在專業水準的認定管制密度可能要有比較細緻的區分,是一個新而且semi-critical的產品、或者是已經成熟但是semi-critical或是一個缺少明顯危險的產品,例如X光片之判讀可能是最後一種,而若是治療且之前沒有先例,可能會變成第一種,在此注意義務必須做區隔。有學者會認為第一類,必須有保險而非單純的嚴格責任,在台灣也許可以嘗試藥害救濟法(然而衛福部的函釋認為醫療器材不適用藥害救濟法,故當medical AI作為工具,就不在藥害救濟法之範圍內,僅能回到消保法)。另外,medical AI屬於高度客製化之產品,不同醫院學習後產生的結果可能不同。此傷害是否因為未符合當時科技水準產品所造成,或是由於醫療專業人員或醫院在客製化過程產生(類似自駕車的問題),會不會產生因果關係中斷可能是未來要解決問題。
莊錦秀(補充):
若要把AI當成主體,會涉及診療之分類,要把他當作哪一科?在責任歸屬上,不管是過失認定、因果關係認定都會出問題。若立特別法,可能也會有問題。至於消保法能否適用於醫療器材?目前應該是可以,因並無排除,因為不是生產即為消費。另外,若把AI當成工具,醫療人員使用AI所造成的責任歸屬,是否真的能把它當成工具?在使用時AI會不斷的更新資料,到最後會不會是產品責任的問題。
AI可以取代哪些科別
現行醫療法第12條第3項:「醫療機構之類別與各類醫療機構應設置之服務設施、人員及診療科別設置條件等之設置標準,由中央主管機關定之。」主管機關訂定了「醫療機構設置標準」,其第18條規定:「醫院之診療科別,依專科醫師分科及甄審辦法所定之分科或細分科登記設置。」專科醫師分科及甄審辦法共有23種分科。
國外文獻認為較可能被取代的科別為(暫不考慮法律強制人類醫師為醫療行為之情形):臨床病理診斷科、放射診斷科,其特徵為針對固定且靜態的醫療情境進行分析。有類似情形者為家醫科(其醫療服務之內容為臨床症狀尚無特定之前兆時之提前臆診,其較容易與AI結合變成獨立的專科,由AI為整合判斷,再與其他科會診)、復健科(在固定的現狀下,提供穩定的、反覆的訓練,較容易被AI取代)。
問題與討論(敬稱省略)
邱文聰:
前面提到Big data、Deep learning 跟AI自主的程度不太一樣,是否可以多做說明?
吳全峰:
Big data較無自主學習的功能,Deep learning是利用已知的東西來做預測,AI則是有某種的神經節點,可以利用已知的東西來預測未知的東西。
邱文聰:
從定義上觀之,在AI分類上也有弱AI、強AI,可能某些人所稱的弱AI,就是這裡所稱的Deep learning,而Deep learning 又必然要以Big data當作前提。依照這樣的分類,medical AI可分為三個層次:一、傳統大量數據分析的統計結果;二、透過深度學習來模仿已知的人類行為,還是有個對錯架構在過去的人類知識之上(例如這張影像判讀是否正確,並非由AI自主判斷,還是由人來判斷);三、超越現有知識,連現有知識都無法當做基準來衡量AI所學是否正確(沒有任何醫師知道到底學對學錯,醫師也無法理解),其已跳脫之前給他的知識而做出自己的判斷,此判斷說不定最終是對的。那對應到黃居正老師的分類,看來這三個都有可能還是model 1?
吳全峰:
目前看來醫界的建議,都還是工具。
邱文聰:
即便到了我們不知道他學習的內容為何,還是把他視為工具?
吳全峰:
他們認為不可能有那種東西model
邱文聰:
是因為還沒有發展到那個程度,所以拒絕說有model 2?而不是因為規範上我們認為應該用model 1,即便描述上已經到達了第三個層次的AI,我仍然採用model 1?
吳全峰:
在我目前看到的文獻,他們認為即使到了第三個階段,還是只是給醫師建議而已,最後決定權在醫師手裡,不會把決定權交出去。
邱文聰:
問題是你沒有任何的基準,沒有任何的知識可以去判斷他學對學錯時,只把他當工具的意義是什麼?
吳全峰:
最後還是由醫師來判斷他學對學錯,縱然不知道。這是他們目前採取的model。
邱文聰:
概念部分這樣釐清了,剛剛處理了白皮書的第一個部分,對於現狀衝擊影響為何的描述性分析。剛剛也點到了幾個不同的議題,主要集中在注意義務、醫療水準及醫療常規、適用注意義務的人員範圍如何界定、因果關係中斷、醫療院所責任、是否適用消保法、嚴格責任,之後可能要將這些不同面向的議題做一些較有機的串連。漢德公式的部分是否可以再做說明?
過去談注意義務的時候,談到不同地區的醫療資源不同,故台大的醫療水準跟偏鄉的醫療水準不能放在一起比較。有另外的問題,以前受限於地方發展的醫療資源,可以有不同的標準,如果medical AI 可以相同適用。
吳全峰:
當治療效果提升風險下降,醫療水準提高,所以注意義務提高。若用相同的醫療水準要求兩者的話,會導致醫療帶給偏鄉病患的益處沒有那麼大,可能會完全沒辦法提供服務,故偏鄉的醫療水準必須下降。所以他把地域的因素抽離,只說跟所有人類相比,AI都更好。故不應用人類來管medical AI。
楊岳平:
這裡的爭論似乎是,到底要用人類的標準還是medical AI的標準?
吳全峰:
不該用人類標準來管制AI,因為AI比所有人類做得更好,故不會有責任。所以有學者認為不該適用漢德公式,AI不是跟人類比,而是跟其他medical AI比,而是不同的medical AI。但這有個前提狀況是,要有其他medical AI。
蘇凱平:
這與量刑系統有許多部分是相似的,比如說文聰老師剛剛問big data 或deep learning的時候,在討論AI 法官時有一模一樣的問題。在討論量刑時,從big data 的觀點,把所有同樣類型的判刑資料(當然一樣會有被動偏見或主動歧視的問題,但暫不考慮這個)輸入後的結果,是在既有基礎上做出來的。
但另一方面,美國在討論AI 法官很大一塊是predicted justice,我們不知道某種類型的犯罪專業法官如何判斷這個人到底有沒有做這件事,在此是否可能容許預測犯罪,不只是量刑而是定罪。換句話說,從過去掌握的犯罪資料,可以得出某特徵(例如白人、5呎7吋高、大概什麼樣的特徵較有可能是連續殺人犯),會比較容易找到人。
這有點像剛剛全峰老師講的deep learning的部分,他不是基於既有知識,又連接到因果關係中斷黑盒子的部分,我們不知道為什麼具有這些特徵的人比較有可能是犯人,這在犯罪學中本來就有在討論,這裡的討論跟量刑的討論非常類似。又例如medical AI從單純提供意見的角色,到跟病人互動,到取代醫生,在AI法官或量刑系統也是如此。目前量刑系統只是給建議,但一直有聲音希望,甚至司法院想做的事能不能夠規範法官(當然要通過法官依法審判那關),AI的判斷就是對的判斷,在量刑上取代專業法官。另外,在資料輸入時,就可能有主動歧視或被動偏見的問題,像輸入資料時,常常會發現資料是書記官自己選的。
邱文聰:
刑法在台灣會遇到一個狀況是,刑事責任到底是建立在行為人主義還是行為主義,給予某人特定刑罰,是對其過去行為的對錯評價?還是基於此人未來犯罪之可能性及反社會性?這是一個基本問題,沒有解決的話很難用剛剛所說的「白人、5呎7吋」較容易犯罪。在美國,至少在Loomis判決沒有碰觸這個問題,直接說我只是用於量刑參考,已經預設了量刑會考慮再犯可能,進而影響刑度。回到這裡,是否就是big data跟deep learning的差異,要再想一想。
蘇凱平:
因為Loomis判決,我覺得有可能不要碰觸那個議題,還是能提供一個參考的意見,如果我們鎖在行為人主義和行為主義,很有可能會一直卡住。
邱文聰:
就是因為困住所以才會拒絕使用,而且會覺得這種使用是無正當理由的(不justified的),除非整個放棄行為人主義,才能夠講說我就是預測你未來會犯罪,所以可以判你100年,就算你犯罪輕微。
蘇凱平:
但如果照這樣推到極端,其實量刑系統應該是違反台灣司法體系的,因為量刑資訊系統的設計,完全沒有考慮到行為人主義,若行為人主義是必定不能逃避的、是首要考慮的,司法院自始沒辦法做量刑系統,因為任何集體的傾向都沒辦法反映個人。
邱文聰:
我覺得司法院沒有想那麼多,他想到價目表的問題,只有在第一個層次,只是統計過去的價碼是多少,不要與此價碼差太多。他並沒有要到第二、三層次。只是現在有big data、AI、deep learning進來以後,好像開啟另外的可能性,但這是不一樣的事情。
蘇凱平:
對,他不會是量刑,是刑事廳目前還沒辦法接受的東西。
楊岳平:
在醫界還是把AI當作工具? 從剛剛兩位老師的對談中我隱約有個感覺是,之所以把它當做工具,不是因為AI開發程度到什麼地步,而是因為醫界堅持要人機互動。在這樣的背景下,真的有醫療一定要由醫師提供的法律規定嗎?不管AI多完善都必須經過人類。這或許是醫療產業的特性,在其他產業不會有這樣的要求,強制一定要有人力介入。至於醫療院所自己責任的部分,聽起來是肯定醫療院所有自己責任?
吳全峰:
目前醫學會透露出來的報告是如此,起碼目前醫療法是這樣,醫療行為只有醫生能夠做。應該說目前有些學者持此主張,但台灣還沒定見,有些判決有,有些判決堅持要有醫生責任才有醫療院所責任。但在醫療法第82條修正之後,就有學者開始主張在系統性責任不能追究醫師責任,就要追究醫療院所自己責任。
莊錦秀:
醫療法82條區分了醫事人員和醫療機構的民刑責任,程度是不同的,所以醫療院所責任有可能可以從這邊切入。另外,剛剛所談的注意義務放大以後,放射師輸入的資料、更新及機器的維護、程式設計人員,都可以成為機構責任。
楊岳平:
我想釐清的是,是不是一定要找到一個自然人才能建立醫療機構責任?就算不是追究醫生的責任,也許是追究董事會的責任,因為剛剛提到很多內部控制的問題。
莊錦秀:
不需要,醫療法82條沒有限定在自然人
楊岳平:
傳統的侵權法一直有法人本身沒有獨立之自己責任的概念,但現實上常常是直接找法人責任
吳全峰:
現在就是要打開這個,也不回到負責人身上,只追究醫療機構責任
楊岳平:
剛剛提到消費關係的問題,如果醫療設備是透過買賣關係為之,的確未必是消費關係,醫院應該不是個消費者。若非消費關係就不適用消保法,只能回到一般民法。
吳全峰:
但可能會造成更大的問題,若把AI當成工具,卻不承認他的消費者責任,也不納入藥害救濟法,就會完全空掉。
楊岳平:
一般醫院買一般醫療器材出狀況的話?
吳全峰:
產品責任,但沒有找到任何判決。
邱文聰:
應先釐清到底是機器的問題還是人的問題,因為資訊的劣勢,通常病人直接告醫院。除非輸的原因是醫生主張是機器的問題,而法院認證,病人才會再去找器材廠商。醫療器材通常不是直接提供給消費者,而是由一個專家作為中介,所以會有問題。
吳全峰:
在這裡美國法不排除可以走嚴格責任、產品責任,但不是走消保法。
楊岳平:
關於藥害救濟法,保險的意思是?若適用藥害救濟法的結果是?
吳全峰:
若適用藥害救濟法,每賣一個東西,就會有錢進到藥害基金,出問題時藥害基金會賠償或補償。
邱文聰:
不是商業保險,因為目前是跟藥廠collect這筆基金,如果要適用的話,就去collect medical device。
吳全峰:
理論上是可以的,但衛福部有一個函說不包含醫療器材。
1.以上這些問題要擴展到其他的醫療人員,還是界定在醫生的部分?
2.目前討論的問題是否應該發展到自主的機器的法律政策?
如果要討論到其他的醫檢師、物理治療師,其注意義務可能就會有所不同,所需要探討的架構及邏輯上可能就會有不相通。
邱文聰:
建議先聚焦在談論醫師的部分,但是把未來可能會遇到的問題再點出。
參、林建中老師延續上周補充AI and Liability的問題
一、內容:
- 在AI的責任上也許我們可以分成兩種類型,我們所擔心的侵害究竟為哪一個部分的侵害?少數人或是多數人,輕微的傷害還是多數的傷害,這兩種情形總共會搭配出四種不同的組合。多數人受到少數傷害,並不是所需要擔憂的部分,多數人受到多數傷害的部分,例如福島核災發生之後,日本的解決之道:成立一個處理損害賠償的法人,負責所有因為核災造成的損害賠償的責任,使原本的東電力公司不至於破產,也不至於沒有人負起責任。最後這些損害可謂是全民買單。(因為東電力公司透過逐步調漲電費的方式,還清國家無償貸予其之損害賠償金額)。少數人受到少數傷害,基本上可能會是自力救濟。少數人受到多數損害,係透過法人責任或是保險?選擇保險可能是因為能夠更好也更預先地去預知風險。問題在於,我們所欲討論的AI的法人責任到底是哪一種?但保險是否有可能處理這個問題?保險可能會拒承保AI。保險業者可能會因為不了解某個產業的性質,而拒絕承保,所以必須讓各種產業聯保。
- 結論:真正關心的是賠償,而不是「誰有錯」的問題。如果可以的話仿造金融風暴的作法,如果可以的話不要用相同的AI,以風險分擔的方式,從行為端解決 。以防不要發生一樣的事情。就法人責任而言,法人應有能力處理大部分的問題,但如果發生更巨大的損害的話,其實也有前例可循。如果AI仍然是好東西的話,也許在繼續使用上可能會發生一些損害相關的問題,但也可能會使用其他的方法解決這些發生的問題,而非禁絕AI的使用。就本文的觀點之中,在這裡要談論個人責任其實不容易,因為AI造成的損害非常巨大的話,個人也不可能賠償足夠的金額。政策上的建議:小規模的問題,也許可能用一般商業保險解決;較屬於中規模的問題,就用產業聯保,最嚴重的情況就需要政府的介入。
- 問題討論(敬稱省略)
陳弘儒:
即便不談責任,但即使責任雖然沒有實質上的意義卻有道德上的意義?或是象徵性的意義?
林建中:
AI的政策還是類似於產業政策的問題,產業政策基本上就是在未知之中做決策。從事後的觀點去批評,可能這個狀況已經進入責任難分的狀態,法律上也會出現難以處理的狀態。故從產業發展的觀點會認為可以先處理賠償的問題,因為被害人所關心的也是此問題,以及這件事情是否會再發生。
陳弘儒:
不同種的AI是否可行的問題?是否有可能因為買到同一個資料內容、使用相同的演算法,也許AI就會是同一種。
林建中:
不同種AI可能會有資料庫的差別、資料的差別。然而是否會因為演算法或是資料內容的相同導致不同種AI這個概念根本不可行這個議題,我則認為並不是一個真正的問題。以現今最主要的信用卡公司:VISA與MASTERCARD兩家公司為例,這並不是自由競爭的結果,而是刻意出現的結果,也是考慮很多政策、產業的想法才造成的。所以在商業的部分,有可能會有兩家公司刻意的將產品做出一定的區別。即便最後仍然無法完全達成區別,政府也可以到時再介入。
吳全峰:
可以區別部分在哪裏?如果以藥品來說,雖然藥品彷彿是自由市場,但是藥品的原料藥如果相同,有可能這個原料出問題了,全台灣百分之九十的商品都可能會出問題,所以問題在於,這個區別到底如何區分?
林建中:
應該要取決於利用的場景,不管是金融、醫療、甚至是影像,在AI的應用上應該都是不同的場景,應該再從各個場景的應用去區分,在最慘的情況就是強迫必須要有兩個競爭者出現。
邱文聰:
如何規範企業的反競爭行為,確保市場經濟的競爭比較容易,但實際執行上是否會有困難?
林建中:
也許可以從規範層面下手,透過授權、或是有些東西只能獨佔使用,去將區別做出來。在某種情況下去做區隔。若能夠從法政策介入或從產業界著手,相信產業界會有足夠的智慧來解決這些問題。
楊岳平:
對非系統性使用這個部分可以理解。但就像邱文聰老師、林建中老師所提到的,區別到底可不可執行、要執行到多深?以產業聯保為例,要如何「預測」在每一個場景可能會發生的問題?
林建中:
真正去了解AI使用的場景,再去幻想最可能出現的傷害,再去設想是在哪個狀況之下會是共通的,再去設想要從哪分散風險。
當有AI並且在應用的時候,就可以預測到底錯誤會出現在哪裏?如果說是以量刑為例,應該可以估計冤獄的國賠一天會是多少錢,那麼就可以預計這個設計AI的公司可否自己承擔這個問題,或者是用產業聯保的方式處理。
楊岳平:
回到這個問題實際層面來說,如果各種產業廣泛使用AI,但我們又不可能要求每一個使用AI的產業都去產業聯保。
林建中:
如果小範圍的話,就有可能出現產業聯保。假如危害太高的話,就不可能成為一個好的、被廣泛使用的AI。
李建良:
林建中老師所提出來的論點有假設了幾個前提,例如:是為了可歸責的損害,該損害之後要如何解決?先把所有前提都已經假設之後,再提出幾個看法,從寫政策白皮書來說其實是一個好的解決方式,從取代的問題來說,有一個前提的問題是:問這些問題的原因為何?
對於AI是不是可能取代人工作的問題?這個問題真的存在嗎?是不是這個產業的性質有可能就很容易被取代?就算不是AI也可能被別的東西取代?還是注意義務的問題?提供服務者的問題,AI時代之下,可能會有注意義務的使用者,AI的產品不會只是單純產品的提供,病人的注意義務會不會變成問題,也就是在傳統法學中所說的與有過失?現在既有的規範到底需不需要大翻修,或者是在詮釋的時候做出改變就好?