以人工智慧輔助COVID-19防治之法律議題初探

人工智慧與法律規範學術研究群
第三年期(2020-2021)

第一次會議
2020年7月16日(星期四)

主持人:李建良(中央研究院法律學研究所研究員兼所長)
主講人:吳建昌(臺灣大學法律學院科際整合研究所合聘副教授、臺灣大學醫學院附設醫院精神醫學部主治醫師)

◎ 整理:洪于庭、陳宇琦
◎ 定稿:李建良

Photo by Markus Winkler on Unsplash

今天先談AI結合大數據的相關應用事項,接著是AI在醫療運用上的民事責任及管制方式,結合大數據之後,可能的想像是什麼,並舉台灣實務資料作為討論。之後,轉到用AI輔助新冠肺炎防治方面。如何在管制、調整人民行為方面使用AI及大數據,有學者提出用Nudge的方式進行管制,Nudge的好處是非強制的手段,但可將民眾導向政府想要的結果。最後思考,這種手段是否有後遺症,在疫情過後又會有什麼影響?AI大數據如果用於在疫情中立下大功,疫情過後民眾的態度會是如何?

人工智慧與大數據之定義與相關倫理原則

AI的定義

AI是獲得、詮釋數據,從中學習,得出結果,應用在其目標領域內的系統。AI 主要是電腦系統,可以經由獲得數據、詮釋數據並進行學習,從數據中導引出某種結論或結果,再運用在其他或其自己設定的領域中。

機器學習(Machine Learning)是AI的一部分,因為AI範圍十分廣闊。機器學習需要被給予數據,給予input,再設定output的模式;input讓機器學習,最後要與output相匹配。另外一種模式是,讓機器自己找出input data 彼此之間的關聯性。經過學習一段時間後,機器可以在被設定好的數據下進行學習,也可在沒人監督的情形下進行自主學習。

有關深度學習(Deep Learning),是強調基於類神經網絡的演算法,層次可以十分多元,從基礎資訊推到模式的出現。許多AI學者會認為深度學習最容易被黑盒子化,因為複雜性高,以至於有些時候難以解釋,故透明性較低。

科技部人工智慧科研發展指引

去年九月科技部提出人工智慧科研發展指引的幾個大原則:

  1. 共榮共利(Common Good and Well-being):科研人員應追求人類、社會、環境間的利益平衡與共同福祉,並致力於多元文化、社會包容、環境永續等,達成保障人類身心健康、創建全體人民利益、總體環境躍升之AI 社會。
  2. 公平性、非歧視性(Fairness and Non-discrimination):從數據本身或是詮釋的結果都可能會有公平性或歧視性的疑慮。
  3. 自主權與控制權(Autonomy and Control):應用係以輔助人類決策。將來AI的功能越來越好時,人類與AI可能的共處模式。
  4. 安全性(Safety):我們會希望AI是安全的,為合理、善意的使用,構築安全可靠之AI環境,故許多人反對AI作為武器操作系統。
  5. 個人隱私與數據治理(Privacy and Data Governance):現在一提到資料與個資,大家通常會開始擔心是否會有隱私權之侵害,有無關於人性尊嚴的違反,並會希望有良好的個人資料保護的架構、管理的措施,這兩者是難以分開的
  6. 透明性與可追溯性(Transparency and Traceability):AI技術需有透明性及可追溯性。關於透明性,如能有某種程度的瞭解,較能夠產生信任。又如能知道從何而來的決策與資料,叫能夠追蹤可以知道最後是哪的問題,故可追溯性會與問責有關。
  7. 可解釋性(Explainability):如AI設計本身能夠讓我們知道內在階段性的決策或是結論如何歸納,如能給予以人的觀點作解釋,人類對AI會較有信心,與前面的透明性及可追溯性都是有關聯的。
  8. 問責與溝通(Accountability and Communication):最後是希望能有良好的溝通,能將問責系統建立。

如果要讓可解釋性提升,AI的演算法會受到某種程度的限制,兩者間似乎是一種trade-off的關係。最後可能要考慮,是希望準確性高,或是可解釋性高。

大數據的特徵

大數據的特徵可以包括:數量大(volume)、速度快(velocity)、資料種類及來源多元(variety)、有價值(value)、變異性高(variability)、虛擬性(virtual)等。另外,真實性(veracity)或不確定性(uncertainty)也須考量。

大數據資料的「巨量」本身具有動態性,有時我們需要強化資料的搜集、分析,連結較大型資料庫的計算力量以及準確度。因此,有時候巨量本身不需要資料非常大。從大數據中辨認模式,可能幫助提出經濟、社會、技術或法律上的主張。

不過,大數據資料也有迷思,許多人認為資料量大,必然會帶來真實、客觀與準確度。但這是一種迷思,應該避免。

Photo by Miikka Luotio on Unsplash

大數據生物醫學中的倫理問題

大數據本身的發展具有未來式,將網路上找到的資料與個人資料結合,例如醫生看診時,能直接透過Facebook知道病患的日常作息。

關於大數據的倫理考量,有以下幾個面向:

  1. 知情同意:問題可能是我們管制的嚴謹程度為何?是否每一步驟都需要先行的知情同意,還是需要一個能夠全方面概括的彈性授權?
  2. 隱私權(privacy):匿名化應至何種程度,資料需要保護到何種程度?資訊自由與隱私保障,基本上是trade-off的關係。
  3. Being in public vs. being public:有人認為前者可以接受,後者萬萬不可。自己的資料在一群資料中時,很難辨認出自己的資料在哪,如果可以被認定出來,將變成公開狀態。
  4. 資訊所有權(ownership):資料的歸屬權為何,資料如要再重新放置或是分散、調整、刪除,需要一個自然人主張資料之歸屬嗎?根據資訊本身發展出的專利、智慧財產權是否有可獲利的機會?
  5. 知識論(epistemology)與客觀性:大數據關於認識論的問題,其實如何分類本身就是認識論的問題,分類本身會影響人的資料如何呈現。所謂資料本身的客觀性與分類有關,分類的假設是無法完全超出社會、文化的想像。
  6. 大數據落差(Big Data divide):許多人無法擁有大數據、無法接近使用大數據所產生的科技,這都會產生不公平、倫理的議題。

AI、大數據、健康照護與法律管制

法律面向有民事、行政、刑事等。AI與演算法是大家最常提到的,至於AI與大數據,AI會強大是因為數據夠大,所以這兩者是密不可分的。慢慢的,我們發覺AI與大數據開始與物聯網有關係,因為物聯網可以提供非常大的資訊。另外是關於交易的保障,區塊鏈技術是最近常被提到的。以下粗淺地提到COVID-19運用這些技術本身,可能會形成如何的組合。

人工智慧之法律地位:以民事法律為例

就管制的問題,我們應該先探討到底我們會將AI當作是什麼?進而再決定如何管制,兩者間應具有辯證關係?

講到「電子人」,大部分專家會認為是科幻小說的層次,或是未來也無法預見,故大部分專家會認為是高級工具。至於有無好到像奴隸般,純粹聽命於人,雖說有高端執行功能或是如青少年般會學習、成長,這個階段或許可能性,基本上以下的討論著重在「工具」或是「高級工具」的層次探討。在此情形下,AI與人類如果是夥伴關係,這是種隱喻式的說法。從法律觀點而言,比較像是利用關係。

說到民事責任,有兩大重點,第一是從契約應如何看待;第二是從侵權行為法來判斷民事責任。接下來的論述以侵權責任為主,在契約部分較少。

人工智慧於醫療場域之運用:新一波標準化?

事實上,AI運用於醫療場域是可以節省人力、提升效率,像是醫學影像辨識,專家可以從監督的角度讓AI進行學習醫生標註方式、會做何種解釋及診斷。當然AI所學習的資料十分多元,可以有不同形態,所以越高端可以使用的資訊越複雜,就可以同時考量很多資訊做出診斷。甚至於醫院的醫療行政為了個人化、標準化,甚至要求最佳效率的產生,譬如將來台大醫院的ICU、病房配置、人力配置,像這樣的分派本身,這也可以考慮AI是否可進入。

主要是使用大數據,透過AI形成輔助系統,希望降低人為失誤。然而,機器失誤與人為失誤得等同看待嗎?再來是希望協助檢驗、診斷、優化工作流程、降低成本、提升效率,在資料的部分,如隱私保護、知情同意、退出權這樣的考量,有偏差與歧視時應如何處理?於演算法部分,應如何透明化,如何解釋黑盒子中的運作,如何建立可追溯性,如何進行問責,到底從何開始管制,要如何管制,這是我們需要思考的問題。

醫療器材管理法(2020年1月15日公布,尚未施行)
第 3 條

本法所稱醫療器材,指儀器、器械、用具、物質、軟體、體外診斷試劑及其相關物品,其設計及使用係以藥理、免疫、代謝或化學以外之方法作用於人體,而達成下列主要功能之一者:
一、診斷、治療、緩解或直接預防人類疾病
二、調節或改善人體結構及機能。
三、調節生育。

如果把AI是視為一種軟體的話,就是屬於應用的軟體,或許AI可以算入「醫療器材」中。惟第3條中「作用於人體」我無法理解,如果AI只是做醫療影像辨識,應只有影響解讀、判斷最後做出結論,很難想像以何種作用方式可以作用於人體?如果作用是很抽象的作用,因為最後AI的結論影響到醫生的判斷,所以醫師做決定後治療,這樣算是一種很間接的作用。如果一定要直接作用,像是某些器材裝入人體中,這樣才叫做「作用」的話,軟體的作用需要很多想像空間,這是目前我仍覺困惑之處。所以AI無法解釋為醫療器材,如需管制應只能當作「醫療技術」。

AI輔助醫療決策之性質

AI與一般出廠即定型的器材或藥物不同,可以不斷改寫,甚至自我改進,隨時間過去會有所改變。如要做研發、試驗,這兩者間具有不斷互相循環的關係,AI做出的循環性可以做很多回,因為演算法可改寫,且AI可以不斷自我再提升,與藥物上市相比,應用AI較彈性。

以管制時點來說,如果從技術開發管制,像是人體研究法、試驗管理法,這些在此都會產生運作。當然侵權行為在試驗階段就產生時,可能民法也會相關,資料的保護在試驗階段需要訓練,個人資料保護法也會運用到。醫療器材管理法,即如果將AI當作醫療器材看待,於此也會被管制。至於上市之後,消保法、醫療器材管理法中有特殊之規定。在上市之後,民法、消保法也有相關規定,基本上會以消費者保護法優先適用。

Photo by Javier Matheu on Unsplash

AI醫療器材的損害賠償責任與因果關係

應如何定性AI於醫療場域中之角色,還有何人需受到管制,造成傷害何人須負責。若將AI視為醫療器材,可透過醫療器材法來做管制。我們可以看到醫療器材管理法第8條第1款中提到,「不良醫療器材」是指經稽查貨查驗後得知,有使診斷發生錯誤,或含有毒、有害物質,至危害人體健康者。

醫療器材管理法第 8 條:

本法所稱不良醫療器材,指醫療器材經稽查或檢驗有下列情形之一者:
一、使診斷發生錯誤,或含有毒、有害物質,致危害人體健康。
二、依標籤或說明書刊載之用法,作正常合理使用時易生危險,或危害人體健康之虞。
三、超過有效期間或保存期限。
四、性能或規格與查驗登記、登錄之內容不符,或與第三十條第二項之公告內容不符。
五、未依查驗登記核准儲存條件保存。
六、混入或附著影響品質之異物。
七、經中央主管機關公告之其他瑕疵。

醫療器材管理法第 82 條:

「醫療器材製造、輸入業者違反第八條第一款、第二款規定,致生損害於醫療器材最終使用之病患或消費者時,應負賠償責任。但醫療器材製造、輸入業者證明對於醫療器材之製造、包裝、貼標、滅菌、最終驗放、設計並無欠缺,或其損害非因該項欠缺所致,或於防止損害之發生已盡相當之注意者,不在此限。」

若將AI視為醫療臨床技術,可以考慮的是醫療法的規定。

例如醫療法第 82 條:

「醫療業務之施行,應善盡醫療上必要之注意。

醫事人員因執行醫療業務致生損害於病人,以故意或違反醫療上必要之注意義務且逾越合理臨床專業裁量所致者為限,負損害賠償責任。

醫事人員執行醫療業務因過失致病人死傷,以違反醫療上必要之注意義務且逾越合理臨床專業裁量所致者為限,負刑事責任。

前二項注意義務之違反及臨床專業裁量之範圍,應以該醫療領域當時當地之醫療常規、醫療水準、醫療設施、工作條件及緊急迫切等客觀情況為斷。

醫療機構因執行醫療業務致生損害於病人,以故意或過失為限,負損害賠償責任。」

在醫療法中,有關醫療器材、技術、應用有故意過失時,或是逾越合理臨床專業裁量情況下,也可能有適用餘地。於此會有很多法律規定在此交會,應如何系統化的詮釋,即彼此間不互相矛盾,是將來需要更細節的探討。

於醫療器材法中之診斷發生錯誤,是於AI中較有可能發生之情形,或是依標籤或說明書,做正常合理使用時容易產生危險或,危害人體健康之虞,這點於實務案例中運用,我認為會碰到一些問題。性能或規格與查驗登記、登錄之內容不符,就登錄之內容不符,稍後會有判決介紹,就該句應如何適用。就病患或消費者因使用受有損害時,製造、輸入業者應負賠償責任。但業者證明醫療器材之製造、包裝、貼標、滅菌、最終驗放、設計並無欠缺,或其損害非因該項欠缺所致,或於防止損害之發生已盡相當注意者,不在此限。惟於醫用AI的判斷界線在哪?如何判斷?誰有能力判斷?這都是需要思考的事。

他山之石

歐盟:醫療器材法規

歐盟有Medical Devices Regulations,原於今年5月要實施,但因為COVID-19的關係而延後。基本上該規定有把軟體放進,定義就沒有規定需要作用在人體,只要是可以被單獨或是合併使用,主要是為了醫療目的。所以我認為這個定義比台灣醫療器材管理法的定義較好,至少於AI在演算法的情況下,較能夠適用。

  • REGULATION (EU) 2017/745 Medical Device Regulation

Article 2

Definitions

For the purposes of this Regulation, the following definitions apply:

  • ‘medical device’ means any instrument, apparatus, appliance, software, implant, reagent, material or other article intended by the manufacturer to be used, alone or in combination, for human beings for one or more of the following specific medical purposes

Article 2

Definitions

For the purposes of this Regulation, the following definitions apply:

  • ‘medical device’ means ‘medical device’ as defined in point (1) of Article 2 of Regulation (EU) 2017/745;
  • ‘in vitro diagnostic medical device’ means any medical device which is a reagent, reagent product, calibrator, control material, kit, instrument, apparatus, piece of equipment, software or system, whether used alone or in combination, intended by the manufacturer to be used in vitro for the examination of specimens, including blood and tissue donations, derived from the human body, solely or principally for the purpose of providing information…

美國:21世紀治癒法+聯邦食品藥妝法

美國管制的範圍更廣闊,包括軟體可以當作設備。只要軟體能收集、分析及處理醫療資訊,無論是在研究或臨床上使用,都可以納入管制。另外,只要FDA認為使用該軟體與造成嚴重危害健康的結果有合理相關性,就可以納入管制。

21st Century Cures Act

(Sec. 3060) Certain software is exempted from requirements for medical devices, including software that provides medical recommendations and the basis for those recommendations to health care professionals. Software remains subject to regulation as a medical device if:(1) the software acquires, processes, analyzes, or interprets medical information; or (2) the FDA identifies use of the software as reasonably likely to have serious adverse health consequences.

第一個是,如軟體本身是作為搜集、處理、分析或是詮釋醫療資訊,像是在醫療端進行使用,不管是研究或是臨床運用。第二個是,如果FDA認為使用軟體與健康結果間有合理相關性,且是產生可能有嚴重危害結果的可能性,就是FDA的管制範圍。即如果FDA認為AI的使用雖非處理健康議題,但該AI的使用會對健康產生重大危害,就需要由FDA管制。所以手機本身如與健康有關,即有可能是FDA的管制範圍,尤其是從健康監督的資訊使用、搜集資料都用應用程式安裝在手機中,故手機中的應用與軟、硬體的操作會變成決定醫療照護要如何進行的決策循環,或許會擴張傳統FDA對於醫療器材的管制範疇。診斷、治療、減輕病情或預防都可以列入。

歐盟機器人民事規則(Civil Law Rules on Robotics)

委員會希望透過此立法,但European Commission目前未有動作,未得到European Commission的支持。所謂歐盟機器人民事規則有個特點是強調top-down的行政管制,希望從中央至地方運作。其中AD段指出:「當機器人或AI的行為(act)造成第三人損害時,由於機器人本身無法承擔責任的現況,其行為與過失(omission)都將追溯到特定的人類主體(human agent),如製造者、操作者、所有人或使用者,或者能夠預見或防止損害行為發生的主體;而製造者、操作者、所有人或使用人應該要對機器的行為或過失負嚴格責任(strictly liable for, 相當於台灣的「無過失責任」概念)」。

臺灣相關規範

醫用軟體分級參考指引

2015年4月13日,衛福部發布「醫用軟體分級參考指引」,屬行政指導的性質。

本指引所稱「醫用軟體」,泛指蒐集、儲存、分析、顯示、轉換人體健康狀態、生理參數、醫療相關紀錄等處理軟體,使用場所涵蓋醫療院所、個人居家使用及遠距醫療照護,而「醫用軟體」判定屬醫療器材管理者,在此則稱為「醫療器材軟體」。

醫用軟體判定參考原則:

  1. 是否符合藥事法第 13 條醫療器材定義?
  2. 是否符合醫療器材管理辦法附件一所列品項?
  3. 是否宣稱具診斷、治療功能或協助診斷、治療?
  4. 對疾病治療的重要性?
  5. 對疾病診斷的貢獻度、參考價值?
  6. 對人類生命健康可能產生的危害程度?

醫用軟體等級判斷:

將風險跟獨立性連結,風險等級由一到三級,由低到高。由醫療人員做最後決策的為二級醫療器材,宣稱可以代替專業醫療人員做決策的為管制最嚴格的三級醫療器材。

醫用軟體的風險等級是與獨立性是平行看待,如由醫療人員做最後決策,此為二級。如果宣稱可代替專業醫療人員做決策,直接進行診斷治療功能,此為第三級,管制最嚴格,需要提供的資料,也須最豐富。

Photo by ThisisEngineering RAEng on Unsplash

行政管制的難題

  1. 上市前管制或上市後管制之比重應如何分配?

有學者認為,對於基因診斷的AI軟體,技術進化太快難以管制。目前在台灣用AI做基因診斷,基本上是專家自律,算是上市前管制嗎?基本上沒未販售,如果要上市,會牽涉到AI本身會有演化、學習、進展等功能,有可能上市後管制,會比上市前管制做得更好。但如果管制太多,廠商可能會認為成本太高而不想發展,故仍有許多需思考之部分。

  1. 管制醫療器材之模式是否適於管制醫療用AI?

於精準醫療之情況只會針對一個人,要如何比較?到底醫療使用AI是作為醫師所運用之醫療技術或醫療器材來進行管制?有些醫師可能會認為所有事情還是由自己決策而不使之上市,上市後可能會變成某種醫療器材。

  1. 醫療過失傷害責任之標準為何?商品製造人無過失責任之標準又為何?
  1. 醫療用AI作為智慧財產權或商業機密之標的?

用演算法可能很難解釋為智慧財產權,但可解釋為商業機密保護,但這又會牽涉到透明性、可追溯性、可解釋性、可問責性等問題,彼此間似乎有需要做trade-off。

  1. 隱私保障與公益的權衡。

司法實務爭議

妾身未明的評估軟體——台中高分院104年醫上易字第2號民事判決

事實概要

民國98年,貝克曼公司透過經銷商,與診所合作,利用軟體檢測孕婦的血液,分析產下唐氏症嬰兒的風險高低。當事人孕婦曾簽署知情同意書,了解檢測有不確定性,醫師看過檢驗報告後,認為風險不高,因此繼續做產前照護。最後孕婦產下有心血管疾病且無左下肢膝蓋以下肢體的嬰兒,因而提告。該軟體於民國101年被食管局列管為二級醫療器材。

進入訴訟後經過一段時間,法院找鑑定員鑑定將這些數據重新解讀,也用使用該數據用軟體在操作一次,發現數年後鑑定發現結果不一樣,風險變高。雖未超過警戒值,為何資訊會不同,因為98年時風險是更低的,公司解釋這幾年擴充新資料,所以目前風險直提到較高的程度,當年的判讀也不應認為是錯誤的,因為資料有限,故兩次結果雖不同,但兩次結果都是對的。

法院見解

孕婦與貝克曼、訊聯公司沒有契約關係,基本上屬於消費關係。

98年時軟體屬性不明,因為當年未管制醫用軟體,也不知如何定位。後來才有醫用軟體的登記存在時,貝克曼公司才有去做登記,所以法院不認為未做醫用軟體的登記與軟體安全性有關係。

98年前已輸入使用,醫院也廣為使用行之有年,後來也得到衛福部的醫療器材許可證,顯見有合理期待安全性。

爭點:只要能上市就不必負責任?此案最後由醫師提出和解,但就法院見解觀之,對醫療器材廠商非常有利。

醫療用AI民事責任制度之幾種想像

  1. 醫療AI之擬制法律人格(擬制法人),可以做為醫療傷害訴訟之被告主體
    1. 醫療AI擬制法人強制保險或建置醫療AI擬制法人基金
    2. 醫療AI所有者(醫療機構或醫療人員)之管理責任或替代責任
  2. 以醫療機構與人員之醫療過失為主
    1. 醫療AI以「醫療技術」視之,醫療AI之決定皆由醫療機構/醫療人員檢視確認後,成為醫療人員之決定。
    2. 新增醫療行為注意義務之內容:醫療機構/醫療人員進行程序檢驗並運用黑盒子醫療AI應有之注意義務;準確性與可解釋性的權衡。
    3. -> 類似傳統醫療過失責任
  3. 消費者保護法之責任制度
    1. 商品設計、生產與製造者之「無過失」責任(消費者保護法第7條第),應符合當時科技或專業水準可合理期待之安全性。
    2. -> 就上述法院見解來看,由廠商負責的可能性不高。
  4. 無過失共同企業責任
    1. 基金風險池,分散AI運用的風險
    2. 由醫事人員、醫療院所、器材商、使用人/病患共同出資
    3. -> 規劃理想崇高,實際可行性有待考量。

大數據法律管制之測試點

於最高行政法院106年判字第54號判決,法院見解認為,如果對資料處理的匿名化技術可以做得夠好,此時不允許退出。因資料的完整性十分重要,做研究所產生公益也十分重大,個人的利益國家不認為會是足夠大的利益,如讓某些人退出可能會形成破窗效應。

我們應如何設計?至少我們可以Opt-out,但是法院擔心會有很多人退出,不果實際上是否真的如此,這是需要研究才能得知的。我們 強調尊重自由可以表達會較適宜,如果要保障更周全,需有選項是否給予。在一個民主社會中,我們期待政府管治、透明性越高越好,所以在大數據要強調這點,公眾才會有信任感,經過一段時間需回頭審視,到底做的決策本身是否要做調整。現在政府機關對於資訊的運用十分懼怕,對於很多實用資訊研究本身較不利。

Photo by Alex Holyoake on Unsplash

AI與大數據技術於COVID-19期間健康照顧之運用

COVID-19大流行

台灣經過SARS後政府有疫情指揮中心的規劃,在這次疫情下顯有效果。在這樣情形下,為何有部分還是無法做得那麼好,COVID-19直至昨天全球染病人數達到1,310萬人,死亡人數57.3萬人,台灣染病人數451人,死亡人數7人。COVID-19在全球大流行之因應,其實要做的事情十分多,於此我僅提出一些。第一是確認病毒株,開發快速篩檢與診斷模式。基本上是以科技與病毒賽跑,病毒散佈速度會多快,其實與人的行為有關,也要做各種行為的管制措施。第二個是開發特效藥物與疫苗,目前進度是大落後的,進入冬天後可能會有第二波疫情,有人樂觀想像第一批疫苗會在2020年底問世,但誰會想要先去注射?藥物疫苗在上市後會在幾年內下市,因為最早使用的那批會出現一些無法預料之副作用。第三是強化國家醫療系統,很多時候仍須由人面對面為細緻處理。第四是物資之適切分配也十分重要,在這些未出來的是會影響後面的規劃,至少在有效措施出來前,行為管制是最主要。

AI及大數據技術於COVID-19健康照護之運用(可用、試用,而非好用)

  1. 透過健康與社群媒體等電子資料之大數據分析,包含物聯網:監測、預測及分類COVID-19之群聚感染
  2. 利用App進行電子資料串連,監測個人之旅遊史、接觸史與標定疫病熱點
  3. 以AI及大數據技術搜尋對於COVID-19具有療效潛能的舊藥(repurposing),或開發能夠針對COVID-19結構或機制產生作用之新分子:需先標定有潛能的藥,所謂有潛能的藥是以既有舊藥的資料讓AI操作,可能會有希望。
  4. 利用App搜尋整理COVID-19診療相關之大量科學文獻
  5. 運用病人特質、病例、影響等電子資料進行快速篩選、診斷、提供治療及預後判斷之建議
  6. 結合遠距醫療系統進行病人篩檢、初步診療(降低醫院之負荷、減少面對面之接觸):如利用Chatbot進行COVID-19之篩檢與初步診療,進行情緒支持、精神疾病篩檢診斷或自殺風險評估等
  7. 利用AI及大數據技術(包括體溫感測資料、臉部辨識資料、行動通訊資料、交易資料、醫療資料等)進行接觸追蹤、物理劇裡、隔離、封鎖等社會控制
  8. 利用網路資訊、社群媒體、平台進行公共衛生教育、溝通或影響
  9. 利用APP或需快練技術進行生活與醫療資源之取得,保持對外聯繫管道,降低隔離與保持物理距離帶來之不便
  10. 進行物資流動、分配之調整
  11. 以AI對抗假消息、降低不適當恐懼或極端反應

以AI及大數據技術進行COVID-19防治之限制

  1. 良好的資料仍然太少,不足以良好的訓練AI:目前而言,像是google footrace後來會有很多問題,是因為過度推估未來會產生疫情,因為使用的資訊經常是社交媒體平台的資訊,會產生系統性的偏見。這會顯示,傳統好資料的問題,在AI大世代很多學者都認為還是重要的。好資料不夠多,應強化資料的開放性,分享、擴展跨團隊合作,這牽涉到資料是否可共享、隱私保障等,都要去思考。現在很多大數據資料的蒐集、整理與訓練,都是為了將來,現在COVID-19能即時享用需要很多努力。許多監測性、診斷性、治療性及預測AI之機能,皆仍需長時間開發。所謂的可用本身,其實只是可以嘗試,還要做很多測試。
  2. 不良或不精確的資料可能太多:大數據的雜訊與outlier之觀察太多,造成演算法失算,如Google Flu Trends就是這樣的問題。另外大量的論文仍需要篩選,及資料仍然需要依據人類常識進行選擇以及演算法之調整。
  3. 目前較有實際運用可能者,仍為社會控制與資料分配之事項:隱私權、人權及正義等考量之爭議仍大。

COVID-19全球大流行之行為管制模式

  1. 隔離、檢疫
  2. 封鎖
  3. 保持物理距離
  4. 戴口罩
  5. 避免碰觸臉部的T-Zone(額頭、眉部、下巴)
  6. 良好洗手、消毒、使用衛生紙並良好棄置等

如何評估疫情期間改變行為方式的效果

以不同程度之人際壓力改變人的行為。接受度、實際可操作性、有效性、負擔情況、外溢效果、公平性…。整體而言,必須考量是否有物理上或心理上的能力(capability),是否有物理上或社會環境上的機會(opportunity),足以形成不加思索或反思之後的動機(motivation),最後產生行為(behavior, COM-B模式)。

影響人的行為有很多種方式,說之以理動之以情、做環境的調整,甚至使用Nudging的方式改變人的選擇結果,讓這個人在沒有太大負擔的情況下,欣然決定要做某些事。在有使用強烈誘因的情形,在目前使用乘人之急迫、輕率或無經驗、欺騙、脅迫、使用物理力量進行強制,大部分人會認為應給予十足的理由。有些人會認為可以建立新的社會規範,提供仿效的對象,經過同意之後之增能措施,這要如何區分的感受會不同。

在疫情期間調整個人行動之方式

 以不同程度之人際壓力改變人的行為,力道由輕到重可分為:

  • 以良好之理由說服、教育、訓練
  • 動之以情或信任關係
  • 環境調整(物理、財政、物質) -> Nudging:改變人的選擇結構
  • 建立新的社會規範、提供仿效之對象、經過同意之後的增能措施
  • 提供誘因/支持:名、利或其他願望之滿足
  • -> 公共衛生措施盡量使用以上幾種
  • 乘人之急迫、輕率或無經驗(Exploitation)
  • 欺騙(Deception)
  • 脅迫(Coercion/threat)
  • 使用物理力量進行強制(Compulsion)

公共衛生措施應盡量採取前幾種方式,說之以理,動之以情,調整環境,或以Nudge的方式,改變選擇結構,讓人在負擔不重的情況下欣然接受。如果要用後幾項方法,一定要具備十足的理由。

如果要以Nudge來改變人的行為,有幾種可能的技術方法:

  • 揭露事實資訊(Disclosure of factual information)
  • 簡化(Simplification)
  • 以圖像或其他方式提出警示(Warning, graphic or otherwise)
  • 提醒(Reminders)
  • 增加簡便度(Increases in easy and convenience)
  • 個人化(Personalization)
  • 框架與時機(Framing and timing)
  • 提高鮮明度(Increases in salience)
  • 利用社會規範(Use of social norm)
  • 非金錢的回報(Nonmonetary rewards)
  • 主動選擇(Active choosing)
  • 預先承諾策略(Pre-commitment strategies)

綜合來說,告訴實情,經濟理性的當事人就會決定要做對的事;做對的事對當事人而言是較容易的,如給予警告。再來是增加做好事的便利度;資訊或呈現方式與個人特別有關,個人的自我感被呈現出當事人會較願意做;Framing,強調好處大家會較傾向選擇,另外提供資訊的時間,讓人能夠接收;資訊本身的鮮明的程度越大越好;有些時候不僅給金錢回饋,會給其他的美德回饋,會使人傾向這樣做;強迫做選擇,如美國器官捐贈與汽車駕照,在考取駕照時就必須決定未來是否器官捐贈;Pre-commitment strategies,即我先與你簽約,如果能達到預期的作為結果,就可以得到獎金,否則即沒收金錢,因是自願的,就無法說是強迫。

Photo by Markus Spiske on Unsplash

AI與Big Nudging之倫理、法律與民主之考量

Nudge的定義是改變選擇架構,而不是限制選擇,選項都還在,但給予不同的推力設計,讓人因為這股輕推的力量而改變選擇。所以這不是強制,而是讓人欣然選擇Nudge設計者希望的選項。影響一個人的可能是環境,也可能是個人的心理組成。例如機場的小便斗裡畫了一隻蒼蠅,這是希望男士們能對準蒼蠅,減少潑濺風險,這種方式有遊戲的感覺,又能達到公共衛生的效果。又例如著名的鋼琴樓梯,目的是希望大家多運動,不要搭手扶梯,因為環境的變動,讓人覺得好玩,就會做出自主的選擇。

用AI做Nudging要怎麼運作?用AI去蒐集人的個資或喜好資料,再根據個人特質去設計Nudge來造成影響。有人擔心,如果用AI結合大數據來做Big Nudging,整個社會都是被「規劃」的,就會產生「被規劃的人」,設計Nudge讓人的選擇架構都是「被規劃寫定好的」,那人的自主性何存?如果自主性仍存,又是如何展現?所以有人擔心Big Nudging的透明度太低,欠缺民主管制。例如有時上網查資訊,下次上網時,上回的結果會自動出現在右上角,在這樣的設計下,你常上某些網站,AI會幫你挑同類的資訊,反覆出現,這種資訊篩選效果會讓人越來越集中特定的事物上面,其他資訊沒有進入的機會,會越來越極端化。因此如何設計資訊的選擇,本身就是一個問題。

反對Nudge的理由

  1. 反對以Nudge來影響人的目的
    1. 反對將設計者所認為的「好」加在被Nudge的人身上
    2. 即使設計者說會尊重受影響者的目的,又怎麼知道受影響者原本的目的是什麼?
    3. -> Nudge要符合倫理要求,就不能影響目的,只能在方法上做調整,讓人自己去思考可能還有別的選擇。
  2. 可能有操縱之虞
    1. 因為調整選擇架構之後,做特定選擇的可能性會增加。
    2. -> 但以這樣的定義,操縱的範圍可能會太廣。如果強調Nudge作為一種影響人決策的方法,到底在什麼情形下可接受?
  3. 反對把人當傀儡看待
    1. -> 但在人合理的互動、互相影響範圍下,應該是可使用Nudge的合理範圍。

簡要的說,有人會反對Nudging,不可以用Nudge方式影響人生目的,從目的方向出發的Nudge,會幫助選對,或是設計出最尊重使用者的選項。有些學者會認為讓nudge有合乎倫理要求,只是在方法上調整,讓使用者想有可能有別的選擇,有些人會認為是操縱。所謂強調Nudge影響人做決策的方法本身,什麼樣情形下有所謂可接受性存在,最擔心的是暗中做Nudge但無法得知。有些學者討論如果要做倫理尚可接受的Nudge,將來是否有將某些東西轉化成法條管制,還是於詮釋法條時根據倫理解釋,這是另外一個操作方式使用類型化方式處理。我們強調是影響人決策的方法或過程,不會影響人生目的,盡量選項中有些符合他的期待,調整選項結構,幫助設計人生選項的架構,當然是符合使用者期待。另外是從民主觀點進行正當化,Nudge本身不能太強,如果太強會很難阻擋。又,當好處越大,譬如對健康效果幫助越大,Nudge的正當性就會越大。如果Nudge更可能產生健康保護效果,會認為使用Nudge較合適。又,從提升理性能力而言,當發現某些思考上的習慣,如非理性思維的存在,而Nudge可以幫助對抗非理性思維,大部分的人會是接受的。如果長期理性決策結果較常出現Nudge,會認為較符合經濟理性的,因為長遠才是重要的,短線的常被認為是不重要的,所以Nudge幫助實現長遠自主是值得的。再者,最好在啟動Nudge時,啟動的人與被影響者要有信賴關係。如是AI結合,學者特別強調,資訊來源不能是中央調控,資訊最好是分散式的來源,這時資訊自我決定權,參與也需有自我決定權,資訊的管制盡量透明,這時較容易產生信任。資訊本身須去除扭曲或污染,特徵如何設定,要讓資訊擁有者有控制可能性。又盡量讓資訊與經濟社會文化的多樣性,才不會極端。要讓資訊提供者及接受者本身有互動性、合作可能。甚至可以使用AI幫助資訊使用者協助分析、篩選,讓大家集體合作產生集體智慧,在所謂的資訊、電子時代,共同努力、負責,提升數位能力。

促進健康的Nudge,應該盡量符合以下倫理準則

  1. 最好的情況是選項符合受Nudge的人本身的喜好與期待,但他沒辦法自己做到,此時藉由調整選項結構,來降低達成目標的難度。
  2. 從民主的觀點進行正當化。
  3. Nudge的力道不能強到難以阻擋抵抗。
  4. 健康好處越大,Nudge的正當性越強
  5. 如果Nudge比提供資訊或說服更容易產生效果,也是可以使用Nudge的時機
  6. 以提昇人的理性能力來說,因為人有從眾性、抗拒變動等種種非理性思維,如果Nudge有助於對抗非理性思維,應該就可以使用。
  7. 如果這個Nudge讓人比較容易出現長期理性決策,有人認為這是用Nudge來幫助實現長遠的自主,那就應該是值得的。
  8. 如果有好的理由,不想事事自己決定,用Nudge來協助做出正確選擇應該也可以接受。例如醫生開藥,系統會自動跳出藥的副作用或和其他藥物不合。
  9. 啟動Nudge跟被Nudge的人之間要建立信賴關係,以免產生疑慮。

如果要結合AI和大數據來做Nudge,還要特別注意

  1. 資訊不能由中央調控,最好是分散式的民主來源
  2. 資訊要有自我決定權,參與也要有自我決定權
  3. 盡量透明化以建立信任
  4. 去除資訊的扭曲和污染
  5. 資訊的篩檢機制應讓接受資訊的人也有控制權
  6. 資訊必須具備社會經濟文化的多樣性
  7. 讓資訊的提供者跟接受者有互動合作的可能,
  8. 可用AI來協助分析篩選資訊,亦即用AI來協助對抗別的AI

集體合作,產生集體智慧,在資訊時代共同努力,共同負責,提昇digital literacy,讓大家都能啟蒙。

疫情過後

在COVID-19的時代,大部分的人都很支持政府的措施,儘管目前尚不能印證AI Big Nudging 的效果,但各國都做了很多調查,例如:

西歐國家進行封鎖以因應COVID-19之大流行以後,民眾對於執政黨支持度上升,對於政府之信任度上升,對於民主制度之滿意度上升。在2020 疫情期間,一個在西班牙的調查顯示,民眾期待強而有力之領導,願意放棄個人自由,強烈支持科技治理。

這次疫情加速了世界的數位化,強化人們對於AI與相關資訊科技的接受度。但是,當疫情過後,我們會不會習於政府與大公司對資料隱私之侵蝕,習於政府與大公司的善意Nudging,甚至習於政府與大公司更加強烈的影響力措施?在民主法治時代,如何以法律規範避免人民習慣於政府與大公司對於人民之不當Nudging?

這是我們必須思考的議題,在疫情期間,我們會對很多Nudging忍耐,因為覺得防疫重要,但疫情過後,Nudging技術會越來越提昇,這種情形下,我們要想清楚,因為再好的東西也是會有副作用。

Photo by Sarah Kilian on Unsplash

問題與討論(敬稱省略)

何之行:

關於AI責任的問題,剛剛老師提到唐氏症案件,最後是透過鑑定,因為當時技術而後數據已經重建了,故製造商並無過失。如果將AI當成工具,即便製造商有過失,醫師本來就有專業判斷的責任,只是看製造商有無過失,其實無法免除醫師的責任。在該案例中,醫師的部分應如何處理?

吳建昌:

該案後來醫師選擇和解,醫師較無把握會繼續勝訴,不管是人的判斷或是機器判斷都有不準確度存在,如果這種不準確度是同儕在同樣情況下也會做同要的判斷,我們可能會認為並無違反注意標準,因為醫師對無上訴沒把握,故其和解。如果將來有獨立性高的AI出現,我有詢問過有在研究AI的醫療影像專家,他們會認為AI一定比我厲害。故我在看精神科的門診,如果有一病人詢問我,上個月做的電腦斷層檢查結果如何,我一定會將檔案打開,如果該檔案的量非常大,第一次解讀一定是由AI解讀,因為AI肯定比人準確。如果將來AI可以好到比其他一般專家還要準確,可以超過AI的可能只有幾個人,這時候可能醫療機構均視AI的判讀為主。所以AI表現既然都比人好,那有可能不使用AI判讀嗎?我想很少人會這麼做?如果如此,醫療用AI也無需負責,因為對於當時已經是最好的,AI本身即為自己的標竿,如出事故也無需負責,因已無法避免。

何之行:

可能會略傳統醫病關係,及傳統醫師須負的責任,會將之完全導向只看產品責任,是否會使醫師原本的判斷空間被壓縮,也可能會影響到醫學倫理。

吳建昌:

當數據非常豐富時,去詮釋或是運用、解讀的機制變的很豐富時,醫病關係可能因為中間介斷變多,會使醫病關係遙遠。最近影像醫學科有些人會擔心會被AI取代這些專業人士的判斷,他們將來會沒工作。

李建良:

AI判斷是由人判斷,或是僅由電腦訴說情況,這兩者間是否有差別。將來是否會有AI取代人力的問題,有個關鍵性的問題是,如果能由病患自己在家打開電腦即可判讀,還是即便是醫師由AI分析,但是由醫師講出的話是否會有不同,特別是在心理治療中。

吳建昌:

如果是好消息的差別不大,不過如果是壞消息,除非AI已經精進到,講完壞消息之後會出現chatbot,如果需要人為的互動,機器本身的感受就不同。以前在研究心理學,如小猴子在發展過程中自己長大,和有真正母猴子照顧,和絨毛猴子能夠給予擁抱,結果是有真正母猴照顧的會發展較好,其次是絨毛猴子,沒有任何形象的照顧,小孩子長大就容易有行為偏差的問題。所謂人與人的互動,在長大後,一般人碰到對人很大衝擊的資訊,自然人對於同類情感的支持,還是有差異。

陳弘儒:

有關Nudge的部分,在投影片中針對此有分層次,最後類別是較強制性的,該部分是屬於推力的部分,還是為非,一定要以輕微方式。

吳建昌:

再強調Nudge只能在改變選項的結構,可是選項都還在,對人的力道不能太強勁,才不會有違反意願的批評。

陳弘儒:

如果政府透過上面選項改變人的行為或是選項結構,手段是Nudge,改變行爲是結果,採取這個手段改變這個行為,有時會有些副作用,該些副作用是否會影響改變結果的關係。譬如我們希望小便斗乾淨、畫蒼蠅,可能有個國家的人民完全不在意,政府再增加誘因,讓上面有感應,一直瞄準就會有分數,因為此設計後,會造成很多人排隊使用該小便斗,產生的結果可能是不堪負荷等,人民要使用而無法使用。在透過Nudge當作手段已達到人類行為的可預結果,是否會有結構或是想像的圖示,可以讓我們評估Nudge的手段是決心是多高。

吳建昌:

這是一個重要的議題,因為Nudge的評斷基本上是,他會把Nudge本身的手段會當成分析批評標的,至於Nudge做出的結果,本身是也是必須要被批評的,每個技術當有好壞處。回到剛剛所提到的累積分數這件事,有些人會認為已經脫離Nudge範疇,已經到達刺激,或許會比一般講Nudge還要再強一些,於此這種組合可能會有人討論不是單純的nudge,使用這樣的科技累積分數,如果經濟實用當然這種廁所越多越好,或是規劃一天只能加分三次等,這都是分配正義終要考量的。

楊岳平:

首先,針對醫療用AI的部分,去年12月底時歐盟執委員有針對AI責任的報告,當中有做深入的分析,不只是針對醫療本身,尚包括一般性的人工智慧的法律責任,尤其是侵權責任。他提出幾個觀點,第一個是不建議使用擬制法人這個概念,他認為這個概念不成熟、太負責,而且有許多不可預期的後果。第二個是回歸一般消費者保護法、一般的侵權法則處理相關問題,特別提到幾個重點。第一個重點是在適用消保法時,當時科技水準這個部分,醫用AI會有演化的問題,故也不可仰賴當時提供產品進入市場時,拿到相關認證就表示已經符合該要件,歐盟認識到有AI有發展的特性,所以他們認為不能如此這樣看待,必須將時間點拉長,補充方式是他們要求包括AI產品的銷售者應負事後的監督責任,當然當時科技水準合理期待還是要符合,惟後還是會有持續的監督責任,否則須負類似消保法的無過失責任,對於這樣的處理方式運用在醫療用AI的評價為何?同時在此基礎上,他們也繼續解釋,科技水準應如何認定,這可能與醫用AI的發展程度不一樣,想像夠多的可能是這是嶄新AI,沒有同類的可相比,所以不知如何認定科技水準,一開始是使用擬人化概念。如果醫師有達到該水準,AI在履行與醫師相同的服務時,就要達到該醫師的服務水準,這是他們所定的科技水準。惟如產品已經同時有好幾個可競爭的產品,已經變成相對較成熟的產業,那就應依照該產業之標準。換句話說,一開始以人為類比對象,之後是以產品標準作為類比對象,這運用在醫用AI上是否為一適當之處理方式?還是是過嚴的,我當時看完整個歐體的報告,個人認為較嚴格,相當保護消費者,但相對對產業會產生一定程度的影響。

第二部分提到Nudge的問題,我理解Nudge並非金科玉律,現實上用Nudge的法方式需經過實驗的,至少在英國於金融消費者領域是如此。而於此COVID-19是個疫情,在這十分緊急的狀態下,我們要應用Nudge,但是沒有太好的實驗機會,我們只有四百多個確診案例,能實驗否都是個問題,在沒有經過充分實驗的強況下,是否會影響到推動Nudge政策的正當性?

吳建昌:

有些問題沒辦法馬上給細緻的答覆,基本上目前在醫療端,沒有人認為擬制法人是現在可行的方式,目前沒此設計,如要規劃一個未來才用得到的規定,可能到較接近時再規劃會較合適。之前我演講時有提到,關於照顧失智老人AI的發展,1990年日本的動畫是我們現在想要達到的程度,一個照顧老人的AI可以將所有資料上傳到中心,連結到其他照顧的單位,如果發生問題,該些單位就可拜訪得知問題所在。這個AI既使現在都不一定做得到,可是當時就有想到。所以我們可能會有一、二十年可以慢慢去想這個問題,我同意目前至少在實定法規還不需要如此想相,惟學術探討是值得的。

消費者保護法當時科技水準的部分,謝謝岳平的提供,這樣處理方式對於保護消費者本身不能以當年出廠的規格,這種與時俱進的想法從法律政策目的,消費者保護法如果真的是為了保護,我們還是希望產品還是跟著別人一起變好,比較對象是決定責任最困難的事。在醫療傷害的案件中,可比較的就十分多,如有無遵循醫療慣行、個案風險利益的評估,根據法院所想像的合理、謹慎、小心的醫師,還是要看有無實際數據做行政調查,在這類的案例中,百分之八十的醫師會 產生A,那A大家可能會認為是慣行。最後須統計是如牽涉到反應速度,到急診後應受到怎樣檢查或是藥物治療,離開合理可接受的時間太久,就算是不合理的拖延,有無這種資料可參考。光是傳統的醫療傷害,注意義務為何種程度,甚至精神科還有所謂可尊重的少數說,譬如憂鬱症治療是一定要開抗憂鬱劑或是已很緻密的精神分析,這可否認定做精神分析的醫師有過失?從傳統的觀點想到這些。在這種情形下,要如何比較當時科技水準,這是其中兩種,可能還有其他可開發的。至於要與醫生一樣好的話,是要何種醫師?如果是一般影像科醫師,是要與一般的影像科醫師做對比,還是要與最好的影像科醫師做對比,最好是誰,還可能要經過海選。過程中有很多操作面上的東西要克服。如以一般作為基礎,是較有可能的,但該一般如果要以數據做基礎,以台灣的法院或是世界各國的法院單為一個案例要做這樣的搜集不容易,後來可能是想像操作較多。

Nudge本身,如果希望Nudge本身要產生某種效果,而決定是否使用,從實驗要到達實定法的規範設計或是到政策的擬定,這是一種轉譯的過程,這是否為一線性化的過程,許多人抱持懷疑態度。有些人認為翻譯到後來都會變形,從公共治理的觀點,政治分析的議題,實際上是否都是有證據後才進行法律管制,其實大部分都沒有,既有的並不會分析,譬如刑法的存在是否真的有達到特別預防或是一般預防的效果,沒人會去做此實驗。很多時候只能就新的東西實驗,實驗證據本身會有限制,對於醫師而言做藥物組合,從過去的經驗這些藥物組合會有這樣得效果,而認為可能是有效的,很多時候是用此方式進行。短期做很多實驗的機會不大,那如何知道是有效的,大概預估不會有太大副作用,這就可知道大概有效,有點像臨床操作。

邱文聰:

回到2009年的案例,後來在2018年醫療法修正後將醫療人員的醫療責任減輕,2009年時一審法院到底是以何種標準,使該醫生的責任被認為不存在,是因為過失部分無預見可能性嗎。

牽涉到AI與Nudge,如果說AI是技術,在AI上應用nudge,可以展現技術具有政治性這樣的特性。你的結論提到當疫情過後,大家會省思過去在疫情期間接受各樣的Nudging放棄隱私會變成例外狀態的常態化,我們真正擔心Nudge的地方到底為何,後來提到的怎樣在民主的框架中運用Nudge那些條件,但似乎都無法真正回應Nudging最大的憂慮,就是program適不適合。使用Nudging後,會使社會的大多數人往某單一方向做選擇,在民主社會中會造成的結果是多樣性變少、歧異性變少,也預設某種選擇是最佳選擇,同時事實上減少其他的選擇存在的機會。這民主社會中,姑且不論是好壞,存在本身極可能創造往不同方向發展的可能性,如何在疫情過後抵抗這麼強大的技術,如果真的運用Nudging在其中的話。有種可能性是在AI中故意放bug,讓大家知道這就是會錯的,Nudging的同時也知道會發生錯誤,讓錯誤本身被強加在系統中,可能會有人診斷時被診斷錯誤,如係強迫的錯誤造成,我們就必須面對這種危害,就不會百分之百的信賴。規範上放bug必然是個結果,當Nudging這麼強大的效用,可能會讓民主社會朝向單一的結果,我不要讓該結果出現。

劉靜怡:

在民主社會中,在做網路的規範必須要在適當的地方就是要放bug,從憲法學者的角度而言,如三權分立這個制度他就故意製造這些bug,他的理由也是這樣。如何讓bug過渡到規範面中,AI會遇到的問題也是如此,如何讓bug的概念過渡到規範面中。三權分立會讓每一個權力部分都無法達到最有效率的方式運作,必須要受到其他部門的制約。

王大為:

Friction可能較為合適。

劉靜怡:

是,就是讓他們較無效率。如果要friction,就要讓摩擦的嚴重程度應到何種地步,才是讓人嚮往的,這就是必須規範化的。

林文源:

剛剛所說的bug,或許大家嘆論AI太理想化,AI需要數據學習,用不同套的數據或是數據本身潛在出現問題時,不用放bug,AI本身就有許多問題。或是使用哪些醫師、醫院的資料庫操作,並不永遠是最好的醫師,是所有醫師平均的結果,就實然面而言如何去認定限制這是本來就存在的議題,不用特別放bug。另外是AI放在醫療器材的範疇談論,類似的對照案例是自駕車,最近特斯拉有發生車禍事件與剛剛我們所談論的,不同廠商根據他們資料庫所寫的數據不同情境的判讀可能是不一樣的。回到責任的問題,或許在醫療器材上可以看一下自駕車怎麼做,據我所知目前還是要求駕駛人不管AI如何運作,雙手還是必須放在方向盤上,以最傳統的方式要求駕駛人,醫療場域的狀況我叫不清除,提供給大家參考。

吳建昌:

目前有無國際適用AI,的確是沒有,AI是否需註記適合在哪用,因為訓練的資料會有這種問題。故藥物是否與全世界各國都需要做藥物試驗的確是有此考量,我不認為現在看到別的國家用的很順暢,在台灣一定會有同樣情況。另外,我同意林老師,bug現在永遠都在其中,訓練的人員也不會比AI還要好,除非將來AI會比我們更強大,集合所有人的優點。再者,醫療器材運用基本上還是醫師要負責任,大家論述還是以目前可操作性最多,以消費者保護的角度觀之,有無可能如藥害模式處理,有些學者也以這種方式視之,既然AI可使大家都獲得利益,是不是可以以共同保險或責任基金的方式處理。特斯拉目前的做法是最保險的做法,醫療AI短期內可能也是由醫師負責任,至於要全部人出錢或是醫療系統出錢是將來可想像的。

文聰提到,關於第一審的部分,醫師在此要證明其無過失,只要提出這樣的資料,第一審的法律裁判我沒有非常仔細研讀,我現在能想像,該位醫師做的檢查數據及影像其他醫師也可能不會認為是肢體欠缺的胎兒,再加上數據也不多,基本上風險不高,整合起來其他醫師也不認為是有唐氏症,故法院接受鑑定人意見。再上訴後,可能會有新的鑑定資料出現,醫師會有顧慮,因此和解。至於,疫情過後所謂例外狀況常態化有無方式避免,除非改成self-program,或許會認為較無關係。之前學者提出要做program並不是完全不行,這樣的過程至少有參與,政府需設定program中極端化傾向,需做節制或調整,調整大家可以接受,或許在將來任何的網站或是平台,要做AI Nudging的過程這些原則是必要被遵守的,一段時間就要被檢驗,可能擔心會少一些。當然這些是理想中的情況,實際操作是否可以如此順暢這點我不確定。我的疑惑是Nudging本身是否會有friction的問題,並不是那麼容易就可實現的,可能因為人的變化,在Nudging的過程中還是會有friction,可能有些人會感到反感或是有批評的聲音,Nudging的方式就必須被檢討。這種機制自然的存在其中時,如設計在內在讓我們有機會參與program的過程,或許還是會較安心。

蘇凱平:

想請教有關Nudging與COVID-19的關係,我們在討論Nudge時,我一直在想是在什麼樣的框架下討論這件事,根據Sunstein與Thaler一開始提出Nudge的概念確實是不可以增加經濟誘因的,不可以使用誘因改變選項,只能在原本誘因不改變的情況下移動、設計一些選項。後來有許多的討論,在什麼樣的狀況下我們只能使用Nudge,特別考慮到COVID-19,有人甚至認為這是戰爭狀態,當然每個國家疫情情況不同。如果是在COVID-19的情況,或是在某些較嚴重的國家,譬如美國,在討論時會認為只有限於Nudge且是不能增加經濟誘因的,或是能增加經濟誘因的方式,譬如戴口罩會給予線上購物的優惠,或是一些更嚴格的方式,現在有人在討論違反醫病防治上規定,是否可使用刑罰方式加以處罰。如果用這樣的方式防疫或抗疫,我們討論nudge的意義會在哪,除了公共健康會幫助,而現在是一個嚴重的疾病,我們討論Nudge而非討論更嚴厲的措施的原因為何,因為Nudge原Sunstein自由家父長制設想的框架下,我的疑問是在COVID-19的情況下是否還適用libertarian paternalism,的架構。與此類似的是像美國的情況,最早美國人因習慣上不喜歡戴口罩,一方面早先是他們認為口罩並無預防效果,另一方面是認為不想用強制的方式強制人民戴口罩,用建議方式。惟同一時間強制工廠關閉、不必要的企業不必經營,但於戴口罩上不強迫,不均衡的情況如何理解。

吳建昌:

關於Nudging之所以會被提出且具有吸引力是,在眾多候選措施中,從比例原則的觀點我們會希望手段要證明得達到該目的,在這個過程中,如果能確定能達到我要的目的,有些是強制的、有些是叫不強制的,我只是調整選擇的安排方式,你就願意做選擇,該選擇好處是大於壞處的。故能夠比例原則上通過檢驗的話,Nudge會比強制的措施更吸引人,因為是自由放任主義中的加護照顧的態度。故在COVID-19這段時期,如果用Nudge後讓需要動用到強制的對象、數目或是嚴重度降到最低,我就認為值得,基本上可降低社會整體的負擔、人權的侵害。對人管制的技術永遠是多層次同時運用,不會單一運用,只是組合上要如何使用會較適當,我相信我們對於人的影響力不要如此直接、強力,Nudge如果能好好運用,是值得嘗試的。再者,美國人不喜愛戴口罩這件事會讓人聯想到川普,他是為指標性人物,他一直都很堅持不戴口罩,如果學習效果本身也是Nudge,美國在戴口罩這件事上,並沒有規劃很認真規劃出各式各樣可能的Nudge,譬如戴口罩是十分潮流的。美國對於戴口罩有根深於文化的反對,可以從文化觀點探討口罩對於該國家的意義為何,有些國家會認為戴口罩就是有病的,有瑕疵在身上,這是值得探討的問題。

江浣翠:

我有稍微閱讀剛剛提到的判決,一審時診所與醫師是勝訴的,但還是賠償120萬。第一審的法律見解讓我很難接受,在一審時有提到,左膝蓋以下下肢缺損普通超音波的診斷率只有22.7%。用很老舊的超音波機器應該還是看到的腳掌,看不到腳掌的機率是70%,這讓人很難接受。第二個是母血篩檢唐氏症,不管是較早期母血篩檢的技術,或是現在很熱門非侵入的檢驗,給的都只是一個百分比。以該案而言,篩出得到唐氏症的比率是低於270/1就會被認為不需要做羊膜穿刺,這個產婦本身篩檢結果是38,000/1機率得到唐氏症,因此醫師不推薦產婦再進行羊膜穿刺,理由是做羊膜穿刺有1000/1機會會流產,但做羊膜穿刺的結果就會接近百分之百正確,因為是直接取到胎兒的組織。從該判決可發現,做篩檢的公司只有這種結果滿取巧,這樣的檢驗結果已可供醫師參考,故同意上市,篩檢結果給的是個比率,合乎當初申請查驗的標準,我們就認為沒有過失。可是對醫師而言有很多選擇,可以選擇推薦羊膜穿刺,也可能推薦產婦做這些篩檢。一審之所以認為醫院與醫師無過失是因為,既然醫師有推薦做母血篩檢後,且依據篩檢建議可不做羊膜穿刺,診所醫師,醫院與醫師無過失,既然醫師有推薦,依據篩檢建議可以不用羊膜穿刺,因為篩檢數據低於270/1的風險,這樣的結果足以可以上市,怎麼會該標準因此變成醫療常規,可以不用再推薦產婦做羊膜穿刺,醫師可以從這個責任脫免。未來使用AI輔助診斷系統,會不會也是給一個數值百分之多少是正確的,只要跑了系統是百分之多少,依據此醫師可以從此責任脫免。

吳全峰:

剛剛在討論此問題時,一個是從消費者保護法、一個是從醫療法,當AI介入後,產品與醫師判斷的界線開始模糊,但於模糊的過程中,在法律上的處理又將標準拉開。即消費者保護法本身走產品,到了醫療法第82條又往另外一套走,當AI本身過程造成產品標準與醫師標準中間開始模糊時,法律的處理又將此拉扯開,如何解決這樣的問題。

吳建昌:

若不是必要我們不會去冒羊膜穿刺的風險,這是risk與risk的trade-off,需要資訊的過程中,有時在醫療上就是冒險的過程,必須在沒有資訊冒著天然風險,與有資訊冒著人為風險中取捨。出事之後,冒著天然風險的會認為醫師當時為何不冒人工風險,有可能可以及早發現,發現結果可能是做流產手術。在此本身的權衡應以何種方式看待,在醫審會中很多專家會認為在這樣的果程中,醫師要不要冒險做這樣的手術、診斷,如果大部分醫師認為毋須冒該風險,或許結果出現是令人遺憾的,惟應不會認為醫師的判斷有誤。後來會有生產事故救濟條例,基本上是為了讓婦產科醫師的困境以基金作救濟,該基金醫師不必出經費,大部分是由菸捐提供的。這部分很困難,會不會醫師只要把醫療常規轉化成只要AI認可,醫師即可免責,如果真的有此發展的可能性,將來應改成無過失責任,如果無法達到該情況下,應該要有可追溯性的設計與咎責。在當時會有類型化的發展,在某種類型的案例中,醫師要負責或是AI負責,政策上應導引至這樣的方向。關於全峰的問題,到底要如何設定標準不是那麼容易,如果用醫療技術想像AI,基本上醫師做出的判斷就應該負責任,至於判斷是否可通過同儕審查,認為有盡到注意義務,注意義務應用哪些檢視,如其他人使用AI做出的判斷與你不同,我們會認為判斷有問題,還是可以用醫療過失醫療法82條,當然檢驗的標準比以前多,或許檢驗的標準多讓醫師豁免機會較大。

吳全峰:

說不定最後只有一兩個醫師可以根據AI做出自己的判斷,而其他的醫生都是依循AI的決定做出判斷,這時是以這一兩個做出自己判斷的醫師找出AI判斷錯誤為主,還是回到大多數醫師已經無法判斷AI是對或是錯的標準。

吳建昌:

所以是未來可能沒有任何醫師會違反AI的判斷,最後常規都被大家遵循,如為自己判斷則會變成違反常規。的確有可能,我認為還是需一段時間,將來如真的發展到此階段,那將來的醫療傷害本身,在台灣我會全力推動無過失責任,希望用基金的方式,既然大家都是使用AI,我們希望AI繼續用,錯誤可能會發生。

王大為:

如果以後人無法判斷,但有其他的機器幫忙判斷,會是怎樣?

吳建昌:

醫療AI是一個測試點,因為希望AI幫忙決定通常是較無關緊要,但又反覆的苦工、反覆檢視由AI進行,人類決定的是重要具有傷害性,既然區分是重要具有傷害性,醫療大概多數人會認為如此。但那是想像、與人性發展,如醫用AI越來越多,用藥參考會不斷跳出,醫療影像的解讀也會先跳出,為了保護自己而為防衛性醫療。將來的醫療常態可能大家會認為看AI就夠了,台北榮總已經有AI影像的門診在運作。

李崇菱:

Sunstein四月的時候有寫篇文章,裡面的沒有提到Nudge,但有有講到如果川普帶口罩的會改變的他的社會意義。回到Nudge,實證研究在食品有用Nudge鼓勵人民消費較健康的食物,這想法是有些時間,故他們可以參考很多國家政策是如何影響,後來發現食品有出現層次,對社會影響並非一致性的,高收入或高交易會改變行為,但在低收入或低交易則否,事實上這種差異是結構性不正義的問題,如果是使用AI、Nudge、醫療行為,COVID-19的案例中有很多是有慢性疾病的病人,如在高收入的國家中,有慢性疾病的人士較中低社會階級,如果搜集這些資料對未來在管制病時是好的,這裡還是會有社會不正義的問題。針對疫苗的問題,有個社論可以顯現出對政府是不信任,對科技信任,他們提到如果有疫苗出來,應優先給黑人使用,因為在社會中是相對弱勢的。

吳建昌:

使用科技Nudge,科技本身本來就有divide的問題,剛剛提到就是所謂的Nudge divide。Nudge divide本身是好事還是壞事,也是值得論述的,有時我們會擔心Nudge太強大,Nudge divide會有有些人不會被Nudge影響到的情況。如果政府的影響我們都相信是好的,國家應設想不同Nudge作用的方式,有人說就說Nudge的處理方式如傷害身體健康的可樂,放在最伸出,對某些人而言,將櫃位放在某些地方就會有影響,不同屬性做不同Nudge會稍微降低結構性不正義的問題。至於疫苗,在美國與歐洲有許多關於疫苗的爭議,有許多反對疫苗運動的團體力量也很大,很多人討厭疫苗,也有人喜歡疫苗。討厭疫苗的人會認為優先給黑人使用是將他們當白老鼠,下市的結果可能是黑人的副作用很多而不用。如是喜歡疫苗的人,會認為優先給予黑人使用是因為他們是社會弱勢者。

李建良:

提出四個想法,權充總結:

第一,剛剛提到在AI中設bug,科技部的人工智慧科研發展指引有八點,有一點是安全性,設置bug在其中是否意味我們不想讓AI太安全的意味?與AI更安全的觀點是否價值上會有衝突?是否將來自駕車零事故就予不上市,還是選擇性,這是我們對安全性與科技部人工智慧科研發展指引思考,我認為有些價值衝突的部分。

第二,將來可能要用無過失責任,用基金解決問題,這背後的概念是我們無法解決問題時,就用集體性的方式解決,由大家分擔。但從哲學思考角度來說,這某種程度是否意味人類的自我放棄?我在接觸AI問題的這段時間,一直在想會不會有一天,當我們無法解決問題,就創造一個AI,然後就說都是AI的問題,大家都避難到AI。換句話說,當AI問題無法解決時,訴諸或建立更多的免責條款,會不會有「避難至AI」的問題?

第三,AI是否為一醫療器材、醫療技術,器材與技術是兩個概念,還是一體兩面?而「技術物」是否為「器材」加「技術」的概念,文源老師談AI是從技術物方面研究,在社會學的領域中有所謂「技術物」(Artifact)的概念。惟於法律領域中,談到醫療器材有三部法規規範,一個是醫療器材管理法,第二個是醫療器材管理辦法,藥事法是母法,第三是醫用軟體指引,基本上是行政指導,這只是目前規範現狀。何謂醫療器材?它的形體不重要,重要的是作用於人體,那政府的措施是否都是醫療器材?公部門的措施只要作用於人體,可能可以預防疾病,依此定義皆為醫療器材?參見法條定義,目前的防疫措施也可能都是醫療器材。

第四,Nudging到底是一個新的名詞還是本來就存在,只是在創造名詞?這是一個現象,在辯論是否為Nudging,還是一直以來都有的一種做法,但這種做法會有各種現象,因為有強調後變成是一個接近的方向。至於法律是否應介入Nudge規範,其實有兩種方向,一是強化Nudge,二是規範Nudge的副作用。如果拿掉Nudge這個詞,我們原本就有置入性行銷的規範,只是置入性行銷規定的範圍會較窄。事實上,Nudge就是某種程度的置入性行銷,置入性行銷可以規範的話,Nudge也可以規範。