人工智慧與法律規範學術研究群
第二年期(2019-2020)
第五次會議
2019年11月14日(星期四)
主持人:李建良(中央研究院法律學研究所特聘研究員兼所長)
主講人:吳建昌(臺灣大學醫學院附設醫院精神醫學部主任暨主治醫師)
◎整理:邱筠雅、洪于庭
◎定稿、註解:李建良

本次會議的主題是人工智慧(AI)於精神醫療/心理社會健康之運用,重點在Weak AI,略談Strong AI或Artificial General Intelligence,焦點集中在AI的若干運用例示及其倫理、法律與社會的議題。目前這些例示部分用途表現優於人類,但尚難說是重複而有效。內容重點摘要如下:
基本問題
如果病人知道AI的存在,知道AI有判讀的能力,而AI的意見又與專家的意見分歧時,怎麼辦?會不會形成一種新標準?
例:Woebot(會跟人聊天的AI)
一般的心理治療,需要配合心理醫生的時間,且一周只有7天、一天只有24小時,時間有限,人也會疲累。
如果是Woebot,是網路型態的AI,不會累也不會被激怒而失去理性。經過多次的data training,Woebot可以分析在特定語境下應該給出何種適當的回應。 關於Woebot是不是有用,已經有簡單的分析,值得再努力嘗試。
[註] Woebot is an AI-powered chatbot that guides users through the management of distressing thoughts and feelings using principles of Cognitive Behavioral Therapy (CBT). The app operates like a social messaging application, and invites users to communicate with Woebot by sending text messages.引自:https://psyberguide.org/apps/woebot/
機器人、電子人、AI機器人與實體有血肉的人有什麼差異,如何分辨?
AI機器人與普通機器人的分辨標準在於,真人與其對談之後是否能夠分辨是與機器或真人對談。
有人認為這個要求應該要再高一點,因為這其實很容易做到,但標準要設在什麼地方?如何要求?機器人、電子人、AI機器人與實體有血肉的人有什麼差異,如何分辨?
AI預測自殺念頭(Suicidal Thought)
例:Facebook使用AI來偵測 suicidal thought。
如果在初始的定位時,把自殺設成一種負價值,應該可以用AI來偵測自殺的意念。
需要討論的問題是:Facebook能否安裝此種軟體,用來偵測使用者有無自殺念頭或傾向?或應該讓使用者有機會可以拒絕Facebook蒐集這樣的資訊?
使用者可否拒絕Facebook蒐集這樣的資訊?
雖然很多時候人和人交換資訊時,本來就有可能會把資訊給對方,使得自己必須被解讀。但你願意說出這些話,是否也代表願意被他人做任何的解讀?個人的資訊是否及如何被解讀的自由,應該也是憲法保障的權利。
若Facebook經過解讀,發現使用者有suicidal thought,可否完全不作為?負有何種作為義務?以目前我國的法律規定,除非有保證人地位,不然在台灣並沒有一定必須去救助的義務。 經過AI可能可以找到更多有自殺意念的人,但從自殺意念到自殺行為還有很大的距離;如果是開玩笑,而隔天就有人來提供相關協助,是否會造成其他的問題?
[註] Facebook執行長Mark Zuckerberg於2018年4月2日對外表示,該公司利用AI技術掃描使用者的私人訊息,進行自殺意圖的預測。參見Sara Frier, Facebook Scans the Photos and Links You Send on Messenger, BLOOMERG (Apr. 4, 2018), https://www.bloomberg.com/news/articles/2018-04-04/facebook-scans-what-you-send-to-other-people-on-messenger-app.
有關於影像醫學的研究
承上問題:有自殺意念的人,腦部會不會有某些區域的反應比較特別,可以被偵測出來?
用AI的program進行腦部影像的分析,能否找到有suicidal thought,有無特定的內在心靈模式?主講人吳建昌醫師不採納這個說法,因為自殺是一種複雜的肉體或心理社會的現象,很難想像在腦部會有某個模式就自殺。
魔音傳腦?幻聽的現象與治療
聽幻覺(幻聽)是精神科常見的病患,對這些患者來說,他們聽到的東西是很真實的。在遇到這種狀況的時候,醫生不會跟病人辯論這個聲音到底是不是真的,而是考量是不是腦部的某些部位出了問題,需要藥物的協助。然而,還是很多病患吃了藥之後也沒有用,而如果要降低聽幻覺的強度,劑量就要提高,但可能會造成嚴重的副作用。
病人碰到聽幻覺的時候,其實是很無力的,因為幻覺是無形的,無法直接對抗,不像在法院出庭的時候,被告對於證人可以有詰問的機會,還有面對面進行fight的機會。在這樣的理念底下,精神醫學界就發展出了像Avatar therapy的觀念與作法,將聽幻覺賦形化,並將一些只有在聽幻覺中才會出現的字眼,出現在病患前面,讓病患可以跟聽幻覺面對面進行對抗的練習。
另外的作法是,調整患者所認為自己看到的幻覺人是長什麼樣子,或者患者覺得聽到的大概是什麼樣的聲音。 不過,所有的科技都有其侷限性,也不知道能不能價廉而普遍使用,而且不是每個病人都適合這套系統,甚至有可能對病人造成更高的傷害。
AI和虛擬實境結合治療懼高症
在圖中受到虛擬實境治療的人,實際上走來走去都在同一層地板,但其實他看到的是在不同層樓。
這個治療的過程就是讓他去執行各式各樣的任務,旁邊的心理師會替他加油打氣,並且調整其認知高度帶來的恐懼時的用語,以治療病患的恐懼。
這種治療模式會讓病患專注在前面的任務上,而不是東張西望而使自己更害怕。
Q:這是一個虛擬的實境,可能是Augmented Reality (AR)或Virtual Reality (VR) ,跟AI有什麼關係?
A:AI會進行適度的調整,從病患的生理反應去適度調整,而不只是創造一個虛擬實境。
以AI機器動物陪伴老人或失智症者
對寂寞的人來說,有AI機器動物的陪伴會不會有效果?
會不會因為AI機器動物不會死亡,只需要充電,造成倫理、法律、社會的問題?
老人-Z (影片欣賞)
到底是dystopia或者是utopia?可能會隨著時代的演進有不同的想法。
[註]《老人Z》是1991年9月14日在日本上映的科幻喜劇類型動畫電影,以人口老齡化的老人問題為主題,在1991年12月10日發售漫畫版《ZeD》。臺灣1990年代新潮社有限公司發售VHS正體中文字幕版、2005年9月普威爾國際發售DVD-Video正體中文字幕版,1990年代首華卡通頻道播放新潮社VHS版。原作:大友克洋,導演:北久保弘之。節自《維基百科》
AI Robot協助自閉症者學習社交技能
與自閉症患者互動,需要很多耐心,AI Robot在此可以發揮一些效果。
對自閉症兒童來說,與外人互動必須經過訓練,因為跟人互動是長期的累積,在這些訓練裡面,必須利用獎賞物之類的物品,讓患者可以一直保持學習的動機,使用實體機器人,可以讓患者學習一些社交的技能。 有些研究證實,AI技術對自閉患者可能會有幫助。
AI運用於精神醫療/心理社會健康的倫理、法律與社會議題
優點:
- 有AI從事精神醫療照顧,可以24小時都有聊天的對象,可以擴大可近性,讓大家都可以獲得這個協助,降低社會健康照顧的成本,因為看醫生可能會比較昂貴。
- 與真人面對面不好意思啟齒的事情,如果對AI比較敢開口,或者有問題去求助心理醫師,如果擔心留下某些汙名化的標籤的話,與AI對話可能會讓人覺得比較沒有關係,是開展另外一種治療的可能,因為AI不是真的人,對AI也不需要表明身分。雖然資訊的流通比較有危險,因為可能有位置等相關資訊,但在治療的過程中主動性可以提升。
- 治療系統公開互信的產生,比較不容易出差錯。
缺點:
- AI運用於精神醫療/心理社會健康,是否需要事前許可(事前管制)?還是運用之後予以審查、監督(事後管制)?
- 因為AI還是會持續進行學習,不知道會發展到什麼樣的地步,所以AI上市之後,需要調整事前管制和事後審查的比重,需要事後再驗證。
- 目前透過網際網路進行治療,很難說是一種合法的方式。因為這不是人和人之間面對面的治療方式。因為還是面對面還是比較能夠偵測出危險。例如:資訊流通跨國、跨法域的問題要怎麼處理?未來會發展到什麼程度其實很難講,所以要管制到什麼程度現在也說不定,也有可能讓既有的資源分配不公問題更形惡化。
延伸思考:AI運用於精神醫療/心理社會健康可能會形成人與科技結合的新人類或新文化,發展至此階段是不是一種理想的層次,可再討論:
- 用於心理治療的AI如果評估病患有自殺風險的時候,是否(自動)通報、轉介?要如何處理?是否真有自殺傾向,就必須被監控?有需要監測到這麼密集的程度嗎?
- AI與病患的關係為何?病患使用或接受AI是獲得來自AI的支持,還是被AI操縱?「支持」與「操縱」的界線到底在什麼地方?「支持」到某種程度可能會成為「操縱」?
- AI與病患治療關係的建立與質變:病人跟治療者之間的關係,有可能對真人有移情的作用,對AI機器人會不會也有移情的作用。
- 心理治療可能存在的偏見,是否會藉由演算法的撰寫或是訓練資料而被放進AI機器人身上。未來,AI機器人的使用,transparency是很重要的。
- 對AI機器人依賴,與對其他事物的依賴是否不同,會不會造成社會價值的改變?
自閉症者跟AI機器人學習獲得的互動技巧,是否可以使用在與真人互動的場域?自閉症者對AI機器人與真人的態度是否會混淆不清?EX:以AI機器人治療性功能障礙:有可能會變成男性凝視下的產物,會不會對AI機器人怎麼做,就想對真人怎麼做?真人的性關係不只是肉體層面,還有心理層面,但AI的性玩具會不會還是就比較注重在肉體層面的部分?
Q&A(敬稱省略)
Q:
邱文聰:AI和BCI和NI大概是怎麼區分?
A:
吳建昌:Natural Intelligence (NI)是剛剛想出來的詞彙,我認為是相對於Artificial Intelligence,也就是非人工的智慧;brain-computer interface (BCI),則是在電腦科技發展到一個階段以後,如果人體有什麼問題,可以植入一個電腦的系統去發展得更好,使人體跟科技有更好的結合。
Q:
邵慶平:自閉症形成的原因還是有點爭議,但我們必須先預設病患可能發生的狀況或症狀而做出應對;另外,處理幻覺的問題好像也是,我們須先知道病患聽到什麼東西,AI的介入或應用是不是會有差別?治療強度有無差別?
A:
吳建昌:因為自閉症的狀況不同,可能會有語言障礙、或者是社交功能的障礙、或是特定的活動對他有什麼吸引力,這些是自閉症的三大區塊,AI 機器人比較是處理社交功能的問題。
Q:
沈宗倫:AI如果有自主學習或互動的時候,會不會被精神疾病患者影響,會不會在接受到病患的訊息之後,比如說病患有憂鬱症,AI是否也會因此而內化而有憂鬱的情形發生?同一組AI在對下一個患者治療的時候,會不會給予病患錯誤的訊息?會不會之後我們每次都需要去reset AI,或者是先去觀察AI有沒有得到什麼病,才讓他再去治療下一個人?
A:
吳建昌:AI是不是要對這些接受到的訊息做一個學習?比如說精神科醫師常常需要聽患者非常痛苦的心聲,這個狀況是一個empathy的概念,我可以了解他的痛苦,但我們不能被他的痛苦帶走。如果將來要達到這個能力的話,AI也應該要被訓練到可以判別何種資料可以接收、要接收到什麼程度。或是在治療環節之後,得到的訊息要怎麼處理,讓機器可以學習到在這樣的狀況要做出什麼樣的回應。而不是把他的狀況都學起來,這樣講起來會很像醫生的訓練過程,這樣AI會不會發瘋?但AI發瘋的話,可能reset就好,但也可能reset會有點可惜,或許工程師會有辦法解決這樣的問題。
Q:
邱文聰:之前開會有討論過知識論的問題,也就是說,AI學到的資訊到底是什麼樣類型的一種資訊?回到精神疾病的脈絡來看的話,這個領域的知識是分析性的知識,還是基本的concepts,我們要訓練這個精神醫學的演算法的話,到底要讓AI學習怎麼樣的知識?
A:
吳建昌:例如有些醫師有charisma的人格,有些醫生其實也不需要講太多話,患者就可以接受,在這種情境的狀況下,有沒有辦法寫進演算法,目前還是有點存疑。在訓練跟轉化的過程做,必須要有很多的過程,還有很多的scripts讓他能夠去學習。
Q:
邱文聰:如果除了病人的病歷,將精神科醫師的人格、行為、治療的方式、對待病人的方式,都納入這個演算法裡面,有沒有辦法解決無法將醫生的personality寫入演算法的問題?
A:
吳建昌:必須要對精神科患者的所有生理特徵、甚至是周遭的特徵(當天的天氣、濕度),去進行長時間的偵測,才有可能建立起一個可能的模式,在這個狀況裡面,因為精神科醫師是最沒有標準化項目的。
Q:
劉靜怡:在既有的研究裡面,有沒有把精神科醫師類型化?
A:
吳建昌:其實如果去找還是有,有可能會因為理論的不同而採取對病人有不同的模式。精神科醫師被分析的也是有。
Q:
李建良:會不會有些狀況,像學者對美國大法官的人格特質、出生背景等等因素進行分析,用來預測大法官審理的案件最後判決結果大概可能是怎樣?精神科醫師對於患者有沒有相似的狀況?
A:
吳建昌:對精神科醫師的人格進行分析來預測治療的成功率應該是沒有,通常就是從教科書裡面會得到,書中會告訴你哪些藥和治療模式是有可能好的,對精神科的醫師對病人恢復的情況可能很難有直接影響。這和判決是公開的有點不同,但是醫師跟病人之間的狀況可能就很難去直接分析得到,可能要透過更多的訪談和觀察,所以這個分析的門檻可能就會高很多。
Q:
江浣翠:有沒有人對於幻聽可能是正面的影響?
A:
吳建昌:有,有些人在這個過程中其實是很enjoy這個感覺的,所以其實他並不會不快樂只是不適當。
Q:
李建良:自殺預測的問題?精神醫學這一塊,AI的對於自殺的預測準確率到底高不高?有自殺的經驗、或者是被救回來會不會比較有辦法預測?
A:
吳建昌:要預測的話可能還是要找一個target group,要必須去判斷這個直覺,所謂的心理和社會的情境,可能會有人自殺的風險比較高?自殺風險評估表也可能在這裡幫助其預測。但是這種狀況的誤判還是有點高。但這個問題有可能還是有兩個面向,要不就是尊重他個人的選擇,如果其就是要選擇離開的話,另外一種就是寧可錯殺一百也不可以放過一個人的保護,那就是先救一條命是一條命。AI如果可以對這種狀況去做更多資料的考量,但可能還是會有偏見。因為有可能在這個地方做這樣的預測,在不同的文化以及歷史脈絡下也有可能狀況會不一樣。
Q:
李建良:自殺防治法的通過,對精神科醫師是否有正面的影響?
A:
吳建昌:通報系統可能會比較好,可能就是精神科醫師選擇通報之後比較不用擔心後續處理的問題。
Q:
李建良:另外的問題是,通報之後,誰接著介入?通報系統會有哪些連結?警察可不可以介入?這個介入的權力,可能是公部門的干預了,因為警察也可能過度干預,或者是預測錯誤?
A:
吳建昌:警察職權行使法,其實要求的不是要有專業的判斷,而是要在一般人看起來都有可能有自殺可能的狀況下,就可以認定其真的有自殺的可能而讓警察可以行使職權。從這樣態度來看,因為警察現在都怕事,所以執法過當可能還是有,但不執法搞不好還比較比較多一點,在這個過程當中,在一個人要傷害自己,國家應該要採取什麼樣的態度去面對。在精神衛生法裡面去討論,到底什麼樣的人應該使他強制住院?但另外也有很多地方是可以讓醫生加工自殺?這兩種是衝突嗎?還是在不同種的自殺樣態裡面這些是不一樣的狀況?可能有不同的處理方式,但至少要使他有後悔的機會。在有些研究裡面也顯示,有可能這個人就想要用A方法自殺,如果使A方法的工具取得很困難,也許他也不會想要換成B方法來自殺。就可以繼續活下去。
延伸閱讀選要
- Norberto Nuno Gomes de Andrade, et al., Ethics and Artificial Intelligence: Suicide Prevention on Facebook, https://link.springer.com/content/pdf/10.1007/s13347-018-0336-0.pdf.
- Tom KJ Craig, et al., AVATAR therapy for auditory verbal hallucinations in people with psychosis: a single-blind, randomised controlled trial, https://www.thelancet.com/action/showPdf?pii=S2215-0366%2817%2930427-3.
- Mason Marks, Artificial Intelligence-Based Suicide Prediction, file:///C:/Users/chenny/AppData/Local/Packages/Microsoft.MicrosoftEdge_8wekyb3d8bbwe/TempState/Downloads/SSRN-id3324874%20(1).pdf.