照顧機器人的法律與倫理議題

公共性與AI論壇(二)
2021年1月22日(星期五)

◎ 主持人:李建良(中研院法律學研究所特聘研究員兼所長)
◎ 主講人:張兆恬(台灣大學國家發展研究所副教授)

壹、高齡社會的照顧議題

我國現已進入高齡社會,其中65歲以上之人口占比高於百分之四,很快的也將步入超高齡社會。我國相較於許多先進國家,由高齡社會轉為超高齡社會的速度甚為快速,因此高齡社會之議題來得令人措手不及,屆至2061年時,高齡人口占比將提升至41%。此外,2016年的扶養比統計數字顯示為5.6個青壯年人口,扶養一個老年人口;而至2061年估計將為1.3個青壯年人口,扶養一個老年人口。

照顧對於每個家庭而言,是一個沈重負擔,現行對於長照政策之討論,乃至於臨終醫療之選擇、安樂死是否需合法化等的議題,照顧的壓力一直是被提及的考量因素。2017年衛福部對於家中老年照顧者之調查資料統計結果顯示,其中60%之照顧者皆為女性,同時女性可能會受到照顧工作之影響,而放棄原先所從事之工作,在健康及心理層面也較容易受照顧工作之影響。照顧事務的分配存在著性別分工之狀況。同時,統計資料亦顯示,老年照顧者每天必須花上11個小時以上的時間,並且沒有固定上下班時間,必須24小時待命,其身體、心理及經濟層面將深受影響。

從法律的角度觀之,通常認為照顧是親屬的義務。然而民法所明文者為「扶養」,扶養是否等同於照顧?法院判決常以金錢給付作為履行扶養義務的方式,似可推之民法上所稱扶養,並不全然等同於照顧,法律並未要求照顧必須由扶養義務人親力親為。現行常見的「孝道的外包」,將照顧的工作交由外籍勞工或者長照機構代勞,倘若未來交由機器人代勞,是否會有道德上的爭議?

如今全球籠罩在COVID-19之疫情影響,疫情使得長照機構之人力不足。倘若引介機器人作為長照機構照護之使用,或能解決此一難題。惟依據2017年美國所作統計顯示,59%美國人並不希望由機器人照顧,其中原因係擔心自己將被社會拋棄,並且擔心自己與社會之人際連結將日益薄弱。

Photo by note thanun on Unsplash

貳、機器人作為照顧者的倫理議題

照顧機器人可以分類為幾種不同之類型,如協助醫療行為、作為日常生活之輔具,或進一步陪伴、訓練、提升與刺激患者的認知與社交能力。許多機器人同時具有多重之功能。

已經有許多照顧機器人的研究,受試者多為長照機構或老人。幾項研究結果顯示,受試者多數喜歡與機器人互動、認為照顧機器人有幫助,亦有受試者期望機器人之外表能更強化、更像人。而在幾項與PARO照顧機器海豹的研究中,則發現被照顧者樂意與機器人互動,並且會與機器人產生情感,機器人的反應也會刺激被照顧者較為正向之人際互動,讓被照顧者感到快樂,具有治療之效果。專業照護者亦可善用機器人,作為與被照顧者互動的契機,以及透過觀察被照顧者與機器人間的互動以探知被照顧者之健康及心理狀態。然而前述的研究中,機器人皆為輔助照顧者(這或許也是現今技術之限制),而非完全取代照顧者。

比較PARO海豹與真實動物之間差異:PARO具備之優勢在於機器不需餵養,且不會疲倦,相較於真實動物,不需擔心PARO咬人或具傳染病之疑慮,因此不會影響被照顧者之健康,故其風險性較低。然而,現階段PARO反應仍不夠真實,不如真實動物具有豐富、不可預測的反應。運用PARO於認知退化的老人、小孩之上,也會被認為有欺瞞愚弄這些弱勢者之嫌。另外,機器人價格較昂貴,也有接近使用的平等議題。

究竟機器人可否取代人類的照顧者?交由機器人來從事照顧,可能具有以下幾項優點:

  1. 被照顧者透過機器人的協助,可以解決照顧者行動不便、失去表達能力或表達受限的問題,而不需要再依賴他人,被照顧者因此取回在生活上自理跟自主的能力。機器人解鎖(unlock)被照顧者的侷限並且對之加以賦權(empowerment)。
  2. 被照顧者不必依賴別人,比較不容易感到憤怒與焦慮。
  3. 被照顧者比較有隱私,因為如果是由真人照顧的話,被照顧者的任何行為都會被看見;如果由機器人來做,被照顧者可以選擇哪些資訊要分享、哪些要保密。
  4. 機器人可以減輕被照顧者的孤獨感,因為真人都有怠惰與必要休息的時候,但機器人就可以一直有反應與互動。UCLA的研究發現,機器狗和真的狗都可以減低長照機構居民的孤獨感,且該研究看不在孤獨感降低上,使用真或假的狗有何差異。
  5. 可以強化「在宅照顧」,使用機器人後就可以住在家裡而不用去長照機構。
  6. 照顧者的負擔得以減輕,且可以減少照顧者受到被照顧者精神或心理上的不當對待的情況。
  7. 照顧負擔的減輕,可以更進一步地讓被照顧者感覺更自由,在臨終醫療上也有比較大的選擇性,不會覺得自己造成別人很大的負擔,所以應該趕快結束自己的性命。

然而,對於機器人照顧也有若干的質疑:

  1. 機器人照顧還是比不過真人,機器人並不像真人可以察言觀色、不那麼周全,也不能麼有應變能力,更重要的是,機器人沒有辦法提供人際間深層的互動。
  2. 因此,有認為機器人再怎麼照顧都不是真正好的照顧,因為機器人沒有辦法提供人際連結,甚至會使被照顧者更被社會孤立、會淡化人際,尤其是家庭成員間的連結。
  3. 照顧機器人會物化或是貶低「照顧」這件事情,讓人認為照顧其實是一項機械性的工作,因為機械也可以勝任,所以人們就會認為這件事情的價值變低。

照顧與人際間的親密關係息息相關,機器人開始能與人建立起親密關係,例如日本公務員要跟虛擬偶像初音未來婚禮,這是否是一個人際關係疏離的警訊?前述的報導中,日本公務員表示,他知道這初音的反應都是程式設計的結果,但由於過去與異性相處時有不好經驗及受過霸凌,與虛擬人物的關係反而讓安心,因為在這樣的關係裡,初音的反應是可預測的,而不會感受到人際往來中的不確定性、不安與挫折。事實上,虛擬親密關係的需求很高,根據Amazon的資料顯示,2017年時有一百多萬用戶曾相Amazon的語音助理Alexa求婚。論者亦有指出,虛擬的親密關係具有治癒的效果,能夠提供在現實人際關係中受挫者安慰,倘若連這樣虛擬親密的機會都沒有,許多人會失去任何締結親密關係的機會。《Love and Sex With Robot》一書推崇和機器人建立愛和親密的關係,並預言到2051年以前,法律應該承認與機器人結婚,認為這樣具有正面意義,因為很多人沒有愛人與被愛的經驗,應該要提供他們這樣的機會。書中也將機器人類比動物,認為我們可以給予動物一些權利,為什麼不能承認機器人也應具有類似動物的權利。此外,也提到倘若機器人做出不好的、傷害人的行為時,可以透過保險的方式獲得補償。

延續親密關係得否由機器人替代之辯論,則照顧是否也得由機器人代勞?《在一起孤獨》一書的作者Sherry Turkle反對把照顧完全外包給機器人,認為我們依賴機器人或網路,其原因在於我們對於人際關係既渴望又害怕,所以渴望一種有限的人際關係,能夠一方面帶給我們慰藉、親密與快樂,另一方面又可以有安全感,不必去面對人際上的不安與挫折。社交機器人讓我們可以藉由閃避親密來操縱親密—不必和真人締結親密關係,而是去找可操控的機器人,且感到能夠掌控這樣的親密關係。但Turkle認為,這樣的想法本身是危險的,事實上會導致人們疏遠,不願意去嘗試投入真正的人際關係,沈溺於虛擬的愛,而不願意對真實的愛付出努力。作者在書中特別論及照顧機器人,在高齡社會中人們認為照顧是非常沈重的事情,深怕未來人力缺乏,試圖以照顧機器為解方。但照顧機器人最先適用的對象就是老人與小孩,也就是最脆弱、最無法自己爭取需要的關係與愛的族群的需求。此外,由於機器本身缺乏反饋的能力,若太過沈溺與機器的互動,將會失去人際互動中的「異己性」(alterity)—即失去被反饋、被迫要去思考和別人之間關係、被迫以不同觀點去了解這個世界與社會的能力。如果我們喪失了設身處地、為人著想的能力,則機器將成為適合的伴侶,因為它們跟我們一樣欠缺這種能力。

Photo by Possessed Photography on Unsplash

參、照顧機器人的管制議題

一、被照顧者的權利——隱私與個資保護

照顧機器人隨時都在被照顧者身邊,所以蒐集資訊的範圍廣泛、時間長而全面。同時,機器人良好的感知能力與記憶能力,時常被使用者所忽略,日常生活中許多資訊會被不經意地記錄下來。此外,由於照顧機器人的特性,使被照顧者容易與之產生親密感,很多被照顧者會把內心想說的話告訴機器人,而忽略了這些資訊可能會被他人取得。再者,關於保密性的問題,被機器人所記錄下來的資訊可能會被第三方取得,更進一步去分析、預測被照顧者及其周邊的訊息跟行為。

資訊隱私的問題,或許又可以進一步區分:被照顧者能夠同意,以及被照顧者欠缺同意能力的情形:

  1. 被照顧者能夠同意

類似於使用Alexa語音助理—我們是自願被監控、自願讓大量的資訊被蒐集,但這種自願是否代表就可以不受任何限制地蒐集、使用這些資訊?已有些討論對於所謂照顧機器人,應該設定更高的資安標準,並且應有特別的儲存機制,以及專業資訊監理者的設計。

  1. 被照顧者欠缺同意能力

倘若被照顧者欠缺同意能力,例如家中安裝監視器監看小孩或失智老人有無摔倒,此時能否基於保護被照顧者的理由,而進行遠端的監控與資料的蒐集?我國長照服務法第43條第1項規定:未經長照服務使用者之書面同意,不得對其進行錄影、錄音或攝影,並不得報導或記載其姓名、出生年月日、住(居)所及其他足資辨別身分之資訊;其無法為意思表示者,應經其法定代理人或主要照顧之最近親屬之書面同意。同條第2項規定:長照機構於維護長照服務使用者安全之必要範圍內,得設置監看設備,不受前項之限制,並應告知長照服務使用者、其法定代理人或主要照顧之最近親屬。觀該條規定,雖以民法上的行為能力為準,但仍留有例外的空間,即第2項的照顧使用者安全之必要範圍。

二、被照顧者的權利——照顧品質

若將照顧機器人和醫療AI相類比,許者討論在於醫療AI應該被當作醫材,或者視為替代醫療行為的行為體。然而,照顧機器人與醫療AI的差異在於,照顧和醫療的行為之間存在差異,許多照顧行為不需要專業執照,故醫材或醫療行為的規範,是否能包括這些照顧機器人似有疑問。

三、被照顧者的權利——照顧者的自主權

照顧機器人會不會反過來操控被照顧者?尤其被照顧者常是脆弱族群,例如老人、失智症患者等。又或者他人是否能夠透過照顧機器人,進一步操控、改變被照顧者之行為,或操弄被照顧者的情緒?

論者Blake(2020)對於醫療機器人應如何治理提出較為具體的建議,對於照顧機器人的管制或許可以有所參考:

  1. 針對醫事人員:專業倫理守則中,對於使用機器人的標準、責任的建立;透過專業自治來處理使用機器人的問題;更完整的告知同意程序。
  2. 針對醫療機構:應成立倫理委員會加以監管機器人之使用。
  3. 針對產品製造者:對於AI的研發應訂立倫理守則;確保機器人符合倫理。

肆:初步結論:重新思考「照顧」的倫理意義

我們應不應該依賴機器人當作感情、親密關係或情緒的出口?或者回到本報告最初提出的問題:我們能否把照顧外包給機器人?

「照顧」在我們社會裡具有重要性,照顧作為公共財,補貼使得其他的社會活動得以進行。然而,照顧似乎不太值錢,常被認為是家裡可以免費取得者、市場價值不高。實則,照顧是一種共同的道德責任,每個人都可能成為被照顧者,也相應負有作為照顧者的義務。是以,照顧仍應由人來履行,或許可以透過機器人幫忙,但不應由機器人取代、免除義務。

聯合國2018年的一項報告The Universal Declaration Of Human Rights At 70 –Putting Human Rights At The Heart Of The Design, Development, And Deployment Of Artificial Intelligence提及AI對於人類老後生活的影響,AI可以提升老人的自主、獨立與尊嚴,但同時也可能深化社會孤立,而非增加社會參與。究竟照顧機器人是取代或者作為補充人類照顧者,是應持續關注的人權議題。

Photo by Tim Gouw on Unsplash

問題與討論(敬稱省略)

李建良:

報告一開始提到照顧的概念,藉由照顧和扶養的概念比較呈現問題的面向。從民法的角度而言,扶養比較是金錢的問題,而照顧則強調照顧者與被照顧者之間的互動關係。照顧的意涵還可以區分為生理層面的照顧,以及心理層面的照顧,生理比方疾病照顧或老年照顧,甚至幼兒照顧都涵蓋其中。然而使用照顧機器人進行照顧行為,是否會在照顧的過程中產生新的心理問題?

在過去的AI研究群中,吳建昌老師講題是AI用於心理治療,裡面談了許多問題具有相近性。AI用於心理治療有優點及缺點,有些人的人際關係經營困難,反而和機器相處沒有困難,並且機器並不會累。而另外一個問題,AI是不是醫療器材或是醫療工具?

何之行:

之前剛好跟日本他們有一個東北大學裡面有一個AI實驗室在合作。那個實驗室一直在設置情境,並且從情境裡面找問題。有人認為AI只是一個軟體,但當AI被形體化變成機器人的時候,就會面臨到在軟體層級裡不會出現的問題。日本研究者有設計一個醫療場域,把這個形體化的機器人放在自閉症的群體裡面,然後他們發現裡面其實有很嚴重的discrimination(這是日本研究者的用語),因為有形體的機器人會吸引自閉症比較輕微的人去跟AI互動,那比較嚴重患者會被discriminate掉,所以研究者會透過場域,看在設計上要怎麼樣去克服這個問題。另外譬如資料數據蒐集,研究者發現像剛剛兆恬提到的,因為人們會一直不自覺的向機器人揭露資訊,所以也考慮是不是用歐盟的privacy by design概念,像是機器人的眼睛有signal,讓互動的人知道「喔,它現在正在紀錄喔」,所以這時就會知道不要講太多。

PARO形體化後,就像剛剛兆恬提到的,也有一些問題。因為PARO看起來是軟的、毛茸茸的,當它放到醫療場域,大家會期待它抱起來是很舒服、很溫柔的,可是它其實抱起來是硬、放下去之後感覺也是硬的。日本的機器人研究其實是放到場域裡面,許多研究其實是在互動之間所產生,那可能是直接把機器人降格成software看不到的,因為它需要有一個形體。

張兆恬:

有關形體化,《在一起孤獨》的作者有提到,形體是會影響我們跟機器之間的感情。形體會影響人對它的感覺,但如果是一個跟人太像的東西,你會覺得它有點恐怖,不過如果像到一個極致,我們又會覺得它是我們的同類,不會覺得害怕。所以我覺得形體會影響到我們對它的觀感跟感情,像人或像動物的形體,會使人投射一些感情在上面。

邱文聰:

你的結論上看起來對於用機器人來做照顧是保留的。可是在論述的時候,你提到一些研究在討論被照顧者對用機器人來照顧是持正向態度,甚至還覺得可以做得更好,譬如做得更像人一點,他們會更喜歡。所以我的好奇是,你怎麼從前面的文獻去推導出最後的結論?當然你的推導結論可能是跟前面都沒關的,是建立在自己的一些規範性的、倫理性的一些主張上面,但須要嘗試去說明。那對於觀點,你覺得他們是一種假意識,還是覺得那是很危險的?因為你已經投注感情在上面,那是往危險的方向去發展,所以在法律規範上我們應該去立法禁止讓它長得更像人或其他,我覺得這篇的論述,在最後結論上面會跟你前面談的東西存在一些斷裂。那個斷裂不管是說在推論的支持,或是在反饋去檢視前面的那些現象的時候,比較沒有辦法連結起來。

李建良:

我這邊插一個問題:甚麼叫更像人,或者是更像某些動物,譬如說狗,或者是海豹?所謂更像指的是外表的更像,還是實質性的更像?那實質性的更像,譬如更像人,那人是甚麼?你剛剛提到照顧機器寵物(比方PARO)會設計成有時候對主人有一些不服從,可是動物不是本來就不服從嗎?所謂「更像」應該怎麼樣去定義?

張兆恬:

我覺得邱老師講的可能是我現在比較沒有辦法突破的地方。因為前面的那些研究,可以看到研究者都會提到,這些研究其實不是完全只是靠機器的一個研究或實驗,通常還是要有照服員的介入。所以我覺得這些研究大概都是在表達有機器幫忙當然很好,可是沒有辦法推到更極致──只有機器來做這件事情是可以的。反而在很多研究裡面都會強調要有一個專業、訓練有素的照服員在旁邊,知道怎麼樣是有效並且適當的操作這個機器。所以我會覺得這些研究是在告訴我們有機器輔助很好,但是好像沒有辦法到機器可以完全替代人的照顧的證據。

我會認為,照顧這件事情這麼重要,即便今天有機器可以幫忙,我們還是不能放棄這麼重要的工作。可是另外一方面,照顧是非常辛苦的工作,而這麼重要的工作人到底可以做多久,我並沒有把握。你要照顧一個人一天ok,但你要照顧10年就是另外一回事了。所以我會覺得機器可以幫忙,但是沒有到取代的程度,而現在好像也沒有哪個研究是真正講到完全由機器人照顧是怎麼樣的狀況。所以那些受試者很開心,搞不好是因為有更多人跟他互動、去跟他玩這個機器,不見得是因為這個機器真的很棒。

林建中:

我可以理解兆恬陷入的困難點在哪裡,這個問題從倫理的層面探討,一直是我們無法真正克服的。舉例而言,假如一個人憂鬱到一定的程度,沒有辦法活下來,我們可以給他戴上某種虛擬世界的頭盔,使之能活在想要的人生裡,這樣做是不是道德的?當然這個問題我們可以丟給醫生,但醫生最後還是會問:如果我不給這個人戴,他就會很痛苦,甚至對社會造成危害;其實這又有點像我們以前看過的其他案子,像臨終的時候我們會給病人用一些嗎啡等藥物減輕病人痛苦,但這個例子可能又不太一樣,因為使用藥物顯然有強烈的成癮,且可能是無止盡的。

下一個問題,就是這個斜坡會一直繼續下去,找一個青少年,他覺得考試非常的挫敗、對於人生感到很挫敗,他很想提前plug-in這個東西,到底他要幾歲,我們才能允許他永遠沉迷於電動的世界?40歲不曉得可不可以—40歲以上大概腦皮質已經無法反應太多?像這類的問題一直是我們不能解決的,就是當人選擇自甘墮落,或是選擇用不同的生活方式,到底我們有沒有可能從倫理的角度來譴責他?譬如他大學畢業之後,也有手有腳的,但他就決定不想工作、不想做任何事情,我們到底應不應該譴責?這個倫理問題一直是我們迴避的問題,與今天的問題有些接近。

我有個朋友希望能夠成立養老的高級俱樂部,透過成立信託基金的方式,鎖定一批會照顧自己、需求最低且智力相對高的會員,挑選健康的基因和充分的技能放上方舟,形成一個烏托邦。另一位醫療圈的朋友描述,為了符合勞基法,照顧的員工趕時間下班,對於被照顧者的對待品質較為粗糙。假若我將這個問題重新架構:照顧其實不是倫理問題,而是資本問題,可以接受嗎?一個是頭等艙,一個是鐵達尼號最下面一層。我覺得這烏托邦的想法十分合理,其實我們這群人本來就認識,如要互相照顧,比起到一個長照機構,周圍人都不認識更為理想,何不就形成一個現代類型的合會,只是把金錢和情感部分都提前?這究竟是一個倫理問題,還是一個經濟問題?

張兆恬:

前面觀點的前提是照顧一定買得到。但若這個社會缺乏照顧的勞力時,照顧是不是還買得到?另外,高級的照顧設備、機構,甚至多人照顧,是不是就能讓被照顧者比較快樂?我們把照顧想像成家庭基於道德情感來做這件事,會發覺讓被照顧者感到快樂或被尊重,並不一定是因為很好的環境或高級專業的照顧者,可能是需要有人關心、需要兒女成群陪伴的感覺。

林建中:

我覺得這是角度的問題。當作為一個全國性政策,需要關心這個問題對社會帶來的衝擊,但若在自由市場中,這其實是自願性的選擇,關心對人性的衝擊就會被降到最低,是因為他自行選擇要這麼做。

張兆恬:

但被照顧者不一定很想要高級的設備,可能只是希望有人關心,他可以住在很高級的設備但並不開心,還是會覺得沒有被照顧到。

林建中:

有可能,他可能會參加另一種團體來取得其他人照顧。我只是描述兩個問題的研究取向,假如要當成倫理問題,有倫理問題的回答方法;假如要當作社會問題,集體的解決方法會比自由市場更為有效。

邱文聰:

這個問題也許不是二分,經濟模式要能執行,背後可能也有一些倫理需求必須被滿足。自由市場的經營模式需要搭配人性上的需求,所以我認為就算要設計好一個自由市場的商品或服務販賣,倫理的問題應該需要被回答。

林建中:

Opt-in無法解決此問題?

邱文聰:

當然可以,不去問為什麼,畢竟還是需要自行選擇,可能最後都選擇了符合人性的選項。開公司要提供符合人性服務,還是提供機器的服務,還是會有公司經營上的考量。

林建中:

市場經濟會決定。

邱文聰:

當然,但今天開公司不能等市場經濟決定成功或失敗,要提出好的model吸引消費者。

林建中:

假如我們談的組織體存續且成功的話,其實就回到資本主義的邏輯,只要有足夠多的金錢,他的成功與否不是以倫理上的成功性為判斷。

邱文聰:

倫理上的成功不是一個獨立的考量基準,而須融入商品與服務之中,提出不同的model讓大家選擇,最後可能會有一家公司脫穎而出,但在討論這個問題的時候,可以先設想哪一種model比較容易成功。

林建中:

但倫理問題真的很難有單一解。

邱文聰:

對,不同社會就會有所不同,在台灣成功的model也許在美國就不適用。

楊岳平:

到底這次研究的照顧機器人它的範圍到哪裡?你會發現照顧這個詞彙包山包海,有時候會跟醫療做類比,有時候會跟扶養做類比,但是其實有些照顧是非常生活性的事情,可能進不去扶養也進不去醫療,所以這是一個面向,可能在談照顧的時候,每個人想的都是不一樣的事情,程序也不一樣,最後結局也不同。

第二個是照顧機器人,其實前面舉的例子跟想要討論的照顧機器人好像又不太一樣。舉的例子基本上都是人機輔助,不太可能獨立執行,可是你想解決的問題已經進入到有時候是進入到全機器人的狀態,其實這兩個基本上需要解決的問題就會差很多。很多你擔心的問題在人機輔助上根本就不存在。所以首先當你在談照護機器人的時候,要不要做一個限縮,否則很容易發散出去,可能在設定議題上,如果能夠限縮在現狀的人機輔助的狀況,或者就是去討論一個全自動化、全機器人的時代,這兩個比較容易協助你聚焦。

我也覺得當你可能要避免用單一個體來舉例,因為單一個體的倫理問題跟今天產業化、規模化之後的問題會是不一樣的。當你在談照顧機器人的時候,假設這個是一個成功的產業,大規模被大量引用的時候,這時候的倫理問題會跟平常我們想的或許會不太一樣。以性愛機器人為例,我一聽到你講性愛機器人的時候我就想「管這個幹甚麼」,一個人的性癖好,就尊重、讓他去自由發展,他愛去虐待是個人的性癖好,我們可以不要管。可是我有點可以理解你想要表達的是,你想的問題都不是單一個體的問題,你想的問題是說,萬一這個社會如果都變成這樣該怎麼辦。那我覺得這個區隔要做出來,否則很容易就很容易被視為個別異化、尊重個人自主的問題。

報告的許多內容是建立在推論,我想問有沒有實證研究的結果可以去證明。最後在管制的問題上,因為你是用醫療機器人去舉例、討論,但現在太多的照顧機器人不至於會適用醫療相關的法令。我比較好奇的是,現在對於照護這個產業的管制有哪些,像是對外勞、對長照?也許研究這個問題面向是,我們現在的照護管制是甚麼?照護機器人有沒有根本性的去挑戰我們既有的管制,還是其實還好、沒甚麼太了不起的改變。

順便補充一點,台灣的信託一直都是比較限縮的範圍,在國外有很多所謂寵物信託、養護信託等等,像是管家的概念。譬如說我今天出車禍了,我擔心我家裡的小貓需要一個貓咪保母,這個貓咪保母就是拿著信託牌照的人在提供相關服務。檯面上可以有很多相關對於照顧者的管制,但今天如果照顧者被機器人所取代的時候,這些既有的相關產業管制會怎麼樣運作、會遇到甚麼樣的挑戰。

張兆恬:

其實大家應該有注意到,先前衛福部立台北醫院的長照機構失火,有些居住於機構中的老人因為來不及逃脫而喪生,這個案件中有提到長照人力配置的問題,我記得好像照護員是5:1,護理人員是15:1。如果去看一些與長照機構或照服員的侵權或是過失致死案例,會發現很多都是人力不足的問題,譬如晚上沒有人值班,或者是值班的人力不夠,導致有發生狀況來不及處理造成損傷或死亡。這個時候法院時常會考量「到底有沒有足夠人力」這個問題。我覺得我的研究將來可以再從對於長照產業或者照顧本身的規範去開展,例如:如果有許多照顧機器人,長照機構的人力配置就可以不用15:1,可能是20或50:1。

另外關於岳平提到要更特定照護機器人的類型,這邊我確實有想到但還沒有進行限縮,我覺得有一個原因可能是因為現在機器的侷限,在實證上還沒有辦法看到是在講完全讓機器人做所有照護、人都不用做。如果今天是完全把這個照顧的工作給機器人來做,到底被照顧的人會有甚麼樣的感覺,或是到底影響是甚麼?我現在還沒有比較實際的案例。

此外,是否需要管制性愛機器人?同時需要考量這是個案抑或是系統性問題。一個人特別的性癖好是否需要管制?許多女性主義或主性平的論者,非常反對性愛機器人,認為可以對一個非常類似人的形體為所欲為,容許這樣的行為本身就是一個問題。就有點像是說美國法上其實有禁止兒童色情,且不限於真的兒童去拍色情片,連虛擬的都不行,就是因為覺得描述那樣的意象跟行為,本身就是道德上是不容許的,也會助長去鼓勵或容許這樣的行為。因此這已經不是單一個案,而是這個行為本身就有道德上的問題。

楊岳平:

是否仍存在管制密度上的差別?若比較使用者自行製作使用,和業者大規模製作販賣,在尊重個人自主權之前提下,去反對產業化的行為,比較管制密度上之差異,會是不太一樣的切入點。

趙若漢:

關於所謂照護機器人的權益,會不會有虐待機器人的狀況。因為我記得我們讀書會剛開始的時候,其實有討論過用羅馬法上奴隸相關法制來處理這個問題。

王立達:

我們能不能夠幫被照顧者選擇一個純機器的狀態?這時可能管制的需求就會比較強。如果是被照顧者自己選擇獨居不與人同住,只僱一個傭人,照這個狀況看來換成機器人好像沒甚麼差別,可是站在反對的角度,會認為沒有跟人接觸會缺乏人的溫暖,所以我們要禁止這件事,或是不要讓這件事情大規模的發生,因為這樣子我們的人就會越來越不像人,這時候就會涉及到這兩個情境必須要做比較。

剛剛在討論倫理問題時沒有提到,人的照顧其實也有很多負面的部分。在照顧的過程中,照顧者有可能帶來憎恨,那這個憎恨是被照顧者感覺得到,可能被照顧者已經無法表達,或者是還是可以在床上,每次照顧者一來就大吼「你出去!」。這是人在照顧的時候都會發生的,可是機器在照顧的時候不會發生。人會有很多好的事情也會有很多壞的事情,可是機器的照護就是持平,因為規格化了。我其實想到這個的時候就會想到《鬼滅之刃》裡面提到,人的生命很短暫,人是很弱的,但也因為這樣所以人的生命才很有趣。人不是標準化的機器。所以可能像是兆恬的結論,應該是搭配起來的,因為機器跟人各有好壞,如果把任何一個直接禁絕掉也都不是好方法。

張兆恬:

照顧不一定能夠產生更多的愛,也可能是更多的恨或是其他。但《在一起孤獨》的作者Turkle認為,有更多的恨也沒有關係,有人際的接觸是很重要的,即便接觸是受挫也無妨,因為有這樣的經驗才可以去反思、去繼續維持人與人間的關係。

李建良:

有關是否能夠用奴隸相關的法制來處理機器人的問題,是因為羅馬法以前就有奴隸法。可以與機器人類比之處,在於奴隸雖然是人,但在法律上是物;相較之下,機器人本身是物,但具有與人類的性質,像是強AI跟人一樣具有思考的能力。這樣的類比還在發展中,民法學者一直都有非常大的興趣,因為羅馬法是從民法那邊開始發展的。

照顧機器人的問題要怎樣回到法治思維,一直是我們的任務。照顧的範圍要進行界定:到底是一個所謂的人機互助,或是全自動化的照顧機器人?類似這種問題其實在談AI的時候,幾乎都會面臨到,它只是一個輔助性的,還是可以完全取代人類?

第二個部分就是剛剛提到我們要不要禁止,剛剛是講15歲去進入網路世界,但誰是「我們」?是成年人嗎?「我們」兩個字其實是第二個問題,就是「我」還是「我們」?我們常常在講的是我而不是我們,不能代表我們全部。我們可以有很多的理由,可是那一群人在整個社會裡到底是多數還是少數?如果要跟法規做連結的話,甚至比較負面的—所謂的父權主義—說你不可以這樣、不可以那樣,可是為什麼不能這樣?如果要回到我們的法治裡頭,那要不要交付民主?還是有少數人權的問題?背後是不是有帶父權的觀念?好聽一點就是保護義務,難聽一點就是獨裁者思維。

第三個就是剛才提到的管制。我們肯定要問的是管甚麼?是安全的問題還是道德的問題?剛剛從上面延伸下來,道德正當性是最首要的管制理由。如果是安全的問題,相對來講是比較清楚的,包括需不需要牌照,醫療法裡的一個原則是,如果你不是醫生、如果你不是藥品,你不可以強調有醫療效果,常常有宣稱療效的案例被處罰。醫療機器人有療效,不是嗎?照顧機器人也說它有療效,這部分會不會也受同樣的規範,或者是這整個部分會被顛覆掉?療效是不是一專屬於醫生,或者是專屬於醫療藥品才可以宣稱有療效、其他都不能,在照顧機器人會不會也碰到這個挑戰?

最後就是長期照顧機構法的問題。其實我們的長照法嚴格來講叫做長期照顧機構法,雖然沒有特許,但是法律中獨佔了「長期照顧」這四個字,要用這四個字就必須按照這個法律中的遊戲規則。透過證照制度,長期照顧必須要跟政府的資源連在一塊,跟國家之間必須有合作關係,這有點像壟斷。現制最大的問題,是我國社會的快速老化跟扶養負擔,這個問題呈現到最後就是錢的問題。錢的問題如果要變成制度化,應該要跟保險或者年金制度連在一塊,可是我們現在的長照跟健保制度是分立的。