為何道德機器人的設計必須加入情感的因素?

◎劉紀璐(美國加州州立大學富樂頓分校哲學系主任教授、2019美國卡內基學者獎)

機器倫理學在目前逐漸成為哲學界注意的議題。所謂機器倫理學,根據David Anderson & Susan Leigh Anderson的解釋,著重的是如何給予能自主行動的機器一些倫理原則,使它們在遭遇道德兩難的情境中,能自己作出合乎道德的抉擇。(《機器倫理學(Machine Ethics)》。由於人類社會的實際需求,有自主行動或至少有自主決定能力,不必一直依賴人類因果介入的機器是未來機器人設計的走向。這樣的機器可以被稱為人工道德主體(artificial moral agent)。他們會成為人類社會的成員,分擔我們的工作,照顧我們的老人,陪伴我們的孩子,替我們做家事,在酒店和賓館為我們服務,在工廠與郵局取代職員的工作,在法律程序上決定合法的判決,在導航、軍事甚至醫療領域替我們做重要的決定。以人工智慧的快速發展來預測,這樣的未來不是遠不可及的。在這種人工道德機器的設計上,我們要如何確保設計出來的機器能夠作出倫理上正確的抉擇?

攝影:蔡翔安

在《機器人倫理學: 如何設計道德語言程式(Ethics for Robots: How to Design a Moral Algorithm)》一書中,Derek Leben提出對任何倫理學說的一個客觀考量就是看這個理論是否能夠提供合乎人類從進化而來的道德直覺之功能:這個倫理學說是否能夠在以自利思考(self-interested)為主導的有機體之間產生合作(cooperative)的行為(p.50)。在這個標準之下,Leben選出羅爾斯(John Rawls)的契約論(contractualism)為設計機器最好的倫理學。羅爾斯的理論預設人人都是自利出發的,因此為了達到最佳的共同契約,我們理論的假想情境是在「無知的屏障(veil of ignorance)」下,每個參與者都不能知道自己的種族、社會地位、經濟能力、政治黨派等等,才能毫無成見的選擇對大眾整體來說最公平的資源分配。羅爾斯稱之「原始情境(original position)」。以契約論為基礎來設計道德機器,Leben的人工智慧機器的計算方式用數據為計算單位,是以他強調如果我們要設計道德機器,就必須給予健康、機會、資源等等目標一個數據,而以此數據來預估行為後果的正負值。即使這樣的量化很困難,Leben認為「這是設計道德機器人所必須面對的挑戰」(p.82)。而且在原始情境中,道德機器的預定功能是把所有的主要利益(primary goods)都預設為一樣的價值。日後再依照特別情境以及個人喜好而調整價值數據(p.84)。總結來說,Leben的機器設計是把價值與利益數據化,而且完全用機械性的算計方式來選擇道德機器最佳的行動。

攝影:蔡翔安

和羅爾斯一樣,Leben的道德心理學走向明顯是屬於道德理性論一派。整個社會合作、共同契約、以及無知的屏障,都是建立在「有理性者」會如何抉擇的假設上。也就是說,正確的道德判斷應該建立在理性的基礎上,而設立「無知的屏障」就是為了要避免個人情感的干擾。Leben認為道德判斷的性質與個人的情緒反應,文化規範,宗教信仰都不同,而且應該截然分辨開來。在他看來,道德判斷是一種如同人類自然語言一樣,包涵種種範疇與規矩的心理架構,是以他稱之為「道德文法(moral grammar)」。道德文法客觀存在,獨立於人類的社會建構,而且有別於人的情緒反應。但是,我們人在做道德抉擇時,往往不能完全遵守這個道德文法,並且常常會受到主觀的情感主控,而無法作出真正合乎理性的決定。他指出一個例子:大量心理學實驗的文獻顯示人們在做道德處罰的判斷時,常常會受到一些毫無道德價值的因素(比如說,他們累了、餓了,看到實驗的房間很髒,或是先看了一段好笑或是讓他們生氣的影片)影響到他們的心情或情緒,而作出不同的道德判斷。但是,機器人永遠不會累,不會餓,也不會受到其他影片影響到他們的判斷。「就像機器駕駛人不會分心,機器手術大夫不會慌張,機器的法官有可能可以用大量的資訊來客觀決定犯人的刑期,而不會像現在許多犯人因為受到法官許多偏見而被判更久的刑期。」(p.139) Leben認為由於機器在設計上沒有這些情緒反應跟主觀偏見,日後它們的判決可能會比人類的判決更可靠。引申來說,在Leben看來,由於機器能做出純粹理性的判斷,機器的判斷會是最可信的判斷。

攝影:蔡翔安

這種以道德理性為出發點的機器倫理學在目前仍然是主流意見。一般的看法是機器的設計語言完全是公式化的,而機器的計算方法也完全是遵從數據的考量,沒有情感的成分。但是從人類的道德心理學角度來說,目前的共識是認可情感在道德抉擇過程中的重要性。根據道德情感論 (moral sentimentalism)的看法,情感不僅是人類在作道德判斷中實然的成分,也是應然的成分。也就是說,缺乏情感的因素,人類的道德判斷不會是最佳的判斷。在「為什麼要機器倫理學(Why Machine Ethics)?」一文,Colin Allen, Wendall Wallach, & Iva Smit共同提出機器倫理學不能完全獨立於人類的道德心理學。他們認為任何道德的發展,包括機器的道德發展,都不能忽視適當的情感反應是不可或缺的要素。事實上,情感的反應有助於理性的行為抉擇。人工智慧的先鋒之一Marvin Minsky的名言就是:「問題不在於智能機器是否可能有情感,而是在於沒有情感的機器是否可能有智能」《心靈的社會(The Society of Mind)》(1985)。在其《情感機器(The Emotion Machine)》(2007)一書中,Minsky主張我們應該按照人類的思考模式去設計機器的思考。而如果我們能正確瞭解人類的思考模式是個思考融合情感,節節串連的過程,就不會再認為機器的設計可以完全摒除情感的成分,而只用理性的計算公式。他強調我們設計的人工智慧應該具有足夠的多元化思考程序;我們應該設計能夠感受以及思考(feel and think)的機器 (p.6-7)。

不僅在設計思考程序上我們不能忽略情感成分的重要性,對人類來說,具有情感的機器人或是能夠理解人類的感情而給與恰當回應的機器人,也是人類情感實際需求所要求的。在「數位伴侶時代中的誠信(Authenticity In the Age of Digital Companions)」一文中,Sherry Turkle引用許多心理實驗指出不論是孩童還是養老院的老人,都期待他們的機器伴侶(機器看護、機器狗、機器玩偶等等)是跟他們一樣有感情需要而且可以表現情感回饋的。即使實驗者讓他們瞭解機器伴侶的內在構造完全是機械性的,他們這種感情的期待並沒有減少。Turkle認為,要在人類與其機器伴侶之間建立關係,重點不在於人類如何感覺,而是在於機器如何感覺(p.64)。由以上這些論點看來,我們在設計機器成為人類社會的成員,或甚至成為人工道德主體時,必須加入情感的人工模式。當然機器以其非生物性的結構,是無法像人類一樣自然產生跟身體反應連結的感情(比如人在憤怒時會面紅耳赤,在害怕時會心跳加速)。但是就如同我們可以用計算語言設計人工的智能,我們也可以用計算語言設計人工的情感。

在2000年重印(原版1997年)的《情感性計算法(Affective Computing)》中,Rosalind W. Picard定義「情感性計算法」為一種跟人類情感密切連結的計算方法,能夠以人類情感為數據資料而模擬或是回應人類情感的機器語言。她指出科學的證據顯示情感在理性的抉擇、知覺、學習,以及其他種種知性的功能中都扮演一個不可或缺的角色(p. x)。她引用著名的腦神經專家Antonio Damasio一個突破性的發現:當病人因為腦病變而缺乏情緒時,他們在生活中種種方面都會無法作出正確的判斷而逐漸失去朋友、親人、工作、錢財。可見情感不見得會阻擾理性的判斷,反而能促進合理的抉擇。人腦如此;電腦亦然。我們通常認為電腦必然是邏輯、理性、可預測性的典範,但是電腦科學在這個純粹理性的走向下,卻少有突破,無法設計出能夠跟使用者的人類進行有意義的對話。如果電腦無法理解對話者的氣餒與憤怒(想想有多少次與人工智能的對話讓我們抓狂,因為人工小蜜不斷重複一樣的答案),又如何能找出對話者想要的解決方案呢?因此要設計真正是有智慧的機器,我們就必須加入情感的計算,使得機器能與對話者共同解決困難的問題。Picard在這本書的總結中表達她的期望:大多數的電腦工程師都忽視情感的重要性,以致情感計算公式的設計還只是在發展的雛形,日後希望能夠有更多的研究員投入這方面的開發。如今在MIT(麻省理工學院)的媒體實驗室(MIT Media Lab)中有一個情感性算法的研究小組,而Picard就是這個小組的領導人。

當然,給予機器人情感的成分會有許多可預期的不良後果。如果機器人有感情,我們如何處理它們的負面情感?在Ian McEwan的新小說《像我這樣的機器(Machines Like Me)》(2019)中,作為人類伴侶跟服務者的機器人往往受不了主人的無情使用,而在絕望下選擇自我終結或是自我殘害的手段。在史蒂芬史匹柏執導的A.I.人工智慧(A.I.: Artificial Intelligence 2001)電影中,機器男孩大衛因為渴求得到領養媽媽的愛,在聽過木偶奇遇記的童話故事之後,到處尋找能使他變成人類男孩的藍仙女。儘管大衛會愛人,但是他對愛的理想化也使得他對愛的需求幾乎變成一種痴迷。因此,在設計道德機器時,我們不是要把機器設計的跟人類一樣,有種種人類的自然情感,包括喜怒哀樂愛惡欲,而是要慎選適當的情感,設計為機器運行系統,而有助於自主機器人作出合乎人類道德,並且不會傷害人類的正確決定。Picard的情感性計算法主要著重於機器如何能理解人類的感情需要而給與適當的反應,2018年的世界消費電子展(CES 2018) 已經展示能夠與人類進行情感交流的機器(包括機器鴨跟機器狗)。但是其他動物如小狗也常常可以給出對應人類情感的表現,而這不代表小狗可以做道德決定。因此,如何從設計有情感的機器到設計有道德的機器,還是研究的一個大難關。

Image by kiquebg from Pixabay

本文建議我們以德情感論為出發點來思考道德機器的設計。在設計有情感的機器人時,除了要製造可以辨識並且理解人類自然情感的機器知覺計算功能之外(在這方面已經有許多實際使用的模型),我們的重點是要在人工智慧的基礎上建構道德的情感,以助於機器人本身能做道德的抉擇。而這是道德哲學家最大的挑戰。本文提出我們用孟子的四端理論作為設計的主項。孟子所主張的四端之情感(惻隱之心、羞惡之心、恭敬之心、是非之心)是人類道德的基礎,而且人類社會的道德秩序足以在此四端之上建構。四端之情與人從生物演化而來的種種自然情感不同。從宋明清理學的討論中,我們已經看到理學家分辨四端跟七情(喜怒哀樂愛惡欲)的道德價值,將前者歸之於「性」,而將後者歸之「情」。這個區分在韓國儒學的「四七之辨」中更是被討論的淋漓盡致。特別強調四端跟七情有道德分別的學者(如朱熹、王夫之、以及韓儒李退溪)主張七情屬於自然情感,本身不具有善惡價值,但是其動發力可以促進為善的行為,也可以造成惡行的氾濫,相對之下,四端則是純善的。在這個四端七情的區別上,我們在設計機器的人工智能時應該強調道德情感的建構,而不是僅在模擬人類的自然情感。我們可以建構機器的四端程式。一個機器人的惻隱之心可以表現在它以面容表情辨識的能力分辨出對象的痛苦或哀傷的表情,而產生要幫助對象的意願。機器人的羞惡之心可以建立在一個完善的資料庫上(而這些資訊也可以反應不同文化的共識),將不合道德或是違反人情的行為列入負面價值的範疇,使得機器人能避免採取這樣的行動,而且對他人的行動建立不認同的判斷。機器人的恭敬辭讓之心可以表現在它服從指令,不會憑自己的強悍有力而胡作非為。這樣的設計可以避免Picard所提出的情感性機器的潛在威脅:機器要是擁有全能獨立的功能而沒有人類的監督制衡,有可能會發展成對人類有害的專制獨行(p.127)。最後,機器人的是非之心可以表現在它對主人不合道德的指令採取質疑的態度,而不會成為惡人禍世的工具。也就是說,我們設計的人工道德主體必須要有個健全的道德指南針,在遇到道德難題或者質疑主人的不道德指令時,能夠最終作出不會傷害人類的決定。

以上恭敬之心與是非之心這兩個設計方案也許會互相牴觸,因此在設計上我們的道德資料庫不僅要列出道德上可接受與不可接受的行為,並且要將這些行為列出價值的比較數據或是取捨原則(比如說,說謊的負面價值應該會低於傷害人身的負面價值)。有這樣的資料庫的一個好處就是我們設計的機器人會有符合人類價值觀的歸納(inductive)思路,另外也在這種歸納結論之上有四端的建構而做出適當的演繹(deductive)結論。當然這些資料庫的成立會是道德倫理學家對人工智慧設計的重大貢獻,但是難度很高,而且必須集思廣益來完成。人類的道德思考往往有直覺成分,即使有人完全認同功利主義的多數利益高於個體利益的原則,在實際抉擇上也不見得會犧牲個人,成就大眾(電車的倫理難題就是一個很好的例子)。但是道德機器的思考完全在乎我們的設計程式。即使它們可以在不同情境中做不一樣的抉擇,基本上它們的思路還是有跡可循的。如何設計這樣的計算程式就是最大的挑戰,也許我們需要採取由下至上(bottom-up)的模式,在不斷的實驗中讓機器學習改進。不過,四端的建構應該是我們設計機器人的第一步,是由上至下(top-down)的模式。就如同在人類「四端」是人性的基本構造,我們在設計機器人時也應該把「四端」建構為機器的普遍原創(default)模型。在人類社會中扮演不同服務性質的機器人當然還需要適合其工作要求的特定能力與相應的資料庫。但是,這個機器四端的設計可以預防具有超人能力的機器人日後成為人類的威脅。

攝影:蔡翔安

在《設計社會化的機器人(Designing Sociable Robots)》(2002)一書中,MIT媒體實驗室個體機器人(personal robots)組的領導人Cynthia L. Breazeal提倡我們對機器人的設計應該要強調它們的社會化,使得它們能真正融入人類社會。社會化的機器人不僅需要有情感計算的設計語言,更需要融入社會的條件:Breazeal列出肢體存在(being there)、行為生動化(life-like)、能夠正確認知人類的行為言語表情(human-aware)、同情理會(empathy)、自我理解(understand its own self)j與被理解性(readability)、社會情境中的學習(socially situated learning),等等基本要求(p.6-12)。社會化的機器人可以瞭解自已跟人類的社會關係,能夠在與他人接觸的過程中學習適應,能夠透過共同的經驗而同情體會他人的需求,進而更加理解自我,她總結說:社會化的機器人要有「如人類一般的社會智慧(socially intelligent in a human-like way)」(p.1)。社會智慧必然包括情感的認知與表達。純粹理性的計算公式不會達成社會智慧。MIT的實驗室製造了一個能聽、能看、會說話、有不同表情的機器人叫做Kismet。這個Kismet,儘管還是處於嬰兒期的發展階段,正是以有情感,能夠與人交流的機器人為設計的模型。可見這樣的設計程式並不是不可能的。社會化的機器人更是未來人工智慧發展的必然趨向。如果我們日後會有這樣的機器人在我們的社會中,贏得我們的情感與信任,那麼我們不僅要求它們有如Breazeal所建議的社會智慧(social intelligence)的設計,更需要強調對它們的道德情感建構。哲學家,尤其是對社會道德倫理進行思考反省的哲學家,對人工智慧的發展不能不關切,也絕對不能等到這樣的機器人已經設計出來了才參與機器倫理學的檢討。本文所提出的四端建構僅僅是個初步的構想,絕對不是完整的答案。期待眾人的投入討論。

Daderot [CC0]

參考書目

  • Anderson, Michael & Susan Leigh Anderson (Eds.) (2018).  Machine Ethics. Cambridge University Press.
  • Breazeal, Cynthia L. (2002).  Designing Sociable Robots. The MIT Press; 1st edition.
  • Colin Allen, Wendell Wallach, and Iva Smit (2018). “Why Machine Ethics?” In Anderson & Anderson (2018), 51-61.
  • Leben, Derek (2018). Ethics for Robots: How to Design a Moral Algorithm. Routledge.
  • Minsky, Marvin (2007). The Emotion Machine. Simon & Schuster; Reprint edition.
  • Rosalind W. Picard (2000). Affective Computing.  The MIT Press; Reprint edition.
  • Turtle, Sherry (2018). “Authenticity in the Age of Digital Companions.” In Anderson & Anderson (2018), 62-76.