荀子的品德倫理學如何應用於機器人倫理學的建構

◎ 劉紀璐(美國加州州立大學哲學系教授)

* 本文是為復旦大學哲學學院主辦的卿雲講座「海外荀子思想研究」所寫出的論文。全文會在近日由《社會科學》雜誌發表。在此僅選出摘要。

Photo by Jared Arango on Unsplash

傳統人工智慧 (Good Old Fashioned Artificial Intelligence; GOFAI1)的設計是本於計算與符號運作的模式來界定智慧,在程式上先界定行動的普遍公理,然後依據公理系統的符號演算來制定機器人的下一步行動。 在人工智慧的歷史上這樣的設計程式遇到許多難題,其中最嚴重的是所謂的「框架問題 (the frame problem)2」。框架問題在狹義的原始用法上指如何以公理系統設定下一個行動的框架,因為從一個行動到下一個行動中間可變跟不會變的因素太多,無法一一以公理界定。 舉例來說,我們對人工智慧的設計公式往往是以條件句 (conditionals)表示的:「在 x + y + z … 都滿足的情況下,採取 n 的決定」。 但是前提裡面的變數可以無限多,無法一一列舉,所以整個條件句要成立的框架成為我們無法界定的空泛描述。在廣義的用法下,「框架問題」演變成以制定公理系統和計算演變來捕捉世界情境中的種種變數與不變數的困難。 這個問題不僅展現了傳統符號主義的侷限,也顯示了任何「由上到下(top-down)」,亦即以普遍公理來制定行動抉擇的設計程式,在實踐上成為一個不可能完成的任務。 世界的不斷變化與多元發展模式無法以事先設計的程序來表達。 人類沒有這樣的困難,因為人類的行動是奠基於從小學來的常識,情境中的許多因素不需明確界定,我們也可以直觀理解。我們如何能讓人工智慧的系統也具備這種從經驗累積中學習的能力呢?

近十年來人工智慧的突破來自另外一種設計模式:運用機器自體的學習能力(machine learning),而非完全由人類來監督與設計的程式。要使得機器人能真正在世界實際情境中運行,我們必須承認「世界是其本身最好的模型(the world is its own best model)」 (Brooks 1990: 5),而給予機器人在世界中活動,與環境互動,而從中學習的能力。 這種思維代表「自下到上(bottom-up)」的設計進路,讓機器人從日常選擇所使用的零碎規則中逐漸發展出自己的行為準則。 這種思維所激發的是一種以有自主心智的發育機器人(developmental robots)為目標的設計:「自主心智發育是建立在一個類似大腦的自然系統或人工嵌入式系統之上的,這種系統在其內在發育程式的控制下通過使用自己的感測器和執行器與環境(包括自己的內部環境和元件) 進行自主即時的交流來發展心智慧力」(於化龍等人 2007: 34)。 設計者賦予機器一種處理匯總資訊的學習能力,這些資訊是機器人在不同的情境下,對由自己的行動所產生的結果的總匯。 當代的機器學習方法中,強化深度學習(Deep Reinforcement Learning; Deep RL)提供了一個塑造機器人行為最可行的模式。為了讓機器人形成某種行為模式,設計者建立了一個獎勵系統,鼓勵機器人採取某些行為並且避免重複某些行為。 這樣的一種反饋機制能夠促使機器人逐漸發展出其行動的倫理規範:好的可以重複; 不好的立刻修改。這就是初步建立機器人倫理維度的方案。

將人工智慧的設計加入倫理的維度,有時候被稱為「人工道德(artificial morality)」。建構人工道德的一個預設是人工智慧的機器在處理有關人事的問題時所作出的判斷抉擇不能不加入對於人類價值觀、倫理觀、人情世故、社會規範的考量。 如果我們依照目前的機器人設計模式,只著重智能與行動能力的設計而不去考慮如何添加倫理維度,日後出現超人式的機器人,有自己的思維方式,發展出自己的價值判斷跟行為準則,對於人類社會就必然造成極大的威脅,甚至可能會取代人類的生存空間。 所以在討論人工道德的議題時,我們並不是在對「道德」的本質作本體論上的申論,而是基於在設計機器人方面一個不可忽略的實用顧慮。在哲學上我們可以檢視不同的倫理理論會如何規範機器人的思考與行動,但是在設計上如何真正能把這些倫理規範及價值加入機器人的思路,則是設計工程師的遠端目標。在科技達到製造有自主行動意識的機器人這個地步之前,我們必須先做理論上的探討。 一方面是為未來的設計方針作準備,另一方面也是我們在這個語境中對人類的倫理系統作一番反思。至於在社會分工合作的系統裡面,機器人的運作會產生在勞力分配中人機競爭、工作機會、行動效率、主權擁有、權責認定種種社會上實際的問題,則超越本文探討的範圍3

賦予機器人倫理維度的提案也同樣是分為「由上到下(top-down)」以及「自下到上(bottom-up)」的兩種進路。 根據Colin Allen等人的區分,前者是將倫理原則編入計算程式,作為管制機器人的行動準則,而後者則是不預設規矩,完全開放讓機器人去自行學習並模仿人類道德行為的模式 (Allen et al,  2005: 149)。 在西方的機器人倫理學的討論中,康德的義務論和功利主義是兩種最流行的倫理方案。 兩者都屬於由上到下的進路,因為這兩種倫理學都致力於界定普遍性的道德法則,作為個體行為抉擇的憑據標準。 在另一方面,品德倫理學 (virtue ethics) 對機器人倫理設計的走向則是一種混合式 (hybrid),融合由上到下以及自下到上的兩種設計思維。 品德倫理學不可能純粹是給予機器人完全開放的學習平臺,讓機器人以設計好的智能在情境中自由學習道德規則。 品德倫理學設計的要求是在設計上給予機器人一些特質(或是選擇傾向),以此來規束機器人的行為抉擇。 也就是說,一方面我們事先界定機器人應有的品德; 另一方面我們以強化深度學習的模式讓機器人在各種情境中作出抉擇,得到正面或負面的回饋,而從中逐漸建立一些行為的模型。  

本文是筆者整個研究計劃「儒家機器人倫理學」的一部分。 承續前面對孔孟倫理學發揮於機器人倫理維度的建構,本文討論如何將荀子的品德倫理學應用於機器人的倫理設計。荀子的倫理方案是建立在他對人性的預設上:人在本性上就是以利益為思考中心的小人:「人之生固小人,無師無法則唯利之見耳」《榮辱》。 人出於血氣之屬,天性必偏愛己親:「凡生天地之間者,有血氣之屬必有知,有知之屬莫不愛其類… 有血氣之屬莫知於人,故人之於其親也,至死無窮」《禮論》。 人生而好利疾惡:「今人之性,饑而欲飽,寒而欲暖,勞而欲休,此人之情性也」《性惡》。 人又致力於追求感官之享受:「目好色,耳好聽,口好味,心好利,骨體膚理好愉佚」《性惡》。 同時,荀子假借舜之口批評人的品德不貞:「妻子具而孝衰於親,嗜欲得而信衰於友,爵祿盈而忠衰於君」,是以「人情甚不美」《性惡》。 總結來說,人的自然情欲「偏險悖亂」,是以為「惡」。 在他對人性的這種體會之下,荀子的倫理方案強調禮義之治,師法之教,環境之影響,學習之重要。 這些就是荀子所定義的「偽」:「可學而能,可事而成之在人者,謂之偽」《 性惡》。 荀子對人類的倫理方案是一種重視理性思慮,群體規劃的倫理願景。

以荀子的角度來看,機器人跟人類不同的基本之處是前者完全是「偽」的成品。在構造材質上,機器人不屬於血氣之類,不會偏愛其親,沒有感官之嗜欲,不會以私利私欲爭奪逞強,更不會有人情之種種不美。 在適當的設計之下,機器人可以成為荀子心目中的「君子」。 荀子的倫理方案如何應用於機器人的倫理草案呢? 本文的主題是,如果以荀子的品德倫理學來建構機器人倫理,就必會是一種著重理性規範,以及強調群體結構的倫理方案。 在這個基礎上來考量機器人的倫理設計,我們可以運用荀子提出的幾個必要品德:專一、恭敬、謹順、誠、信、忠、義,作為機器人的核心結構。 以荀子的理念設計的機器人在人類社會中會扮演服務的角色,遵從人類社會的階層架構,而學習模仿有德君子在不同情境下的行為。

Photo by Martin Shreder on Unsplash

對荀子的品德倫理學主張,我們可以歸納出如下的重點4

  1. 倫理社群的成立
  2. 禮的維護
  3. 法度的制定
  4. 道德標準(義)的界定
  5. 基礎品德的培養

以荀子的理性式品德倫理學為思想跳板,我們可以提出以下的設計方針:

首先,要讓機器人擁有認知現實世界的種種情境與道德選擇的能力,我們必須先建立一個龐大的道德行為大數據(Big Data)作為資料庫,以供它們學習體會人類的道德價值文化,以及在適當情境中模仿學習人類的道德反應。其次,我們應該建立機器人的倫理社群以及雲端倫理聯繫網。第三,我們要制定人類社會的「法」與「禮」作為管制機器人設計以及機器人社群的公共規範。第四,我們要強調機器人持續學習的重要性,賦予機器人自省反饋的能力,並具有接受矯正的機會。限於篇幅,本文僅討論如何在設計上選擇機器人特別需要具備的品德功能。

以品德倫理學的進路來設計機器人的道德骨幹之所以是一種混合性的,而不是完全自下到上的設計模式,就是在於這種進路選擇一些整合性的品德建構,來作為機器人基礎設計層面上的普遍「道德文法(moral grammar)」。本文討論荀子的品德倫理學對機器人的倫理建構,所選擇的是以下六種品德來作為設計機器人的道德規則:「專一」、「恭敬謹順」、「誠」、「信」、「忠」、以及「義」:

  • 【XR 1】5機器人的設計應該以特定任務為主題,而機器人的抉擇首先必須履行指派給它的任務而不接受其它的考量。   
  • 【XR 2】機器人的語言與溝通方式要使用人類社會中的恭敬語言,而且機器人在與人類交流的時候必須保持謹順的態度,服從人類原始設定的指令而不能任憑己意去改變。
  • 【XR 3】機器人的語言必須直接坦白,而不能有謊言或虛偽誇大的言辭。 機器人的言語必須具有「可信度」。
  • 【XR 4】機器人的行為必須值得人類的信任。 機器人對於曾經做出的承諾必須履行,即使困難再大也不能放棄。
  • 【XR 5】機器人必須盡忠於其主人。 如果在主人與其他人之間必須做出選擇,機器人的首要服務對像是其主人。
  • 【XR 6】機器人的行為不能違反社會的正義原則; 同時,機器人必須從有德者之資料庫逐漸學習建立自己的道義原則。 如果遵從【XR 4】或【XR 5】會違反道義的原則,那麼機器人可以放棄【XR 4】與【XR 5】。

在以上這六個道德原則中,【XR 6】理所當然佔據最高的地位,可以在某些情境下超過【XR 4】與【XR 5】的原則。 但是【XR 1】到【XR 3】也具有基本的斷然地位,不能違背。 【XR 1】與【XR 2】是設計機器人的基本程式,而且我們的預設是設計小組的意圖是造福社會,而非為非作歹。即使設計出來的機器人的主要任務是在戰場上殲滅敵人,這個設計也一定要有既定的正義原則,而且是一種由上至下的設計程式,監管機器人在所有情境的行動。在這樣的設計下,機器人不可,也無法,在特定情境中違逆任務而自行決定要採取其他的行動。【XR 3】的斷然地位可與康德所言的「不可說謊」之道德律令相較。 康德這條絕對律令運用於人類道德抉擇非常具有爭議性,但是在機器人的倫理上這條律令應該具有絕對性,斷然性,而沒有任何條件性,不處於模擬兩可的灰色地帶。機器人不能說謊,這是一個核心的制衡樞紐。只有如此機器人才可能贏得人類夥伴的信任。  【XR 4】與【XR 5】則屬於有條件性的道德規則。在不與其它規則相違背之下這兩個規則都是機器人的行動準則,但是不能超越其它的道德規則。比如說,個體機器人不能在自己主人的命令下去做出違反原始設計的行動。因此對主人的盡忠不能超越其原始任務設計的功能。舉例來說,如果一個機器人的設計是提供健康服務,它就應該專門忠於提供健康服務的角色,而不能因為病人要求而提供安樂死的服務6。MIT熱門的道德機器(Moral Machine)實驗的問卷議題7:自動駕駛汽車在煞車失靈時是否應該選擇犧牲駕駛與乘客而避免傷及佔多數的無辜行人(加上如果行人是老人、孩童、罪犯等等不同價值考量),在【XR 5】的要求下是不存在的兩難。自動駕駛汽車的人工智慧系統只對駕駛負責保護生命的責任;不會選擇自撞路障來犧牲駕駛而保全路人的生命。

從這些品德設計原則來看,荀子的道德機器人最適宜服務行業。這樣的機器人會專注達成自己的任務,誠實回答人類的問題,對交流的對方採取恭敬的言辭與誠謹的態度,對承諾負責,對主人盡忠,並且在任何情況之下都不能違反道德標準,正義原則。同時,由於倫理社群的必要性,以荀子的倫理學來建構道德機器人一定是建立一群同樣設計的機器人,共享龐大的道德資料庫,共同參與道德抉擇的雲端諮詢。這樣的機器人倫理社群會有集體的意識,集體的道德感,但是不會是集體的自我感。個體機器人在離開實驗室之後會因為不同的實際情境受到不同的道德挑戰而做出或多或少的調整,以致它們的行為不見得會持續維持統一。但是所有的抉擇都會回饋於基本資料庫,而更加豐富機器人的道德選項。 這樣的道德機器人或許永遠無法達到人類的聖人境界,但是它們應該是不會危害人類社會,而是有著道德底線的機器人同伴。 這樣的機器人應當可以融入人類的社會規範,而得到人類的信任。

目前人工智慧的進展飛速,只是在行動的設計上專家還沒有很大的突破。 設計能夠自主作決定而採取行動的機器人首先就是目前還無法克服的困難,而要使機器人的人工智慧計算加入倫理的規範而使其行動能夠合乎人類的道德標準更是猶如天方夜譚。本文的探討方向完全以理論思維作基礎,但是即使在這個層面,我們還有許多難題需要解決。在做結語之時,本人要提出幾個問題作為反思。 首先,我們以上建議的幾個倫理設計方案是否能夠建立足夠的保證,讓我們設計出來的機器人日後不會發展成為完全背棄人類生命觀以及倫理價值的族類? 其次,我們在本文所建議的幾個核心制衡與品德建構是否可以幫助機器人在遇到道德兩難之間能夠有足夠的資源作出適當的決定? 再者,在(如著名的「電車問題(the trolley problem)」)道德兩難的情境之中,以不同倫理學說設計出來的道德機器人是否會作出截然不同的道德決定,而荀子式的道德機器人是否可以在這樣的比較中勝出?  最後,假設如本文的論述,這樣的機器人只會是服務性的機器人,而沒有指令人類的地位與權利,我們在製造這些機器人的同時是否根本違背儒家的道德精髓,而僅僅是設計工具性的擬人機器?  這些問題也許是屬於未來的世界,但是如果我們一味發展人工智慧而不仔細考慮人工智慧加上行動能力後會產生的道德後果,那麼我們就很可能是在為人類社會製造日後的「終結者(Terminator)」了。


引文出處

  • Allen, Colin, and Iva Smit, Wendell Wallach (2005). “Artificial Morality: Top-down, Bottom-up, and Hybrid approaches.” Ethics and Information Technology 7(3):149-155.
  • Awad, Edmond, and Sohan Dsouza, Richard Kim et al (2018).  “The Moral Machine Experiment.” Nature 563 (7729). October, 2018. DOI: 10.1038/s41586-018-0637-6.
  • Brooks, Rodney A. (1990). “Elephants Don’t Play Chess.” Robotics and Autonomous Systems, Volume 6, Issues 1–2: 3-15.
  • Haugeland, John (1985).  Artificial Intelligence: The Very Idea. Bradford Books.
  • McCarthy, John and Patrick Hayes (1969). “Some Philosophical Problems from the Standpoint of Artificial Intelligence.” In B. Meltzer & Donald Michie (eds.), Machine Intelligence 4. Edinburgh University Press. pp. 463-502.
  • 于化龙, 朱长明, 刘海波, 顾国昌, 沈晶 (2007). 「发育机器人研究综述」。《智能系统学报》,Vol, No.4, 34-39.