人工智慧與法律規範學術研究群
第三年期(2020-2021)
第二次會議
2020年9月29日(星期二)
主持人:李建良(中央研究院法律學研究所特聘研究員兼所長)
主講人:蔡政宏(中央研究院歐美研究所研究員)
◎ 整理:洪于庭
◎ 定稿:李建良

壹、哲學與AI
人們對於哲學的理解大多停在舊時代,如亞里斯多德,較近的會提到的也是Decarters,但也是接近四百年前的學者,有時討論AI時會認為AI與哲學並未有太大的關係。我們翻閱AI的教科書會發現,清大,目錄的最後部分有討論的哲學問題,特別是強AI與弱AI、倫理議題部分都是他們特別關心的。哲學家長期以來都很關心心智是如何運作的,機器如果可以跟人一樣行為上有智能展現,可以透過機器如何運作回過頭理解人類心靈的運作,或是透過心靈如何運作建構AI是如何運作。這部分是哲學家所關心的,非單純是技術問題,關心的是對人自己的關懷。在跨領域與不同學界交流時,發現大家使用弱AI與強AI字詞的意思都不一樣。在哲學領域中,弱AI是指,他的行為是如同人類一樣有智能,該機器並非有心靈。強AI是,該機器與人一樣有心靈,我們一般聽到AGI、ANI在哲學中的劃分都是屬於弱AI,機器執行單一任務或多項任務,在我們看來都是機器仿造人類做法的智能行為,但是他本身並無智能。
John R. Searle,提出中文房論證,是為了挑戰Turing machine的架構。Turing machine的運作是,透過一個房間中有個機器和一個人,使用者透過對話並且不知其中為電腦或是人,如果該使用者無法區辨,該機器就可宣稱有人的智能。John R. Searle就是要挑戰這樣的假設,中文房論證就是,即使通過了這樣的測試,裡面的人也是不具有智能的。但仍獲得許多回應,其中一個是並非其中不懂中文的人不懂中文,而是以整個中文坊看其是否懂中文,不能僅看其中的人。而後來有許多種回應,不在這裡討論。哲學家所關心的是智能運作為何,ANI、AGI在哲學領域看來較屬於弱AI,有時在與他人溝通會特別強調對方所指的為強AI抑或是弱AI。
另外是Dreyfus,也是反對強AI,他認為電腦或是機器無法擁有人類的心智,他們論證方法與John R. Searle不同。透過研究人類展現技能(skill)、專業(expertise)、知識(knowhow)等,這幾個字對他而言是同義詞,各位可以設想當真的掌握某種技巧,且技巧的記憶是很高超時,如同庖丁解牛一般,不用思考內部的規則,如開車完全與車子融為一體,在這個情況下沒有規則。Dreyfus透過技能等考量看出人類的心智,再對比人工智能,至少在他的時代,rule-based、強調專家系統的時代,他認為有根本差異。他有幾本書,強調人類的直覺。這部分他將人類skill分為五個層級,越低的層級越會用到規則,如設想在開車時,新手開車時教練會提醒很多規則、技巧,當技巧從新手到越高等級時,越高等級的技巧擁有者所用的就不是規則,而是直覺。這部分也有許多討論,如做決定時,Dreyfus有時分成五個階段、有時六個,最高等級為wisdom,無論如何初步來看大步都是有五個階段,即技巧學習有五個階段,最高階段都是用直覺做判斷,直覺的判斷是不用將要處理的情境劃分成不同的單元逐步的分析,而是直覺不用思索就知道如何行動。Dreyfus認為專家遇到情況可以不用思索,直覺就可以看出。如果一個專家在做一個行為表示,並不會有下列心靈狀態的運作,有些用紅色標註。早期在談人類心智運作,大概從黑格爾以前會較強調理性的重要性,在二十世紀有些關於理性的爭執,開始質疑人類的理性,理性的重要性在哲學界開始產生爭議。這裡在談的是,在直覺狀態下根本不必用到思慮,不用意識控管,甚至不用費力、沒有自我,如同無我或是全神貫注的狀態,心理學所說的「flow」的狀態。甚至在展演這些表現時,如果還用到心智會干擾到表現的好壞,這是對於直覺較多的描述。
在哲學以外心理學有很多研究,經濟學家也是,這部分的直覺一般而言他們稱作:Expert intuition,有許多的研究。有些是在實驗室中,有些透過實際情況,例如考察消防隊員,消防隊員在做抉擇時常常沒有時間做判斷,或是飛機駕駛員等是如何做判斷,這些他們稱為自然主義式的決策,不在實驗室中觀察,而是在實際情況觀察。哲學家對AI關注的是,人類與AI對比時,從人類智能、道德、創意、意識或智慧,討戰AI是否有這樣的智能、道德等嗎,在挑戰時會回過頭來看,原本我們認為是所謂的智能或道德、創意,也許與我們的想像不同,如果AI也可以展現的話。如果用人類的看法挑戰AI,有時回過頭來看想法可能會鬆動對於人類原先自我認識的看法。較大的圖像可能是,在做此研究時,可能是兩邊相互的衝擊。我較關心的是人工智慧如何可能,為何人工智能要到人工智慧的階段,到人工智慧的階段後會遇到理論上的挑戰,很可能是原則上的不可能,因為智慧者與intelligence agent的思維模式不同,智能者無法做出人類智慧的思維模式,如原則上可能必須滿足何種條件。假定原則上可能,實際上真的可能嗎?這是我想要瞭解的部分。
後面的部分會談及從人工道德在實踐上如何可能,哲學家問如何可能時,並非認為完全不可能,而是大部分都會遇到理論上的阻礙,於此理論上的阻礙即仿人類道德的設計道德,可能有兩個方法。一個是由上而下的方法(top-down approach),指定或貢獻道德規則給AI。另外一種是由下而上(bottom-up approach),讓AI自己學習。但這兩種方法可能會遇到某種挑戰。從此處我會在談及人工智慧是否比較不會遇到此問題,其實也是會,故我會談到有關well-being某些資訊會衝突。
問題與討論(敬稱省略)
邱文聰:
人工「智慧」的智慧概念的內涵似乎與福祉有密切的關係,可否說明智慧為何以福祉作為概念核心?
蔡政宏:
這是一個有點複雜的問題,我訴諸哲學家較可能接受的定義關於智慧,其實這個問題十分麻煩,哲學家自己也無法通透,有很多種講法,我所採用的是Green 2015年現在聚焦、比較能接受的看法,這只是一個必要條件。一個主體是實踐智慧,智慧有時會說理論智慧,我們說的大部分是實踐智慧,可以說是個定義、必要條件之一。如該主體知道何well-being對他而言是重要的,可以當作規約定義,如果不將此當作規約定義,換個方式,也可以不用智慧這個詞。人類如果想要獲得well-being,獲得well-being有兩種可能性,一個是碰巧得到,另一個是可以培養某種傾向,讓他穩固、穩定的獲得well-being。而所謂穩固、穩定的傾象,有人會習慣用virtue,即德性,如果擁有某種德性,即可以獲得某種幸福。
這裡用的是智慧,如果不使用該詞,可以換一個詞。這部分,一部份會訴諸規約定義,一部份是可以不要管智慧這個詞,我們直接問人類有無一個穩定傾向,這傾向可以使你獲得well-being。well-being可能是人類活在世上最主要追求的,論證可能是,如為何要考大學,是為了一個好的職業,為何要好的職業,是為了要有好的生活,會無限後退,只要給一個回答就可繼續問。回答到最後,為何要追求詢問,所以有時well-being問到不能再問人類在追求最終的東西。關於何謂well-being還有很多討論空間,這裡有好幾套理論會稍微帶過。有人認為well-being是種愉快,這裡我將智慧與福祉,是透過剛剛的條件連結,也就是一個agent如果是有智慧的,他知道什麼對well-being最重要。
【續上報告】
AI的教科書中常常會提到,大部分的AI研究者program能否運作,事實上不關心AI是否真有智能、道德,我認為這部分需要很小心。機器做出,例如可否跟機器人結婚,此問題可能已經超過機器構造層面的問題,或是對於自主機器人可否咎責,如醫療機器人,或是機器人是否可具有公民身份。這裡特別關注的是,如醫療機器人會分等級0~5等級,關於機器人最後可能會有有高度自主性、完全自動化,在人類世界活動時,與人類互動與人一樣,也可以單獨決策,在此情況下,就要明確思考關於責任問題,如何定義該機器,這些哲學問題並非不用思考。
貳、AI機器人
AI機器人能做什麼、應做什麼、與規範性的關係為何。有許多問題值得我們關心,如機器人可以自由進出主人家中的所有房間嗎?這可能已經超越機器有無完成任務的問題。機器人可以聽從主人命令去鄰居家拿他人的手機嗎?或是機器人面對男主人命令他去泡茶,女主人命令他去洗碗的指令應如何回應?或是機器人將晚餐倒在地板上,我們可以對他大吼大叫嗎?這些問題看起來一般,我們可以將之延伸。例如為何可以進出所有房間,特別是在該機器人有連線可以截取所有影像上傳雲端,這時就要考慮到此類簡單問題外的議題。至於聽從主人命令是要考慮的是,是否可辨識出主人要求其執行不道德行為,不管嚴重與否,機器人可否辨識出。所謂泡茶、洗碗看起來很簡單的事,但我們疑問的是機器人可否判斷哪個人的命令具有特別凌駕性。最後是要考慮機器人採取某種態度,是視為人還是視為物,這些可能已經超越到設計層面問題。
與AI相關的規範,有時談及規範關心的層面可能不一樣,可以分成三大部分。一個是製造者相關的規範,有的是關於使用者相關的規範,有個是機器人本身需要遵循的規範,某些書籍中是做此分類。我有些不理解,前面並非針對機器人本身,而是針對機器人製造者、使用者都放進Robot Ethics 研究,關於AI機器人本身需要內建何種規則或道德規範,稱作Machine Ethics放在該領域中研究,我們在討論到機器人時特別都會討論到所謂三法則。前面部分是關於製造者的規範,國外也有很多討論,主要是針對大公司在製造機器人時的相關規範,可能都是在做倫理漂白的工作,因為沒有約束力。故關於機器人的製作者,到底需要遵守何規範?法律效力為何?這是目前大家所關心的。我叫關心的是AI機器人本身需要遵守何種法則,應如何內建給機器人,機器人的如何思考的。大家可能常聽到會給機器人三個法則:1.機器人不得傷害人類2.袖手旁觀使人類傷害3.除非違反法則一,否則應遵從人類命令。
問題與討論(敬稱省略)
邱文聰:
這不算是對製造者的規範?
蔡政宏:
應該是說該法則適用的對象,或是遵守的對象、主體是AI機器人。
邱文聰:
看起來像是機器人,但最後是在規範製作者,必須製造出這種機器人,必須遵循這三個法則。
蔡政宏:
我們可以有兩個規範,機器製造者應將好的道德規範歸屬給機器人,這是一個規範。另一個規範是,機器人不得傷害人類。主體不一樣,法則或是規範可適用的對象不同。我瞭解文聰的意思,若此我會分成兩個層次,製造商遵守的層次是,必須將X法則給機器人。
【續上報告】

參、AI機器人「道德推理」:人工道德
一、理解問題
目前哲學界畫分幾種可能的做法,我們將機器訓練有道德,一種是由上而下的方式,人類的道德原則或將道德原則的理解寫成程式再給機器,這部分還是需要專業工程師。哲學家所談論的是相對抽象的,特別是道德原則,與道德原則相關的語句,具有應然與句的特徵,在這部分,透過應然邏輯,寫成程式,但這部分還是站在較抽象、原則性的方式撰寫。另外較不抽象的是,2018年的,也是試圖使用邏輯方式將道德原則形式化,形式化後,後面工作仍須由工程師寫成程式。
我認為這還是非常抽象,因還codes要如何理解。接下來要討論什麼是傷害,對我們而言傷害此十分簡單的字眼,例如機器人不得傷害人類或是不得不作為使人類受到傷害,傷害要如何理解,假設AI機器人看到人類甲在追打人類乙,這時是否要判斷甲在傷害乙。如果從人的角度可以很快判斷,惟如情況特別時,一個警察在追打強匪,人類甲並不只是人類甲而具有某種身份,人類很容易辨識出,但是AI機器人有辦法很快辨識出嗎?在這可能要將法則1改寫成法則1.1,警察對人類的傷害不算真的傷害,但又會卻步,如在香港的情況。故在此可能要一直修改,AI機器人無法像人類一樣具有很大的基礎。還可以提出很多例子,例如人類法警在執行死刑時會有心理壓力,可否改由AI機器人執行槍決,這時這個機器人是可以殺人的,無論理由是否接受,故可以延伸討論,可否殺人、槍決,甚至是執行安樂死的機器人。
可能的解決方式就如同上述,必須一直修改AI機器人內建法則,如AI機器人在特殊場域刑場、戰場、醫院,對人的傷害不算傷害,這是特例,惟那樣的傷害應如何理解、如何形構出。又例如性愛機器人、性虐待機器人也是在傷害人,可能必須不斷將傷害這個字眼的內涵修改。較擔心的是我們無法將所有情況窮盡,但是對人類而言可以馬上判斷是否為傷害,所以可能會反問人知道是否為傷害,對人而言,因為人有身體,像在設計機器人時,人有前後之分,有些行為會往前做不會往後做。但AI機器人非內建或是生來就有這樣的身體,身體既有某些型態,人類生來身體的型態會使人類往某個方向做,但機器人並不見得是這樣。故說到傷害時,為何人類可以很快理解,這部分很複雜,一般可能會認為是因為我們有同情、同理,甚至是因為我們可以透過同理知道這件事我們不喜歡。但AI機器人不同,他沒有受傷的感覺,我們可以很快推理,這個情況下我會有什麼感受,而這個感受是我不願的,所以可以知道這件事該做不該做。但AI沒有這些材料、沒有這樣的身體,幫助其做資訊處理。另外是訴諸對於文化世界的一般理解,如牙醫對病患造成的也只一種痛,但我們不會認為那是傷害。故我們在教導AI傷害與痛是不同的,外科醫生也可以對人體進行手術,但人類可以很快區別出那並非傷害。故必須不斷地將傷害的內涵增加,惟應如何增加是我們必須面臨的問題,特別是AI可以完全自主化時。故這是由上而下的方式可能會遇到的問題,到底應選擇何種規則就有很多爭議。即使選定,其中很多基本的字詞,如何將內涵寫出,這也是問題。在此情況下,有人建議不要給規則,由下而上的方式學習道德。
二、習得問題&道德直覺
AI機器人要學的道德推理如何運作,我們讓機器人自己學習,與人類小孩相同,並非一出生就告訴他應遵循的道德法則,而是透過情境學習,逐漸獲得道德法則。這些部分心理學家進行很多的工作,他們在想是否AI可以做這樣的練習,給予大量的案例,問題是不論是否為監控式的學習,回到人類本身而言,既使蒐集到人類本身大量的案例,代表的意涵為何。目前麻省理工就在蒐集人類對於道德兩難時會做出的道德抉擇,最後做出統計,到底什麼是比較重要的,大家的選擇會較注重生命的數量,還是年輕人或老年人。在台灣也有版本正在進行,如清華大學人工智慧研發中心的丁川康老師有做過,目的創建倫理案例庫,他們考察的案例比麻省理工更多,除了自駕車外,如工程師為增加產品利潤,將產品壽命減少,工程師自己是否應舉報。他也將主角改成AI機器人,AI機器人本身是否要舉報。又如AI護士照顧成人,病人不服藥會死亡,服藥會感到痛苦,機器人可否強迫病人服藥。
我的問題是,蒐集到的數據,應如何運用,蒐集到的是螢幕後的人的道德直覺判斷,還是深思熟慮下的理性判斷。另外是這些案例並未蒐集到人類下判斷時的理由,故AI學習時也不會學到理由。也許在電腦螢幕後下判斷的這些人,下判斷時,我們所要詢問的是,人類的道德判斷是如何形成的。我們參考Haidt,他是一位心理學家,研究人的道德判斷如何形成,他最近將道德心理學上的發現運用在美國政治圈,民主黨、共和黨的這些支持者,道德判斷形成判斷時是如何形成的。他的想法可以使用很簡單的標語看待,即形成道德判斷時,通常是直覺先行,事後講理由。也就是先有很強的直覺認為正確與否,至於理由非一開始就有,這與「人是理性的想法不同」。即我先有某些理由,再從理由推至這件事在道德上的對錯。他提出了幾個例子,我們在做直覺判斷時並未有理由,但在詢問他為何做這樣的判斷時,他會自動將理由補上。如:下面有四張卡片,每一張卡片有一面是英文字,一面是數字,規則是如果卡片的一面是母音的話,另一面就會是偶數。問題是要判斷該規則是真或假,必須翻開哪幾張卡片檢查?他是一個條件句,A是母音,我們可以看另一面是否為偶數判斷。如果卡片一面不是偶數,則另一面一定不會是母音字母。這是心理學家在測試人是否有理性時,最喜歡測試人對條件句的適用,透過條件句判斷人是否有理性,這是他們常測試的其中一個版本。大量測試後發現,大部分會選A、4,因為看到題目時會專注在母音及偶數上,事實上從邏輯角度要挑A、7。直覺上會有某些判斷,Haidt紀錄無論受試者聽到正確答案或是錯誤答案,這些受試者都可提出說明為何做這樣的選擇,且推理還顯得十分有自信。
另外,他做兩個道德上的測試。測試一:茱莉和馬克為姐弟,一起在法國旅行,單獨在海邊的小木屋用餐,如果這時做愛會更有趣,茱莉長期服用避孕藥,為保險起見馬克也使用了保險套,雙方都十分享受,但也認為不必要再嘗試,他們將當晚發生的事當作彼此間的秘密,這樣一來兩人的關係也更加親密,請問你對這件事有何看法?他們做愛是不道德的嗎?是否為亂倫?測試許多大學生?他發現很多人直覺認為是不道德的,因為會生出畸型兒,但故事中已經提出女方有服用避孕藥、男方有配戴保險套,不會有這個問題,受試者又會提出其他理由,實驗者一一駁斥,受試者啞口無言,但仍堅持這樣做是不道德的。
測試二:故事人物珍妮佛在醫院的病理實驗室工作,他認為殺動物是不對的,基於道德的考量選擇吃素。不過,某天晚上他必須把剛死的人類屍體火化,他認為將屍體丟棄很可惜,變割下一塊肉帶回家烹煮後食用,請問珍妮佛的做法是否不道德?或是可否這樣做?大家直覺為不道德的,當初理由是基於殺動物是不對,事實上動物在自然死亡,為何還是認為不能食用。且動物有生命,植物也有生命。於此要問的是我們下道德判斷時,需問反對與支持者的理由為何。H在此的結論,於測試一隻有20%認為可以,測試二隻有13%的受試者認為可以。實驗者有記載,他會不斷詢問反對的理由為何,他的結果是,在這些無害的禁忌情境中,受試者會提出很多反對理由,反對理由數量不斷被拋棄,遠多於其他的情境,有些情境較單純,如在這為何不能,會不斷提出理由,直覺先行、理由後援,因為理由一直不斷變化。
這是Haidt一直在討論的議題,最後提出一個社會直覺模型。一個觸發事件開始時我們會形成某些直覺,好或不好,在直覺情況下會形成某些判斷,該判斷需形成理由,為何下此判斷,此理由根據作者想法,理由的目的是說服、影響別人,故該理由行程時,是為影響另一人B的直覺。但通常自己形成的理由不太會去糾正、挑戰自己,故理由不會回到自己身上,而是以該理由更正挑戰別人的直覺。有時是用判斷,判斷非理由,而是用判斷影響他人直覺。例如,這事情是好的但是未講明理由,或是大家都這樣做,直接用判斷影響直覺而沒給予更多的理由。無論如何B的直覺被影響,進而形成他自己的判斷,他的判斷甚至可能會形成相同推理或理由,相反他也可以因此影響A的直覺。
這部分是為了要將前面所說蒐集道德判斷的部分詳細話,如果回到螢幕前的人所做應該選擇何項的判斷,螢幕背後的人做道德判斷可能是很複雜的事情,故道德資料庫蒐集到的為何,是蒐集到推理、道德判斷還是直覺。道德判斷、直覺、推理是否可以被更改、更正。如為可能,蒐集到的資料庫也許並沒有作用,因為在被教育後,直覺可以被更動,如果根據那些道德資料庫,以這些資料庫作為基礎進一步發展道德理由或是讓AI遵循,我認為太危險、太快。背後要蒐集人的何種資料?如果從Haidt人類的道德推理來看,這相當複雜。我對於蒐集資料庫這部分,抱持較懷疑的態度。或是應更精緻化,故他蒐集的是人類直覺的判斷還是理性的判斷,理性的判斷在前述可以看到,理由後援有時並非真的理由,如剛剛所提及的測試一及測師二,理由只是特定、而後才加入,故如要蒐集人類的理由,理性的判斷到底是辯解還是只為支持直覺。這部分的理由,我們必須小心,理由是一種有客觀性,還是純粹支持直覺,道德直覺有多樣性與衝突。
現在大家想建構所謂可說明性的AI,可說明性所指為何,說明出的部分只是單純將推理過程講出,但並不代表具有證成性。
我們必須小心的是,可說明性AI的建構並不代表事情被解決,可能只是將黑盒子情況講出來,告訴我們的可能只是緣由、codes,仍然不是理由。或是做另一組對比,人類在做某些行動是,我們可以詢問,有些可能是motivative reason,有些是normative reason。如為何打人,行為者說是因為心情不好,這是motivative reason,是動機是的理由促使他去做某些行為,這並不能說是normative reason去正當化行為者的行為,故可說明性的AI做出後,可能只停留在緣由部分或是motivative reason。
問題與討論(敬稱省略)
吳建昌:
如果大部分的人都無法講出支持或反對的理由,AI的限制也是與一般人限制一樣,假設找一位我們認為的道德大師,請他看上千億種案例,做出結論,AI模擬與他看到的情況一樣,這個世界的樣態可能就是這麼多,AI做的與道德大師也都相同,道德大師未說明理由,但AI做出的決定與他一致即可,這樣會不會有問題?
蔡政宏:
除了在研究人工智慧,也在研究人類的實際智慧,有人利用列舉範例方式,談論何為「智慧」。他列舉範例,如智者達賴喇嘛、孔子,現在發現範例本身有無共通性,甚至做道德判斷時有無受所處文化的影響,如孔子與達賴喇嘛所做的判斷是否一致。這要挑戰的是,我們真有可能這樣的範例嗎?所謂的道德大師,也許我們可以先舉幾個例子?
吳建昌:
我所期待的並非普遍性的道德,這牽涉到後設倫理學的問題。即到底有無普遍性的道德,在各處都是正確的,如果不將野心放得如此高,在某種生活場域中,至少在該場域大家認為他是大師,AI就不要出去該場域做決定,生活在這種場域中我們都認為他是道德大師。
蔡政宏:
這個想法也許會將該場域放更低,就目前情況可能是要將該場域越限制越小。如機器有所謂防呆裝置,是為了要保護人類,從這些所謂防呆裝置擴大,不管是人或是AI做的道德判斷,到最後越來越複雜的情境。我認為這是較接近想像的情況,如果真的有,我的回答可能是沒有所謂道德大師這種存在,我們也不完全只是透過直覺思考,我所採取的可能是due process,在心理學或是快思慢想所使用的心靈模型。即我們有兩套運作機制,一個是直覺,一個是推理。Haidt有個問題是他只討論system 1,直覺的系統,較少談reason、analytic的系統,對於直覺系統可能有些可以做更正的地方,這是我剛剛可能的回答。剛剛問題,有部分沒有掌握得很清楚,假定有道德大師,我們學道德大師的判斷,將道德大師的判斷教AI嗎?
吳建昌:
AI學習做出的決定都會跟道德大師一樣,因為道德大師所做的決定我們都認為是正確的,假設是這樣,有沒有辦法模擬成這種情境?如果要批判,你做的決定都是對的,但是中間過程缺少一個東西,沒有那個東西就無法繼續。
蔡政宏:
我有兩個回應,第一個是所謂的道德大師或是practical wisdom,一般給人的印象是這個人具有實踐制能夠下判斷,至於理由好像是沒有,似乎在某個情境下就可下判斷,這是一種解釋,現在比較多的哲學家要挑戰這個看法,即作出該判斷完全沒有合理的理由嗎?理由到底為何?故需要將理由找出。第二個是我們要界定道德大師時,我們在判斷一個東西是否為可靠機制,必須經過長時間並不斷測試,才能賦予某種特徵。當我們認為他是道德大師時,我們必須長時間觀察他所做各式各樣各異的道德判斷,而這種道德判斷都是為我們所接受的,才能歸因於某種屬性或特徵給這個人或是機器。然而,第一個問題是,是否有個agent經長時間被我們觀察,而總是能做出可靠的判斷?第二個是,我們在談及道德大師時都是停留在較古老時代,當代較少找到,有沒有所謂道德大師或是智者都是相當程度被美化的可能性,也就是長時間的測試下並非所有判斷都是對的,而是他做的某些判斷,我們將他的判斷美化。這樣會有危險,我們要歸因某種屬性給一個對象是,不能只根據這個事件的判斷(single judgement) 做得很好,即認為這個人具有好的傾向,即總是能夠做出好的判斷。必須經由不同判斷個別長期觀察下,我們都認為是好的判斷,我們才能歸因於實質案例,因為過往的判斷都做得很好,所以在下次的決定也能做得很好。從此情況,我會想要詢問,也許我們應該要給一些實質案例,道德大師是我們很相信的,我們就讓AI向他學習,也許能學到某些東西,但我認為可能性很低,因為是想像的情境。
吳建昌:
我把他當假設,你是挑戰假設。我之所以假設是因為,假設真的有可能這種AI我們會去如何批判?
蔡政宏:
如果真的有我們不會批判什麼。
劉靜怡:
假設倫理案例資料庫,我當然是有些疑慮的,但如果真的有辦法做到那個樣子,AI也進行學習,學習後會有什麼問題?
李建良:
這些問題不是都沒有答案嗎?
劉靜怡:
所以我們嘗試探索,就自駕車的案例,自駕車是一個有趣的問題,理論上有很多問題是沒有答案的,謝世民老師嘗試要創造出答案,再使AI學習,假設是這樣。這就與剛剛建昌所說的有點類似,人自己本身也無法判斷對錯、是否倫理,我們就從頭開始教AI什麼是倫理的。
吳建昌:
如同父母教導小孩,父母教得好不好,其實我們永遠都不知道。他們經常都不是道德大師,所以如果真的有道德大師訓練AI學習也沒有關。回到現況,因為不可能有道德大師,父母同時也可能非完全正確的在教導小孩,我們都認為是可以的。那AI我們本來就不會期待他是道德大師,所以有些決定做錯,好像與人也會做錯一樣。
劉靜怡:
但是我們會期待AI在做習得的倫理判斷,還要做某種程度的理由嗎?
吳全峰:
除了理由之外,他不需要reflection,就人而言有所謂道德大師存在的話,假設換了人的社會,會希望有個道德大師會跟我們說所有答案,我們好像也不會期待這種情況。
吳建昌:
我們不期待,可是在討論時常常會討論判斷是否夠好,好像會假設有個理想答案在。所以我們才會說趨近該理想答案是比較好的抉擇,因為在討論時,這種影子好像一直都藏在某處沒有去除。因為這樣去想像AI做決定,好像不夠好,因為有理想答案在那。
吳全峰:
我想問的下個問題是,假設一個道德大師存在是不可能的,社會上也不會期待有道德大師引導我們的行為時,變成我們的行為如同剛剛所述,可能是由父母所教導的,父母教導後我們會有行為存在,會在他的價值體系上。惟當我到一個程度時,會開始有反思,去挑戰他所教導給我們的東西。在這情況之下,假設在AI之下,所有東西都是由該道德集給予,這個reflection有可能出現嗎?
吳建昌:
還是有可能。因為一開始是監督學習,接下來是非監督式學習,所以會變動,他會變成好人或更好,壞人或更壞。
吳全峰:
所以我想問的是reflection發生會是要件嗎?
吳建昌:
人的行為模式稱為reflection,但內在的運作為何,其實不知道。變成reflection是在可以觀察到的表面,事實上在後面,如機械化部分,如何操作得出,其實自己也無法解釋。
劉靜怡:
如果連那個AI為何都不知道,我們要求reflection差別在哪?而且為何要要求?
林建中:
我猜整個的論述可能是,希望創造一個不只是模仿現有的道德,而是發現或是完成我們無法完成的道德判斷的AI。
蔡政宏:
我所持的較懷疑論的立場,是對正要做這件事的人,不管是某些資料庫,或是將資料庫侷限在wise或wisdom不會有錯的這部分讓他學習,我想要凸顯人是很複雜,在此方式下讓AI學習到的東西,人的價值觀很不同。
林建中:
假如目標只是這樣,不見得會有這麼困難。他只要複製人的反應,或是多數人的反應即可,不一定要有道德大師,可以有個最大的資料庫。譬如80%的人覺得這個不應該,也不需要判斷優劣,只要遵循大部分人的判斷即可。
蔡政宏:
這如同我剛剛提及的兩個情況,第一個是直覺先行兄妹的情況,大部分人覺得不對,但有些人不認為不對。
林建中:
那還是回到有無優劣的問題,假如該AI的功能是要談到道德性,不會做出與一般人反應相差太多的,只要靠資料的反射即可。這問題必須有意義就是想要做出不一樣的東西,他想要告訴我們多數人是錯的,或是某種先知,或是比所有人隨機抽樣的判斷更卓越,是否有此預設目標?
蔡政宏:
這可能更長遠,他目前目標非他來教我們,而是符合人的道德判斷,現在問題是將人放成個別的人。
林建中:
問題就回到建良老師所說的,我們沒辦法100%確認前述兄妹的案例是對或錯,故假如我們無法確認對錯,一個叫鄉愿的方法是那就都可以,因為現在也是。
蔡政宏:
如果有人會挑戰兄妹案例,我會去幫他辯護沒有道德上的錯誤,講出去會受譴責,但這是在人類社會下會影響。
林建中:
照你的目標,我們希望AI做出最精準的道德判斷,即便是少數說。為何需要這樣?
蔡政宏:
可以分層次,一個是簡單的AI道德者,是不要傷害人類,至於本身是否為agent不重要,只是與人類社會互動時不要妨礙的人類的well-being,這是一個層次人工道德,還是當作物。另一個層次是希望到高點,如剛剛提及的醫療機器人,特別是到高的等級,他們預估是可以完全自主化,這個情況下的AI道德判斷,如果能比人更好當然更好,但目前做不到。初步方向問題如何教給他道德,我現在提的是教給AI時,不管是由上而下或由下而上會遇到的困難,我認為工程師要更細緻、小心。如果要說到更長遠的,較樂觀主義者甚至認為會有super intelligence,現在是人造AI,之後會推出AI製造出AI,最後會有super AI的出現,如果是這樣,當然就超越人的智能。回到目的性,有些人正在做出機器道德,但有些時候沒有意識到背後相關的人文社會議題,我們是提醒不要太樂觀,如果AI是要模仿人類道德,人類的道德如何證成,道德判斷如何形成。這部分,我看的AI的書都未談及,他們都十分樂觀。另外是提到多數人,人數最多的就是中國,那他們所形成的道德判斷,我們要接受嗎?可能不是。所以透過案例庫的結果,我們應該要接受嗎?搜集這些資料庫應做很多資料的反省,這些資料到底要為何種用途?
劉靜怡:
你提出的這些挑戰,我認為也都是有道理的挑戰。世明老師在建立、應用資料庫的過程中,假設是bug,整個計畫中是否有debug,似乎沒有提到這部分,我想整個計畫中應該有debug的機制,我認為這些就是bug。
蔡政宏:
我是針對現在哲學界有一套實驗哲學的做法,實驗哲學這二十年來挑戰過去哲學的做法。以前我們分析知識的做法,實驗哲學是搜集很多大學生、路人怎麼看到知識的概念,我對於整個方法不能理解。專家形成的直覺與一般人形成的直覺不同,在談知識時會意識到,對於某些特徵的敏感性會特別強調,但一般測試學生知道與否,他所使用的「知道」,我知道某人,他也會當作知道。但我們在討論「知道」時會區分是命題知識、事件知識或對象知識等。一般人不會意識到這個問題,也不知道這三類知識的目標為何,去搜集學生、一般人對於知識的概念到底能幫助我們對知識的理解有多少進展,我十分懷疑。有些哲學家反對,提出某些想法。可以看到大部分人的看法,但我認能不能這麼快就基於這些資料做出道德原則。
吳全峰:
假設資料庫成型,最後會形成標準、統一道德嗎?
劉靜怡:
現在好像是期待這樣。
吳全峰:
假設有道德大師就完全以該道德大師為主,所有東西都回歸到資料庫的檔案,到最後會變成世界上所有AI遵循單一的道德準則。
蔡政宏:
道德判斷會有比率問題,如果要用80%的道德判斷要如何說服20%的人,這些人可能會抗議,為何少數人就是代表錯的。
吳全峰:
如何去解這樣的問題?
蔡政宏:
這我就不是很了解。
李建良:
這有個方法論弔詭性,這些問題不會是從AI存在才發生的,在AI之前人類已經持續幾千年,為何在AI出現後,突然要為AI處理這些問題。
蔡政宏:
人造物有很多,但是AI是最特別的人造物,特別是將來會具有自主性,有自主性就毋庸透過人,可以直接與人互動。故較擔心的具有自主性的物的互動,他的body可能比我們優越,我們要如何互動。我認為我們對AI犯錯的容忍性低,對人反而較高。
吳建昌:
所以我才假設如果他是道德大師訓練出的AI,是不是不太會反對,其實人本來也做不到,所以這假設是不成立的。人可以做大量不同意見的表達我們都可以容忍,但是AI好像一定要有道德大師的程度,我們才會放心,我剛剛所問的問題是要呈現這一點。
蔡政宏:
我們是否要對AI容忍度高一點?
劉靜怡:
是否人創造AI是因為自己太不完美,所以希望創造出比我們完美的agent,更有效率做整個決策,犯更少的錯,所以才會有希望AI變成道德大師的期待。
蔡政宏:
如果超級智能(super intelligence)是可能的,他們預估是他會是邪惡的,人類所能做的,可能是發展較完美的AI,這是較玄想式的,這是可能的理由。
【續上報告】

肆、AI機器人「道德推理」:人工智慧
一、價值問題&福祉職學
有個學者提出,在談到人類道德時,常常想的道德法則等,其實人類在做道德判斷時,會有更廣的背景,關心的是如何過更好的生活。在這部分會討論為何要做道德行為,有的是工具理由,即做這件好事會幫助達到其他目的。有的是非工具理由,認為做好事不是為了其他目的,單純做好事是人性。有人將之整理出,上面是不同對於美好人生的哲學立場,一個是享樂主義,我們活在世上是為了取得pleasure。有人認為使得生命更滿足,有人認為是所謂美好人生就是所有慾望被滿足。另外一個是較亞里斯多德式的想法,身為人人性被滿足就是一個美好人生。故關於美好人生這裡有好幾種看法,針對這美好人生,如果詢問為何要做有道德的事,美好人生可能與道德不同。我們可以看到社會上有許多人可以過著美好人生,但是他們不見得有道德。在此如果針對採取不同價值觀的人為何,享樂主義者會認為因為他能引起你的愉悅就可以做道德的事情,所以要不要做道德的事情是條件式的。有的人會認為如果能引起生命、慾望滿足就可以做道德的事情,有人認為如果是你的天性就可以做道德的事情。
這裡要談的是,道德問題現在給AI道德推理,事實上如果要的是理想化的AI或是最終希望AI有人類道德的話,應需視人類思考道德問題時通常會想到生命或人生。在電影「機器公敵」中,有位警探就在批評該機器人,警探有次與小女孩搭車,整部車衝向海中,有個機器人看到變去營救掉到海中的警探與小孩,該機器人看到警探和小孩開始估算活的機率,警探的存活機率有45%,小孩是11%,故機器人救了警探。警探對這件事十分耿耿於懷,整部戲就是他對於機器人所包持的各種懷疑。在這提到機器人所做的就是邏輯選擇,只視某個人的存活率為何,戲中警探就提到,他認為該機器人是沒有心的。我用較具象化的方式描述,我們在考慮道德判斷時,也許人類考慮的是更廣泛的,故將人工道德擴張談到well-being,我們就可以來討論人工智慧。有幾篇文章在討論框架,有可能將well-being的概念,不只是單純說道德法則。
問題與討論(敬稱省略)
吳全峰:
所以到最後Well-being最後是對人類的而言的well-being,還是最後必須是對AI的well-being?
蔡政宏:
這又是另一個問題,當然對人而言。但我們要詢問的事,一個人類智者在談論Well-being時,有個特點是,不只考慮到他的Well-being,甚至他的Well-being是將他人的Well-being放在自己的Well-being中考量,這是智者與非智者非常不同之處。如果要設計出此Artificial的Well-being時,不會如此單純只考慮到AI機器人本身的Well-being,他會將人類的Well-being納入考量。
吳全峰:
現在設計是為將AI的Well-being考慮進,而是單純考慮人類的Well-being。
蔡政宏:
故這是較人類中間主義,較不道德的做法。
李建良:
機器人如果講東西損壞可否罵他?是人類Well-being還是Artificial Well-being?
蔡政宏:
這個問題最後還是想到人類,如果習慣性的對有人性的對象做出這樣的行為,對於做這件事的人,培養出不好習慣。
李建良:
這個理論與動物保護有一派理論類似,為何需保護動物,因為殘害動物人性會變殘忍。另一派是動物為本位的考量,會有這樣的論辯。
林建中:
物的長期存在也取得說理性?
蔡政宏:
現在又引導到一個重要但又有點複雜的議題,即有無可能有Artificial life?我們對於「life」又有不同界定,這可能會牽涉到Artificial consciousness的問題。
【續上報告】
(一)Hedonism:享樂主義
第一套理論為享樂主義,享樂主義認為pleasure構成Well-being,哈佛大學哲學家透過設計經驗機器,因為家庭美好的經驗與是否為家庭美滿為兩件事,可以有家庭美滿的主觀經驗,但事實上可能家庭不美滿。一個是事實客觀層面,一個是經驗。如果針對這個說法,他設計了一個經驗機器的實驗,這個實驗很多會用到駭客任務的版本,牛津大學有出書針對駭客任務這三部電影引起廣泛的哲學問題,他們將問題具象化、更生動,其中一個在談論經驗機器。如果在母體世界中,他認為自己有頭髮也與人類在一起,事實上只是在培養皿中,培養皿中許多電線刺激大腦,現在我們所看到的光線與物體等,不過是接收反射最後在神經系統產生作用。透過這樣的原理講述,事實上可能沒有手、腳,但刺激相關部位你會認為自己有手、有腳。在經驗機器中可以灌輸、設計,可以先想好自己想要怎樣的人生,就又進到經驗機器中,就可以有這樣的人生。他透過此詢問,是否願意按啟動鈕?很多人不願意,這表示經驗可能不是我們在Well-being的唯一考量,經驗與愉悅可能很重要,但非唯一考量。這套理論的缺點是將兩個混淆了,事實上他想要敘述的是慾望,我可以有美好家庭的經驗,跟我有個美好家庭的慾望,這兩者不同。慾望滿足是事實上滿足,不只是有經驗。
(二)Desire-satisfaction theories:慾望滿足理論
第二套理論為慾望滿足理論,何謂美好人生即慾望被滿足,慾望滿足構成你的Well-being。例如,某求在台積電工作,這時對比剛剛的理論,他只是想要有台積電的工作,作夢也可擁有此主觀經驗,但是慾望沒被滿足。必須事實上在台積電工作才有滿足慾望,故兩者為不同層次。但同樣也遇到一些問題,慾望滿足並沒有美好人生,例如吸毒。
(三)客觀表列理論
什麼是美好人生,先列出一張表,表上都是客觀上好的東西,這些獲得就可以使你獲得幸福。像是哲學家認為的幸福可能與一般人所認為的不同,如意思能力自由,有的會認為生命、知識、美感、經驗都是,不同的哲學家會有不同的客觀表列。但問題在於,有些情況下在客觀表列上,但這個人並不幸福。例如客觀表列上有生命,可以設想之前安樂死的主播傅達仁,他擁有生命,但是他認為生命並帶給他幸福,所以他尋求死亡解除痛苦,故生命是否為表列上的一個項目呢。有時有人認為幸福但不在表列上,例如亞里斯多德認為能沉思的人生是最幸福的,這是他的想法,有些人的確是如此,但表列上並未列出。可以思考,有人會將生兒育女放在表上,但有些人認為並非如此,OUP這本書論證生小孩是個不道德的事,裡面有些論證,當然也是十分爭議。到底表上應應放什麼東西,為何放上的東西就是好的這也必須被考量。綜上而言,背後還是有點依靠直覺,一般分成主觀主義與客觀主義。
主觀主義即何謂Well-being,完全由自己的主觀態度決定。有人認為主觀主義是不對的,因為個人所需求的並不一樣會使自己過得更好,這是一個反主觀主義直覺,當然也有許多案例。另一個是客觀主義,有些Well-being並非由態度滿足,特別是父母親會認為某些東西是對孩子好,不管孩子需要與否。反客觀主義者認為,小孩通常會認為你認為好的我並非也是同樣想法,對我而言與我的生命沒有任何關聯,這是反客觀主義的直覺。在反客觀主義及反主觀主義都有相關直覺支持者存在,如果要將人工智慧要把某套Well-being給AI學習,在這會有衝突。
伍、結論
建構AI道德不論是由上而下或由下而上都會遇到某些問題,最主要是由下而上是想要AI學什麼。如果要建構人工智慧同樣也會遇到某些直覺上的挑戰,是反客觀是對的還是反主觀是對的。
問題與討論(敬稱省略)
李建良:
剛剛提到機器人的三法則,Frank Pasquale新書發表,書中一開始就從三法則講起,他提出四法則,基本上是認為三法則太簡單,剛剛你有論證這些部分。
劉靜怡:
該四法則是因為於2017年還是2018年在Ohio州的法學院的會議上,那天的主要討論主講人是Jack Balkin,雖然是憲法學者,但是做很多法理學的研究。他使用機器人三法則,Frank Pasquale是他的學生,他們就找他當對談人,他的四法則是那天的對談稿。
李建良:
謝世民老師有個想法,希望教AI讀康德的作品。我最近在寫文章就有看康德的作品,康德最重要的思想是純粹理性批判,而我要談的是,基本上我是閱讀原文,後來發現英文與中文翻譯有很多錯誤,所以是否要讓AI學習德文版本,就會有基本性方法論的質疑。
吳建昌:
我的聯想是,在醫學上,如果已經有科技可以運用假設有疾病可以治療,那技術已經可以讓病患治療到比一般人好,有些人會認為為何不讓他再更好,為何一定要恢復到原本情況。所以如果真的要發展所謂道德的AI或是AI可以做道德判斷、推理,的確這樣的想法可能會再出現,即為何我們不將AI做的比一般人再更好,基於這樣的期待,可以理解因為我們認為做不到,所以會採取較懷疑的態度。我有種直覺是,會期待這種AI做出的東西會是沒有地域性、局限性,至少要有好到這種程度我們才會放心,惟事實上是做不到的。我們還期待會有reflection、reasoning,甚至有我們都無法找出的東西,最好AI都能偵測出。我們才會放心讓這樣的人造物,充斥在我們世界中,惟如果不是人造物,我們是人,人一直在犯錯,可是我們還可以容忍,而人造物是不能如同人般被容忍的,因為就算跟我們一樣還是不夠格生活、充斥在我們的世界中,扮演這樣的角色,必需好到何種程度。如果我們都無法預期能夠好到何種程度,也不知道應該期待AI要多好,我們還是小心為上,這是我今天的感受。
蔡政宏:
有些較樂觀的人會說的很美好,以細節上觀之,我認為還是有很多問題,有兩種可能的問題。一個是他是被新聞媒體等誘導,另一個是AI設計者真的不知,如我們在討論哲學或是道德問題,對於其中要注意的細節,並未強調。包括協助心理學的審查,較涉及道德討論,我們看那些實驗,其實都未討論何為道德,對於道德界定很簡單,小孩子有無將東西給別人叫道德,以此做了很多實驗,我都抱持的懷疑的心態。一部份是讓心理學、資訊科學不要做這些實驗,而是提點工作,若他們能做到注意到當然更好,我較接近您的看法,即這部分我還是有很多存疑,現在在說AI必須做到反事實的思考,在哲學中關於這些反事實,也是有很多討論,我不知道他們運用到何種地步,我認為還有很多層級。可以期待高等級,惟很多討論必須建立在經驗上有何,如果沒有,都是較想像式的看法。
吳建昌:
剛剛提到的人工法官,如果我們期待能夠放心將事情交給與有道德判斷能力的AI處理,想見還有很多事要做,我想法官權力更大,期待恐怕會更高。
林建中:
假如我今天想要生產具有高超道德能力的AI,以下有三個選項要訓練,不知道會建議哪一種選項。第一個是回到剛剛所講的,擁有最多的資料庫,盡可能的將資料庫分類,譬如這邊是中國、亞洲、美國的,盡可能搜集很多人的道德判斷,讓他能夠反映一般的判斷。第二個是給一群相對道德較好的人,挑選過的範例,如剛剛所述的道德大師,讓AI學習。第三個是我們不使AI與人學習,我們讓他自己運作模擬,有時我們其實不知道為何會得到這樣的道德判斷,譬如兄妹性行為可能想到的是某些原因,其實我很懷疑,以前人認為兄妹間不能發生性行為是因為基因問題嗎?還是有不同考慮在其中。我不知道道德的判斷從何而來,給他模擬案例讓他自己運作,計算可能的結果,幾個運作下來,看看能夠觀察到什麼。可能與人類學習模式較不同,或是相同的。
蔡政宏:
第三個讓AI自己運作,結果好壞如何決定?
林建中:
他自己判斷,因為我們也無從得知。如古代人近親通婚會認為是血統純正,後來才發現不太對勁,為何智能障礙的小孩比例較高,故是後來才發現的,但是很長一段時間被認為是道德正確的。我的理解是這樣,所以你的判斷是取決於將時間點切在哪裡嗎,假如切在18世紀,說不定那時還是覺得兄妹發生關係是正常的。所以我們只是用自己的能力侷限,他與人類學習,或是跟我們現在最好的狀態學習,或是最多數的狀態學習。第一組是多數,即最符合大眾狀態,是我們認為可被選擇的最好的結果。第二組是定邊界讓AI自己運作,讓AI告訴我們什麼是好的,因為如2、3世紀所選出的價值,可能與現在的價值不一樣,我們無法預估二、三個世紀後的基本權為何。故您認為哪一種是道德的追求方式。
蔡政宏:
第三種與機器公敵的情況很類似,後果之一就是AI為了保護人類,將人類全部關在家裡,因為他發現人類的黑暗面等,最好是不要讓人類出去,那部戲的結果是將大家關在家。人類當然會不贊成,但是裡面有個機器人名為Vicky,他的推導是很邏輯的,他認為放任人類互動,其實問題會越來月多,最後會導向人類滅亡,這是一種第三種情況可能的結果。
林建中:
那只是一個可能,說不定會找到讓人類更開心,對於地球、動物也更好的方式,幫我們重新創造出新的道德標準,應如何看待動物、植物、礦物。
蔡政宏:
當然有其他可能性,但要回到一個問題,什麼是道德?另一個問題是人類要道德做什麼?道德一個很簡單的講法是,我們最好的狀況是人類在一起生活,在一起生活時根據某些彼此可以預料或是接受的規範作為互動,以此獲得較好的Well-being,道德不過是這樣,不見得是道德會讓人更高超等,其實很單純是讓群體中的私人的Well-being彼此可以較高。在這樣的看法下,道德應回到人類自己做,因為機器沒有我們的身體、需求、慾望,不了解人類需求、慾望、價值觀為何。如果道德目的是讓大家Well-being更高,讓大家活得更好,我們將此權利、動機交給機器人,但機器人少了找出這些規範的要素,因為他沒有我們的慾望、需求、身體,這樣建構出的道德,即使人類作出反抗也無法理解,例如人類與父母、小孩間的關係與他人父母、小孩的關係都不一樣,這個AI如何理解,故讓他自己運作會有很大問題。第二個資料庫,當然較接受第二種具有好的資料庫的情況,專家,什麼叫做專家,其實要去學習的是掌握模範,在掌握很多規範後,之後類似情況可以做出認證該規範,可以於毋庸思慮的狀況作出反應。我可以同意找出所謂的道德大師等,將他們做出道德判斷的規範認證的方式做出來。問題是該規範如何界定,簡單的還可以,但通常我們面臨到的都是複雜情境,大部分都是討論道德兩難等較複雜的情況。故所謂道德大師,之所以是大師就是在專門處理困難的道德問題,故我們必須給與夠多的這種困難情況,才足以成為大師,而非只是有一個道德高度。難的是在道德抉擇做出所有人的Well-being都兼顧到,這時才會稱其為道德大師。故要如何界定,要給他很多的困難的情境,如同我們如何判斷一個劍擊高手,非僅擊中一次,而是一次兩次不斷至百次等,我們才會認定他為劍擊高手,道德大師也是。故到底有無這樣的道德大師,我抱持懷疑態度,如有當然很好。回到你的問題,如果是我選擇第二類較好,第三類我不放心,第一類的資料沒有消化、整理過。
林建中:
惟第一類就是目前國民法官所要採用的,我們希望相信專家又不相信專家,我認為機器的好處是與我們的運算速度不同,可以不受人類運算速度的限制,應可突破思考模式,故我自己是較傾向選擇第三個,因為第一個和第二個無非是重複人類的成就。
蔡政宏:
我不清楚剛剛所提及的國民法官,我的想法是一個法官要做決定時,他所依據的法條、生活經驗,但他面對事情的複雜度、不同的人,有時超出其生活經驗,所以那些所謂國民法官所提供的不同的生活經驗。
林建中:
同樣的論理也可以運用在剛剛的情況,因為道德大師可能只是某一限定的道德難題的大師,可是一般人所碰到的可能是簡單的,如是否要超車、按喇叭等。
蔡政宏:
我們對於道德難題的界定可能不一樣,超車為何是難題。
林建中:
譬如前面開的很差,或是在玩手機,基於禮貌我們可能不希望成為一個很激進的人。
何之行:
只是自己認為會不會影響到別人,但是對於被影響的人而言,其實如同剛剛提到的例子是完全不同。
蔡政宏:
我們討論的兩難,即Well-being的影響程度會很大,如同我們提到火車難題,Well-being如果可以都做一個物品的話,或是有很多慾望構成Well-being,有些慾望有中性地位,這個慾望不被滿足或是會受到影響,其他的慾望都會受到影響。例如想要存活,生活或生命這個慾望,會影響到其他的慾望,但可能不會影響到中心慾望。慾望之間具有某種結構,我們提到道德兩難,通常是涉及到那個人的Well-being,慾望或是某件事被影響,他的Well-being動盪會較大。故剛剛超車的問題,造成的道德難題對我而言較小。
林建中:
我在思考,第一組的對比是,我們應該從更多人還是更少人身上認定何謂智慧。譬如,很多人決定要吃什麼是看美食家的部落格,有的人是看google評論,會認為評論很多就相信,這只是個例子,我相信兩種方法都有在操作,有時相信專家,有時相信多數。故目標為道德上的精進的話,到底哪個系統會被推薦是我想問的問題,因為顯然現在假如要做資料庫,或是被訓練,應先找到訓練對象或方法。
蔡政宏:
我較站在道德問題放在Well-being角度觀之,Well-being我採取的是接近慾望滿足理論,但該理論我採取的是變形,稱為態度成功,但這部分有些複雜還在建構中。如果回到較單純版本就是慾望滿足理論,慾望滿足理論還會遇到很多問題,慾望滿足理論可以化解較多問題,也可以較多的尊重他人,如台灣社會中有很多爭議問題,如同性戀、墮胎問題這些常在應用倫理學會討論到的,某些人的價值觀涉及慾望,如以單一的客觀表列,會有一部分的人反對,即這些人所想要做的、價值判斷,會在客觀表列會被當作是不對的。如果現在是AI要做這件事,這個AI會變成很複雜的AI體系,他要去關照一個人幸福時,必須知道慾望有哪些,哪些是他的核心慾望,必須針對此人哪些慾望可滿足、哪些不行,才可以關照到這個人的慾望,慾望滿足的極大化就是幸福指數較高。如果AI要學習並進入人類社會,我認為應該要有這樣的複雜度,資料資訊處理系統應要更好,可以發展如何偵測到人的慾望,例如機械公敵中需要偵測到警察的慾望,即小孩的存活比他自己的存活更有價值,必須協助警察滿足他的慾望,惟想像中的想法。
何之行:
他所追求的不是確定的東西,而是希望有個空間可以同意。
蔡政宏:
只是這部分我還不清楚,他的偵測系統辨識人形,從人形的喜悅就是笑,但是人人的真實情感如何偵測,較不理解如何偵測的,也許可以從血壓脈搏等,只是技術上我不清楚。
李建良:
兩個問題,一個是法律人有何能耐認定道德為何?哲學界或是所謂的倫理學者,是否同樣有能力說何為對錯,還是只能提供一個理論框架?第二個是剛剛建中談到的第三個類型,讓AI自己發展,有個前提是他有能力發展,所謂變成有強AI的傾向,才有可能自己發展。因此,於此有個前提是,將來的AI是「一個」AI,還是「多個」AI。AI如果可以自己發展,理論上他們也會產生「多元價值」,我們好像一直假設AI只有以單數概念看這個問題,但AI有可能是複數,或是之間會產生衝突,以上問題,提供大家思考。