簡評山本龍彥「機器人・AI會奪走人性尊嚴嗎?」一文

◎ 趙若漢(中央研究院法律學研究所)

*本文經授權轉載自中研院法律所資訊法中心,2019/02/20發佈
*本研究感謝中央研究院「結合人工智慧與影像醫學:全方位疾病診斷與治療策略的研究與推廣計畫」及「中央研究院法律學研究所資訊法中心」支持

摘要

日本憲法第13條的個人尊重原則,宜解釋為一種由四個層次組成的複階層原則。具體內容為:(一)將個人作為人類尊重。(二)將個人視作人格上之存在來平等尊重。(三)將個人視作人格上自律之存在來尊重。(四)將個人作為自律主體所為之自我決定・選擇的結果予以尊重。

山本龍彥教授一文主要關注的重點有二,首先是群體區劃(segment,原義為區段、部分,本處指涉「男人」、「中年」、「愛貓人士」這種指涉某一群體的屬性或標籤)對個人的影響。按現今AI進行各項預測的原理,係透過巨量資料分析後所得到的群體區劃,做出機率性的評價(小編註:例如「愛貓人士有87%是M」這樣的判定)。然而,這種做法可能有以下問題:首先是AI在判讀資料後得出錯誤結論,例如只讀到了表面上的關聯性;或是受到原始資料自始偏差的影響,像是過少代表的情況,以及既存偏見存在。其次是若我們嘗試透過加入更多屬性資料去減少AI之結論錯誤,則當AI將各群體區劃切得愈細,甚至到了包含無意識舉動時,理論上確實將能更接近真實個人人格。然而除了為得到更多原始資料所產生的隱私疑慮外,更根本的問題在於,此時作為屬性基礎的資料,有許多是個人意志無法改變、修正的,這將導致個人將無法藉由改變自身行為模式以修正來自他者的評價,個人自律性在此受到嚴重破壞。

文章另一重點,是關於個人AI運用本身對當事人自律性的影響:其一是AI的黑箱特性,使具有演算法不喜的特質的特定人,無法以自律主體身分,藉由改變自身行為來選擇自己想要的人生;其二是,AI產品事實上多由組織、企業製成,則可能出現為了他人(製造商)利益,而去誘導本人做出決定的做法;其三,則是所謂的向機器複製人的同一趨近。俄亥俄州州立大學研究指出,藉由剖繪(profiling)產生的個別化廣告,對個人的自我意識會產生再製效應,個人會將廣告所提供的內容認為是自己真實的興趣、欲望。則若此時AI隱藏了他利目的,個人為他人利益作出決定的頻率將會上升,結果就是過著一種頗為他律的人生。更嚴重的是,如前所述AI的評價不過是基於群體一般傾向所為之機率預測,則「個人」將有可能受到群體的一般傾向逆流建構,其選擇成為可控制的而喪失自律性。

為了處理本文提到的各種問題,山本教授的建議是,應該透過建構讓隱私權能實質行使的制度環境,使AI自始無法拿到完整的個人資料供其學習發展,進一步使AI不具全知全能性的表象得以維持。如此,人們將不會完全對AI的決定囫圇吞棗,仍有保持自律性的可能。畢竟除非進行修憲或是憲法革命,否則無論如何,在當前日本憲法下,尊重個人的價值觀是應優先於AI發展被保障的,且此一涉及憲法基本價值的事務,不能僅讓少數權力者恣意妄為。

Photo by Brian McGowan on Unsplash

評論

山本教授對AI的顧慮,最核心的點應可化約為「人類對全知AI的過度信任」。基本上,不論是群體屬性或是個人的AI運用,會產生巨大影響的重要理由,在於人們毫不遲疑地就接受了AI的判斷結果,而不會再去實際確認個人的真實情況。以效率的觀點來看,在資訊量爆炸的時代,如此作法理所當然,然而在此被犧牲的就是個人的主體性、自律性。那麼,此時最根本的疑問是,效率與個人的主體性、自律性間究竟應如何取捨?訴諸現行規定是一種解答方式,然而某種程度上可以說仍是迴避了問題,按現行規範本身不過是過去某一時點相對多數意志的展現,除非人類的形象以及價值觀未來永劫都被鎖定,否則答案必定會隨多數意志轉向而轉向,欠缺一致性。從人類過往歷史來看,強調自律主體性的個人主義自由觀不過是近兩、三百年方才興起,而即使到了21世紀的現在也未受到70億人類的絕對支持,換言之,「否定現行尊重個人規範轉而對全知AI宣誓效忠」的選項,並不會因現行規範內容如何即被排除於候補之外。故正如山本教授所言,「修憲乃至於制憲」,在AI未來的發展上,是不能且不應迴避的議題。

而有關山本教授在未有憲法變革前提出的暫時性解決方案,即所謂的隱私權有效行使制度,小編以為可能不是一個有意義的做法。按現行AI訓練多本於巨量資料使用,AI判斷係基於群體屬性機率做出預測,則除非絕大多數資料當事人都有主張隱私權,否則只要須排除的資料沒有過多,少數個人資料的缺乏,對整體結果並不會有影響,其他自願者(特別是與退出者親近或類似者)的資料即足以拼湊填補(舉例而言,澳洲My Health Record保障了當事人的opt-out權利,其退出率約10%──而這不影響澳洲政府持續砸錢推行此計畫)。又,當事人未主張隱私的原因,除了制度設計本身可能確實有問題外,尚包含「無知」、「無關心」、「自願」等情形,除了對自身權益不知的情形或可透過教育宣導改善外,後兩者並非能透過任何制度修正來改變,而是須要當事人根本上的思想轉換。    

總而言之,個人的自主、自律可能性與當前AI發展存在二律背反的緊張關係,而此非既有的制度方法(例如隱私權)能有效處理。為解決此一問題,若非發明新的手段,就是必須在價值觀上為典範轉移。不論何者,都是須要人類社會全體認真思考、選擇的道路,因此小編非常贊同山本教授的結論,認為人們絕不能讓少數技術者、資本家或權力者即能任意決定AI發展未來的走向,畢竟再怎麼說,不論在日本或是我國,這都是自由、自主、自律、自尊的「民主」國家國民應有的權利以及義務。


資料來源

山本龍彦(2018),ロボット・AIは人間の尊厳を奪うか?,弥永真生・宍戸常寿編,ロボット・AIと法,頁79-101,東京:有斐閣。

延伸閱讀

My Health Record https://www.myhealthrecord.gov.au/