跳出「人類中心主義」的另類人工智慧省思

◎曹家榮(世新大學社發所、社心系合聘助理教授)

People worry that computers will get too smart and take over the world, but the real problem is that they’re too stupid and they’ve already taken over the world.

Pedro Domingos, 2015

這篇文章的標題本身是一個矛盾,畢竟回到1956年的達特茅斯會議上,在John MacCarthy、Marvin Minsky、Claude Shannon、Nathaniel Rochester等奠基人工智慧研究起點的科學家看來,他們想像的人工智慧便是要能夠模擬人的智能運作,或是白話文地說:像人一樣地思考。因此,「人工智慧」原本就是「人類中心的」。然而弔詭的是,人工智慧的發展卻漸漸突顯出人類中心主義的問題。

一方面,在歷經超過半世紀的發展後,真正稱得上能「像人一樣思考」的「強人工智慧」(或稱通用人工智慧)還遙不可及;但另一方面,越來越多不同於人卻又同樣影響重大的人工智慧「行動」,已然遍佈、深入我們的日常生活之中,讓人或許得開始思考,是否該跳出人類中心主義,從更複雜、異質的角度去考量人工智慧的發展及其行動後果。

Pedro Domingos在2015年出版的The Master Algorithm一書中1,寫下前述的那段引文,正是本文闡述的起點:也許,在擔憂通用人工智慧的宰制之前,我們——特別是人文社會學者——更該小心關注那些「不那麼聰明」卻已然決定著我們的生活、甚至部分人之生命的弱人工智慧(或稱應用型人工智慧)。

弱人工智慧通常僅被看作是人的「工具」,因為它無法自行設置目標,然而,至今已有無數案例顯示,這一「工具」本身早已脫離了人的「控制」。例如,Google在2015年推出了以卷積神經網絡為基礎的相簿自動標籤系統,它可以依據照片中的物體辨識自動地分類照片。但一位使用者卻發現,他與他的朋友(兩位非裔美國人)的照片竟被分類為「大猩猩」(gorillas)。這顯然踩到種族歧視紅線的行為,恐怕是Google始料未及的「非意圖後果」。

更嚴重的案例則可以在另一科技巨頭Amazon引發的爭議中看到。Amazon在2014年開始嘗試以人工智慧來篩選履歷,透過將應徵者分級,人力資源部門可以有效地進行徵募人才的工作。然而,根據報導指出,Amazon在2015年發現這個人工智慧系統有問題,在篩選過程中會產出帶有性別歧視的結果——女性較不容易獲得高分。這個案例中,人工智慧的「行動」——作為第一階段的「面試官」——直接地影響了某一群人的生活機會。

Photo by Greg Rakozy on Unsplash

因此,即便是「弱」人工智慧,也從來不只是「工具」。Luciano Floridi便曾於The Forth Revolution: How the Infosphere is Reshaping Human Reality一書中指出2,在過去數十年發展人工智慧的過程中,真正驚人的改變並不是「強」人工智慧的出現——還差得遠——而是我們的環境已逐漸順應著「弱」人工智慧的運作而改變。以某種可以呼應Domingos的方式,Floridi說,這就好像是為了其實沒有變得更有「智慧」(intelligent)的「聰明科技」(smart technologies),打造了更舒適的互動環境。

例如,在前述Amazon的「履歷篩選歧視」案例中,問題出在:為了讓人工智慧可以「聰明地」幫忙篩選人才,環境被調整成順應著它的樣態。也就是說,關於一個申請者的能力與特質皆被化約為履歷文件,甚至這些履歷文件還會經過進一步的格式轉換,變成可機讀的資料呈現給人工智慧系統。如此一來,在訓練的過程中,人工智慧也就更容易受有限資料既有的性別偏向影響,產出具歧視性的行動結果。

Floridi的觀點具有更深一層的啟發性,亦即:或許考量一個科技物的行動,不該將其「獨立」來看。用Floridi的話來說,其實科技物的運作經常是透過改造環境,將其變成包覆起來(enveloping)的小世界(micro-environment),以利科技物的行動。例如,Floridi即認為,若未來某天Amazon真的實現無人機送貨的目標,可能不會是因為「強」人工智慧到來,而是無人機行動的環境已然被改造成順應其有限能力的樣態。

換言之,如果我們跳出人類中心主義3、甚至不再將人工智慧看作是「獨立的」科技物,這其實也就是從一種「關係性」的角度,把人工智慧的「行動」看作是「一群」或「一連串」行動的一部分。也就是說,Floridi所謂「包覆起來的小世界」,也就可以被理解為:人與其他非人的科技物、物質都順應著某種態勢,成為「一群行動」的一部分。那麼,我們或許可以在這樣不同的視野中,更清楚看見「弱」人工智慧的真正影響「強」度。

將人工智慧的行動看作是「一群」行動的一部分,這意味著人工智慧的運作不再單純是「執行指令」。「執行指令」是一種單向的操作與影響:「人」作為操控者施加作用力改變「工具」(人工智慧)的狀態,例如,當我將照片上傳至Google相簿,並執行自動分類,Google的圖像辨識人工智慧便開始運作。相反地,當人工智慧被看作為「一群」行動的部分,則是意味著人工智慧與其他「行動者」——包括我們這些「人」——就像是共同被「組裝」(assembled)在一起,彼此相互影響。

也就是說,如果先稍微簡化地只看「群」之中人與人工智慧的關係,這意味的是「人」的生活與行動在其中也同樣受到影響與改變。這裡指的不只是因為某個人工智慧產出的決策而造成的影響——例如,在人工智慧的判讀下導致撞車事故。而是當人工智慧成為與「人」相連結在一起的某個行動群體後,「人」本身也不可避免地受到影響與改變。且這一改變經常是我們「人」難以察覺的,因為當一個行動群體組裝成形後——或者用Floridi的說法,當我們被包裹進一個小世界中——某種理所當然的預期將導引著人們的所思所行。

哲學家Jane Bennett在倡議所謂新物質主義(new materialism)的觀點時4,曾經以一個頗有意味的譬喻來說明這種相互影響:「一群」行動的相互影響,就好像是丟進池塘裡的小石頭,小石頭本身引發的漣漪可能是「人」的行動,但在池塘中其他物質帶來的波動、擾流也不斷地影響著漣漪的流變。此外,Bennett也曾借用中華文化傳統的概念「勢」(shi)來形容「一群」行動的聚集樣態。所謂的「勢」乃是由各類事物以某種特定配置所形成的傾向,在聚集所茁生的「勢」之中,個別的行動者、事物也都會受到影響與改變。

不管是漣漪還是「勢」的隱喻,這類新物質主義的概念其實都是在凸顯所有「物」之間的相互連結,以及總是在影響與被影響著(affect and be affected)。舉例來說,澳洲社會學家Deborah Lupton過去在Data Selves一書中即曾指出5,各種穿戴式裝置的應用程式(APP)猶如有行動能力的物質客體,與人類使用者共同行動,並改變了「人」想像「自我」的方式。換言之,當我們與智慧手環上的人工智慧系統「組裝」在一起後,其影響不僅是產出的決策後果——例如,判斷你是否「健康」——更在於我們開始變得「像它一樣」地思考,例如,開始覺得跑步時心率若未達多少數值,便是自己運動量不足。這個轉變意味著:我們對於自身的運動感受,已被轉譯為某種可計量的數值。在其中,並不是「我」在解讀資料的客觀再現,而是「我們」這個組裝整體——人類使用者、穿戴式裝置感測器、人工智慧運算系統、物質化資料等等——正共同理解著我們自身。

Photo by NeONBRAND on Unsplash

此外,對於現今的鍵盤世代來說,社群平台的生活也經歷了類似的轉變。例如,在Taina Bucher的If…Then: Algorithmic Power and Politics一書中6,便提到了「程式化的社交性」(programmed sociality)與「可計算的友誼」(computable friendships)這兩個概念。這兩個概念背後指向的都是社群平台演算法對於人們社交生活產生的影響。像是「臉書上的朋友」這樣的關係,經常是建立在平台演算法之上的——「我們是透過臉書『推薦』加的好友」、「我們只是偶爾會互相按對方讚的朋友」、之類的關係如今越來越多。而以本文的觀點來看,這意味著:隨著我們與社群平台組裝起一種理所當然的「世界」後,「朋友」的意義也不知不覺間有了新的定義。

回到本文的標題,這是一個矛盾的起點:嘗試以跳出「人類中心」的視野,反思起源於「人類中心」渴望的人工智慧。但本文相信,在循著人類中心主義探索如何打造「像人一樣」思考的機器之外,我們今天另一個同樣重要的任務是:跳出人類中心主義,批判地檢視:我們如何逐漸被包覆進與「不那麼聰明」的人工智慧的組裝整體中?在這一組裝的整體態勢中,「人」自身又經歷了什麼樣的影響與轉變?進而才有可能往前推想,若人工智慧的發展勢不可免,那什麼樣的形式才是最合宜的共生樣態?