評論「即將來臨的 AI 變革:李飛飛與 Harari 對談」

◎ 高紹芳/臺大社會所碩士生、臺大電機系畢業(輔修社會學及心理學)

本場對談在 2019 年 4 月 22 日舉辦於史丹佛大學(Stanford),由美國科技雜誌 WIRED 主編 Nicholas Thompson 主持。對談的兩位嘉賓赫拉利(Yuval Noah Harari)是暢銷作家,耶路撒冷希伯來大學歷史系教授,李飛飛(Fei-Fei Li)則為史丹佛大學電腦科學系教授,兼任 Stanford HAI(Human-Centered AI Institute,「以人為本」人工智慧研究院)共同主持人。對談主題為 AI 發展史上的老生常談:即將來臨的 AI 變革(the coming AI upheaval)。

活動頁:Yuval Noah Harari in Conversation with Fei-Fei Li http://shc.stanford.edu/events/yuval-noah-harari-conversation-fei-fei-li

對談主要可以分成三個部分:首先,釐清人類現在的處境,再進到人類社會當前就必須被解決的問題,最後給觀眾一些建議以作結。

Photo by Su San Lee on Unsplash

AI引發的人類危機

主持人先引導 Harari 說明人工智慧所帶來的危險。Harari 認為現在的科技發展已經導致十七、十八世紀時建立的諸如能動性、自由意志等哲學框架受到前所未有的衝擊,而愈來愈多原先是哲學論辯核心的議題逐漸轉為工程師專注的目標。但這是危險的,因為工程學更習慣以公式和數字來界定現象,並且認為設定好算式後,經過計算就能解決問題。而這樣的信念遇到生物科技時更令人擔憂:一旦人工智慧得以「駭進」人類的大腦(hack human brains),演算法便能夠掌握、預測甚至控制人類的意念,於是傳統哲學以為基礎的框架就瓦解了,因為人的感受、包含選舉人投下的選票、消費者做的選擇,都不再可信。那人們還能相信什麼呢?是否有什麼生而為人,不可被演算法取代的特徵或價值?這樣強力的工具是不是會被獨裁者等少數人所利用呢?

因此,儘管Harari同意人工智慧不可能有比人類強大的一天,他認為我們應該降低標準,當人工智慧比一般人更認識自己時,被操縱的危險已然發生,而這些資料可能被分享給商業公司、廣告商、政府等機構,但當事人卻不知情也不曉得被蒐集資料內容和分析結果。監控資本主義(surveillance capitalism)讓一個完全監控的社會因為演算法不斷變得更為強大,而成為可能。要杜絕這樣風險的做法,其中之一便是明確化資料的所有權並進行管制。和計算能量以及生物知識相比,資料已經是相對容易管制的項目了。

李飛飛回應道,AI 的確帶來非常多隱憂,包含機器取代工作、強化偏見、侵害隱私、法律變遷,這當然都是一體兩面的,因為 AI 也對我們的生活帶來了很大的進步,無論在健康福祉、交通運輸、社群媒體等面向。對於 Harari 針對電腦科學與生物學(尤其是神經生物學)間的對話,李飛飛表示,人工智慧的開端便是人們發現可以透過學習人類大腦中神經元的運作模式來設計演算法,而目前我們對於人腦的了解都還相當有限,人工智慧能夠做到的事情還遠遠不及人類,遑論產生自主意識進而取代人類呢?

面對AI危機的態度與策略

李飛飛認為,人工智慧和其他基礎的科學例如物理學相比,還是個非常新興的學科,儘管 Harari 提出的這些疑慮都非常真實,因此她同意在此時開啟跨領域的對話是非常重要的:Stanford Human-Centered AI Institute 透過在大學階段就在電腦科學領域引進人文社會甚至自然學科(如哲學、政治學、法學、歷史學、經濟學、心理學等)的討論,有助於培育下一代的工程師與科學家意識到 AI 帶來的社會影響,並在演算法設計、資料蒐集的階段就予以關注,讓 AI 在為人類的福祉的方向上持續發展。

透過發展可解釋的 AI、可信賴的 AI,讓人工智慧所進行的決策和其過程可以被公開檢視、理解並驗證,李飛飛認為,儘管許多問題學界目前都還沒有答案,但透過跨領域、在不同平台、不同場域的專家與公民社會的對談,我們可以合作進而找到解方。除非我們假定 AI 已經強大到可以預測所有具體事務了,況且人類社會過去面對強大的科技武器,也發展出應對的方式才存活到今天。透過開放與交流,包含但不限於學術界的,人們為私利的意圖也更難被偷渡到演算法中。

然而 Harari 認為科學的進步並無法有效弭平不同國家間的人權標準和貧富落差,歷史上對於透過資本主義、重商主義、帝國主義的侵略屢見不鮮。雖然透過國際間的合作可能是目前阻止跨國掠奪進而發生「資料殖民」唯一的方案,冷戰的發生與終結僅是一連串偶然的歷史事件所致,許多環節都可能開啟第三次世界大戰,毀滅人類文明。而 AI 卻是比核子武器更具毀滅性、也更難以透過跨國合作進行約束,因為無法具體辨別該技術是否正在被使用,從而無法被有效禁止,從而形成一場無止盡的軍備競賽。知識本身的共享更無法有效促進進用(accessibility),因為就算人工智慧的發展讓人們有天可以明白為什麼銀行決定貸款給某個人,那些複雜的權重與計算也只會讓普羅大眾聞之色變。與此同時,那些計算結果對於效率與平等的權衡也是一大倫理議題。

給Stanford學生的建議

Harari 給在場觀眾最後的建議,則是要試著去「認識自己」:相較於過往人們被帝王君主、雇主、乃至於文化奴役,如今人們必須和人工智慧競爭,要比人工智慧更加認識自己,才能不在受制於演算法的當代社會中避免苦難。李飛飛則勉勵在座的學生,Stanford 在人工智慧發展史上一直都佔有一席之地,從 Stanford 畢業的學生將在各行各業進行實作甚至扮演領袖,而我們現在開始發展以人為本的人工智慧,當下就是學習並認識 AI 最好的時機與位置。

筆者評論

從 Harari 及李飛飛分別身為對於人類未來處境以及 AI 發展潛力具備相當認識的學者專家來看,此一對談試圖建立的對話平台是令人失望的

作爲一個臺灣人,李飛飛在擔任 Google 首席科學家其間穿梭於中美之間,將中國的人工智慧發展推進到新的階段。儘管透過技術佐以中共政權透過社會信用系統對於人民加強監控是待驗證的指控,然而李飛飛在中國的合作對象如清華大學等,多數有中共軍方背景。然而面對 Google 是否應與美國國防部合作的爭議,李飛飛卻大力參與反對的連署,表示對於 AI 武器化的憂心。這是否是一種對於國家政治意識形態的缺乏認識,所致的雙重標準?

在對談過程中,李飛飛多次以空泛的言詞回應 Harari 直接的質疑,諸如,「我覺得這個問題很好,所以現在電腦科學家開始與不同學科對話,正是一個開始討論的好時機。」藉此迴避其自身對於非電腦科學專業的無知。筆者認為,從電腦科學甚至工程的角度,有許多針對 AI 威脅論的指控是可以根據對技術極限的所知正面回應的——因為許多擔憂,於現在的技術而言根本不可行。該場論壇的可惜之處正在於未能聚焦人類當前所面臨到的挑戰。

延續此期待,筆者肯認人文社會學科其實早已根據過往的歷史發展軌跡,作出了對於人類未來可能面臨到的危機的預測與推斷。Harari 作為歷史學家,提出諸多從哲學、社會學乃至於政治學觀點都具相當啟發性的提問,尤其精闢的是從中世紀戰爭與資本主義進化的過往,質疑 AI 未來將被作為一種武器所帶來的危險。

Photo by Alina Grubnyak on Unsplash

莫拉維克悖論(Moravec’s paradox)或可作為此場對談的前提甚至引言:電腦科學家發現,對機器來說很簡單的事,往往對人類來說很難,且反之亦然。在 AI 發展史上,此一發現很快地阻礙了 AI 研究者最初希望以電腦來模擬人類思考的企圖。然而 Harari 並沒有試圖理解目前 AI 技術發展的現況、侷限與挑戰,使得雙方討論懸在空泛的 AI 威脅論上,環繞於許多不切實際的擔憂間。舉例而言,Harari 甚至連 AI 的發展正是透過模擬生物學、心理學等神經科學等為策略都不知曉,才會說出「AI 工程師開始跟生物學家對話可能會駭進我們的心靈」這樣的危言聳聽。

在一個半小時內的對談中,儘管 AI 的發展進程難以被精準預測,討論卻多數圍繞在現在尚不存在的問題上,由此可見,跨領域協作因著學科之間的鴻溝,並不如想像中容易(詳見作者另文)。固然在倫理學上,當機器人可以自我複製、自己長出新的機器人,甚至機器人可以統治人類社會的時候,人類該怎麼辦;在規範上,法律應該如何因應這樣的變化做出調整,這些都是必要的討論。

然而更實務且迫切的前提問題是,我們對於跨領域合作的期待是不是過高了?當這場人文與 AI 專家之間的對談都未能著地,讓雙方觀點有效交鋒時,筆者認為,要讓對話成為可能,具備多種學科的背景知識,至少對於自己所不熟悉卻須對話的領域具備該學科史的基本認識,應是必要的條件。