人工智慧何以「人本」?赫拉利與李飛飛的AI對談

◎ 蘇揚傑(國立臺灣師範大學英語系研究所碩士)

從上個世紀末的《銀翼殺手》、《駭客任務》到近期的《機械公敵》,人類一直在無數文學與影視作品中試圖想像,當人工智慧(Artificial Intelligence, AI)科技強大到足以威脅我們的存在,我們該如何應對?尤其是在當今,AI已經被廣泛運用在各大生活領域如交通運輸、財務金融、醫療科技中,我們應該如何在AI科技進展之際,率先將風險納入考量以避免危險發生?

2019 年 4 月 22 日在史丹佛大學的這場對談就圍繞著AI的潛在「危機」展開。

對談由美國科技雜誌 WIRED 主編 Nicholas Thompson 主持,主講的兩位嘉賓分別為赫拉利Yuval Noah Harari),《人類簡史》《未來簡史》暢銷作家、耶路撒冷希伯來大學歷史系教授;李飛飛Fei-Fei Li),史丹佛大學電腦科學系教授,兼任史丹佛 HAI(Human-Centered AI Institute,「人本」人工智慧研究院)共同主持人。對談主題為:即將來臨的 AI 變革(the coming AI upheaval)

Image by PublicDomainPictures from Pixabay

AI危機

整場對談由赫拉利談及AI科技的隱憂拉開序幕。赫拉利從歷史與哲學思辨的角度出發,指出當今的人工智慧科技發展挑戰了人類對於「何以為人」的定義:科技能透過收集數據、邏輯運算、資料分析來解決問題、得到最佳結果。換句話說,科技已經能比人腦做出更好的決策,甚至比人類自己更瞭解自己;大數據能準確地知道我們想買什麼、想做什麼工作、甚至想和誰約會、和誰結婚。於是,從十七、十八世紀以來一直被奉為圭臬的人類獨有的特質─「我們之所以是人而不是機器是因為我們有自主意識,能自己為自己做決定」的先驗假設,也就是人類獨有的能動性(agency)與自由意志(free will),受到前所未有的衝擊。

更令人擔心的是,當人工智能與生物科技結合時恐怕會帶來更令人擔憂的後果。由於生物科技研究包含人類的生理結構如大腦與神經,赫拉利擔心,當AI介入,科技便得以「駭入」人類的大腦,進而影響甚至操控我們的決策。換言之,人工智慧將得以深入人類的意識層面。當這樣強大的科技出現,不難保證不會有不肖人士為了私利將人工智慧科技做為己用,比如廣告商用以販賣商品,或政府用以監控人民。也就是在這樣的脈絡之下,赫拉利進一步指出,在人工智慧科技發展下,人類社會的發展越來越走向兩個「反烏托邦」。

兩個反烏托邦

所謂的「反烏托邦」(dystopia)指得是一種對未來社會的想像,將未來社會勾勒成一種與理想社會(烏托邦)相反、環境惡劣且令人恐懼不安的型態。反烏托邦有很多形式,常見的例子包含極權政府或生態浩劫等等。

赫拉利大膽預言,隨著人工智慧的發展,人類文明慢慢地走向兩個反烏托邦並存的未來。

Photo by Etienne Girardet on Unsplash

第一個反烏托邦,是赫拉利所謂的受監控資本主義surveillance capitalism)宰制的國度。在自由資本市場的框架下,人工智慧的壯大意味著人類的一切決定都被演算法決定。如同前述,一切的決定,小至購物、工作,大至婚姻、投票都被交付演算法決定。

第二個反烏托邦,即是當極權政府運用人工智慧科技達到極端的監控,如生物識別技術對個人每分每秒的監控,將產生難以想像的後果。的確,全球目前已經有些大城市如上海與倫敦等發展人臉辨識技術的趨勢。如赫拉利所言,從歷史來看,倘若監控科技被上個世紀的獨裁者如希特勒或史達林所運用,將會對人類文明造成難以估計的傷害。

「人本」人工智慧

面對赫拉利的不安,李飛飛也同意人工智慧的確帶來非常多隱憂,包含機器取代人類意志、強化偏見、侵害隱私等等。但對於人工智慧和生物科技結合,而得以駭進人類大腦的說法,李飛飛認為我們有幾點不能忽視:首先,人工智慧的誕生就是從機器演算法與生物學,確切而言是腦神經學的對話開始的。換言之,人工智慧的原形孕育自機器學習與模擬大腦的神經網絡,而這兩個領域打從一開始就密不可分。

其次,事情是一體兩面的:如果我們要談AI的風險,我們同時也必須考慮其對人類社會的益處。人工智慧和生物醫療的結合目前在應用層面上已經帶給人類莫大福祉,比如醫療健康體系方面,已經在診斷治療上造福無數病患。更別說我們生活中各個其他同樣重要的層面如交通運輸、產業發展、財務金融等等都相當程度得益於人工智慧。所以我們並不能因為赫拉利的擔憂就忽視其對人類生活的種種貢獻。

再者,李飛飛認為,正因人工智慧具備這些隱憂,所以我們更不能停止對它的研究。事實上,學界已經投入許多資源在研究如何避免這些風險。其中一項成果即在於積極地進行科學/工程學界與人文學界的跨領域對話。舉例來說,史丹佛大學的「人本」人工智慧研究院便投入兩百名教職員,在電腦科學領域引進人文社會甚至自然學科(如哲學、政治學、法學、歷史學、經濟學、心理學等)的課程與討論,致力於培育下一代的工程師與科學家強化科技與倫理的意識。如此一來,便能在科技開發初期就予以關注,讓人工智慧維持在正確的軌道上行駛,進而向人類的福祉方向上持續前進而不脫軌。

然而,李飛飛的回應似乎仍沒辦法幫助我們回應這些爭議最根本的問題:

我們是不是有什麼特質是機器、電腦、演算法無可取代的?

人何以為人? 人何以為本?

對談至此,李飛飛簡短而鋒利地回應道:「愛情」。

一時之間全場觀眾似乎難以想像,如此浪漫而抽象的一個概念竟來自一個電腦科學界的巨擘口中。而這也帶我們進入整場對談中最令人難忘的核心命題之一:

愛情可以被演算法取代嗎?

Photo by Alexander Sinn on Unsplash

愛情,不過是一場流感?

面對李飛飛的回應,赫拉利主張,AI科技模擬甚至「駭入」愛情的可能性其實不低。從生物學的角度來看,愛情伴隨的是一連串的體內與腦內的的生物化學反應與荷爾蒙變化,進而牽動情緒、感覺、動作,所以我們常用「臉紅心跳」等生理表徵來描述愛情。

如果電腦與演算法能逐步逐條蒐集、分析並重組這些反應數據,那麼為什麼不可能影響與操控我們的愛情?這樣看來,所謂的 「愛情」跟一場流感有什麼區別?對AI科技來說,兩者都是生物體內一系列數據呈現出來的反射與表徵。

事實上,影視作品曾數次探討人類之間的愛情是否能被人工智慧取代。筆者主張,其中最為人知的莫過於史派克.瓊斯(Spike Jonze)在2013年執導的電影《雲端情人》(Her)。電影講述在近未來的洛衫磯,主角西奧多.托姆利(Theodore Twombly)與一套全新研發的愛情人工智慧軟體所發展而出的親密關係。這套人工智慧軟體收集、分析西奧多的言行舉止,再進一步模擬呈現他心中的完美情人,並且逐步自我修正進化。很快西奧多就發現自己與這套智慧軟體之間發展出一種曖昧關係,甚至愛上了軟體中的「她」。 電影在人工智慧對人類愛情與意識上的探討,與赫拉利的擔憂不謀而合。

對此,李飛飛主張兩點回應:首先,赫拉利的想像中,人工智慧科技已經強大到超越現在的規模數十甚至數百倍。它不僅能預測和判斷我們的日常生活行為,還能預測到人類的愛和意識這個層次。然而,現實中,AI仍是新興科技,而像電影中這種規模的科技離我們這個時代還非常遙遠。依李飛飛看來,雖然不是不可能,但還需要數十甚至百年才能實現。

第二,李飛飛認為赫拉利的想像顯示,未來只有人工智慧這種科技獨大,強大到凌駕於一切。事實上,不論何時都有很多種其他科技和AI同時發展,相互制衡,有的科技應用甚至比AI還要強大。因此這種AI技術在社會中獨大的想像是幾乎不可能發生的。

Photo by Mat Brown from Pexels

AI一家獨大

由此看來,AI是否會對人類造成威脅的關鍵因素之一是:AI是否為少數極具權勢者掌握而進一步惡用或濫用?

赫拉利認為,這就跟目前AI在全球發展的趨勢息息相關。當今,AI科技的發展仍是取決於少數富裕國家,尤其是中、美兩國占了主導優勢。赫拉利認為,由歷史來看,在 AI 的發展中,國與國間競爭的意味可能會越來越濃。如果AI演變成一場全球武裝競爭 (arm race),那反而使得其增進人類共益的初衷消蝕殆盡。

這樣的環境或許有讀者覺得並不陌生。的確,AI的競爭很難讓人不回頭去看二十世紀中的核武競爭。然而赫拉利認為,兩者的差異在於,AI的競爭將比核競爭更令人擔憂,因為,雖然核武大家都在競爭發展,但研發出來只不過是成果展現,沒有國家會任意使用;但是AI已經在生活各個層面非常普及,一發展出來就馬上會被使用。如此一來, AI發展落後的國家會在這種競爭裡愈趨焦慮且益發弱勢,因為只要強勢國家不斷競爭,壯大AI科技,只服務於自身利益,那弱勢國家將會陷入更嚴重的科技不公平競爭。再者,當今有些國家的州或城市在經濟規模上其實已經遠超過世界上多數國家,舉例來說,加州已經是世界第五大經濟體,一旦加州的AI技術遠超於甚至取代那些弱勢國家的技術與產業,那麼不難想像會為其經濟體系帶來多大的危機。

對於AI的發展趨勢,李飛飛回應道:如今的AI科學在全球範圍內的合作和交流已經非常頻繁,比方說,光是在史丹佛大學,每年的全球合作產生的論文數量就不勝枚舉,更別提非常興盛的如GitHub 這種全球的開源服務社區。然而,確實很多人工智慧科技的資源與技術為少數大公司所寡占或獨佔,但仍有例外,譬如學術界已與很多獨立研究機構在 AI 研究領域裡都扮演著重要且獨立的角色,比如史丹佛大學的「人本」人工智慧研究院。所以,赫拉利所說的這種情況,在全球交流和合作如此頻繁的當下,不太會發生。至於那些目前在這個領域發展上相對落後的國家,因為正如李飛飛所言,AI技術並不可能在短時間內達到如此強大的階段,因此這些國家還是有很多機會和時間去思考、制定因應的法律、指導準則與研發戰略。畢竟,科技創新和社會規範是可以一同進步的。

Image by Alexas_Fotos from Pixabay

對談至此,赫拉利和李飛飛的立場看似截然不同,而似乎達不到具體的結論。

然而他們意外地卻在幾個重點上達到共識:AI的發展確實迫切,但是對於AI的管理和民主課責也同等重要。而這取決於人工智慧領域與其他學門之間的對話,如何能將人文思想帶入電腦科學, 如此便能在研發初期階段開發建立以「以人為本」的人工智慧。至於具體的實行方式,赫拉利與李飛飛則分別給了以下這些建議。

可解釋AI與搭檔AI

李飛飛首先勉勵聽眾,史丹佛大學在人工智慧發展史上一直都佔有一席之地。從史丹佛畢業的學生將在各行各業進行實作甚至扮演領袖,而我們現在開始發展以人文本的人工智慧,成立「人本」人工智慧研究院,就是學習並認識 AI 最好的時機與位置。

李飛飛也提出一個AI人本研究的核心面向:「可解釋AI(explainable AI)」。人們會對人工智慧產生以上種種憂慮主要是因為其高度複雜性;現在的AI科技運行非常複雜且不透明,連專業的研究人員都不一定演算法是如何收集資訊、運作並得出結果的,這使得AI的觸及性(accessibility)普遍不足,人們自然會對背後的風險會產生不安。要解決這個問題,就必須致力於可解釋AI的技術發展,也就是AI的「可解釋性」。根據李飛飛,具體的實踐方法有探究對數據庫依賴更少的機器學習方法,而嘗試直接從人類經驗、學習方式中得到啟發。更重要的是,「可解釋 AI」技術將來也能被廣泛運用在其他領域如生物、醫學、法律、金融等,去解釋其他領域的結構與運作,讓資訊變的更透明,從而達到更佳的課責性。

另一方面,赫拉利給在場觀眾的建議,則是要試著深入內在、認識自己:他強調當代西方文化過於放大「自由意志」的價值,但所謂自由意志取決於個體對於自身持續性的內在對話與內在辯證,而非自栩無所不知,以為掌握任何一切外在世界的知識就無所不能。人類唯有比人工智慧更加認識自我,才不會受制於演算法。也就是說,只要AI不如我們自己了解自己,AI替我們做決策甚至影響我們意識的風險就會小很多。同時,赫拉利也給正在致力於AI研究的學者專家們一個建議,他希望在未來有機會能發展出「AI搭檔計畫」(sidekick project)。所謂「搭檔計畫」指的是,人類有權購買人工智慧搭檔,而AI搭檔的功能在於服務與保護使用者。也就是說,正如我們可以購買電腦的防毒軟體以阻擋病毒,赫拉利希望未來我們也能購買為自己服務的AI科技以保護自己的數據與資料不被任意收集利用。如此一來便能制衡AI備有權者掌握的可能,這是赫拉利所謂的「AI去中心化」(decentralized AI):將AI從權力的中心解放,成為個人的產品並互相牽制。

photo credit: stereotyp-0815 next round via photopin (license)

結語

李飛飛在這場對談的開頭就為這場科學家與哲學家之間的對談開了一個精準無比的玩笑:「科學家們真的很忙,我羨慕哲學家們,他們可以只拋出問題,花幾千年來反覆討論卻不用給出答案,而我們科學家們卻要馬上回答。」不過,這場對談正也可以做為AI科技領域與人文哲學領域跨域對話的典範。即使兩個學門各自的研究關懷有很大的差異,但我們還是能發現他們蘊含共同的底蘊:以追求人類共同的福利為依歸。為此,AI科學家們在專業技術之外,跨足其他領域的道德倫理、政治經濟等各層面的對話與思辯,正不斷地持續著。

即便當今即便在眾多學者與科學家的努力之下,短時間內仍然無法預知並得到一個能有效管理甚至弭平AI潛在風險的答案,但可以肯定的是,隨著人們對AI風險、AI 自我監督和AI可解釋性種種議題意識的提升,AI不僅能被研發得越來越安全,更是真得慢慢朝向「以人為本」的方向前進。

何謂「以人為本」?或許「以人為本」指的就是人類自始至終總會對潛在的危險具備意識、適時修正、甚至適時踩煞車,而非如同電腦機器一樣直直向著利益最大化而前進吧。


資料來源

Yuval Noah Harari in Conversation with Fei-Fei Li, Moderated by Nicholas Thompson. https://www.youtube.com/watch?v=b9TfkgH0Xzw (Stanford, Apr. 18, 2019)