愛因斯坦與AI

◎ 李建良

所有的科學∕學術1,皆不過是日常思維的精純化。
Alle Wissenschaft ist nur eine Verfeinerung des Denkens des Alltags2.
The whole of science is nothing more than a refinement of every day thinking3.

Albert Einstein, 1936.

Albert Einstein(愛因斯坦)與AI有沒有關係?有什麼關係?

從一本書說起

有一本書,叫做「愛因斯坦夢想中的5堂AI幸福學」,副標題:「人不會被淘汰,未來的日子只會越來越好!」2018年6月出版。

這本書引起我的注意,不是《AI幸福學》(下同),而是為什麼是「愛因斯坦夢想中的…」?

這是一本中譯的日文書,出版於2017年,作者藤野貴教,一位工作情緒研究所的代表董事,非工程科技出身,專長是傳授「工作術」。日文書名原為:「2020年人工知能時代 僕たちの幸せな働き方」,利用google翻譯,意思大概是:「2020年人工智慧時代的快樂工作方式」4。為什麼被翻成「愛因斯坦夢想中的…」?

蔡翔安攝影

Einstein AI

為了解開疑問,逐字閱完全書,沒找到「愛因斯坦」的字眼(也許要重讀一遍)。

未解之謎,如鯁在喉,上網找找,跳出Einstein AI的諸多連結,舉其一二:

定睛一看,驀然進入眼簾的是Salesforce,靈光閃過,想到《AI幸福學》書中似乎提過這個字,再讀一回,第199頁寫道:

由於我們用Slack(公司內部使用的聊天工具)進行內部溝通,所以另外做了一套監測流量的系統。只要輸入Salesforce(編按:中文名稱為企業雲計算公司,是一間提供客製化顧客關係管理服務的網路公司)所記載的業績、行動量、溝通流量等資料,就能夠清楚看到結果。不需要每天觀察每個人的行動,只要快速掃一下畫面,就能明確看出成員在工作上的熱情程度。順帶一提,從資料也能看出特定成員討厭哪些人。

這段話是日本Leave a Nest公司董事長兼執行長丸幸弘接受《AI幸福學》一書作者(藤野貴教)訪問時,談及該公司「溝通流量」的回應。

快速進入thinknet,腦中浮現若干循環字串:Slack→social intranet→Salesforce→cloud computing→conversion funnel→marketing→e-commerce…。Salesforce是這類系統軟體業者之一,運用AI技術,結合預測分析(predictive analytics)與「軟體及服務」(Software-as-a-Service, SaaS) 方法,開發「客戶關係管理」(customer relationship management, CRM)系統,通過conversion funnel,提供使用者sales或marketing的預測或建議,Einstein AI為其中的一套。此處「愛因斯坦」只是一種商業行銷的名稱與手法,應該也可以替換其他科學家的名字。

職場社群與AI

面對一連串的e語言,思路暫停在intranet,內聯網或內部網路,流行於職場或校園,僱主與勞工,或老師與學生溝通的平台,在德國有Schwarzes Brett 4.0(告示板4.0)之稱5,不由動念,試想法律問題是否存乎其中?是,什麼?有哪些?就類型及領域言,或可先聚焦在social intranet。

intranet是一種「網內互打」的概念,常用的vpn這個字,意思是virtual private network(虛擬私人網路),觀念類似,用途更廣。放在職場的框架來觀察,social intranet可以說是一種「職場社群」的概念。向來,公司勞雇雙方或員工之間存在著多種溝通方式,除了因應不同目的而成立的電郵或internet群組外,在公司內部建立內聯網絡、開設各種討論區或聊天工具,促進內部溝通及信息共享,提高工作效率與產能,早已司空見慣,為企業組織內部常見的運行模式,由此延伸出一連串的法律問題,基本上可以歸納為兩大主軸:

  • 由誰設置?設置的目的為何?可以放哪些訊息?行為規範誰來設定?
  • 裡頭的資料是誰的?能否及如何利用?
Photo by Gem Fortune from Pexels

先說一則發生在公司網內互打官司的故事。2017年,一名Google公司的前軟體工程師James Damore,利用公司內部的email list發表了一篇長達10頁的memo,題為Google’s Ideological Echo Chamber,在公司內部廣為流傳,部分員工在twitter上提及,而後轉載於外部網站。文章中,Damore批評公司的性別多元政策,主張基於生理上的差異,男性比女性更能勝任科技領域或領導的工作,例如女性抗壓性較小與高智商族群比例上較男性少,可以解釋為何科技業與領導層男性比女性多,並宣稱他在職場上遭到「歧視」,是工作環境中感到疏遠與格格不入的保守分子。2017年8月,Damore被公司解僱,理由是:這篇「反多元」文章「宣揚工作職場上有害的性別刻板印象」,違反公司準則。

Damore隨之向美國全國勞資關係委員會(The National Labor Relations Board, NLRB)投訴;又結合另一名前工程師David Gudeman向Google提出集體訴訟(之後另有其他原告加入),指控公司違法歧視其保守的政治言論、男性、白人及高加索人等身分。

NLRB先作出裁決,認定系爭員工流傳的備忘錄中兼含受保護與不受保護的言論,而雇主僅以未受保護的言論作為解僱該名員工的理由,故未違反全國勞動關係法(The National Labor Relations Act)第8條第a項第1款保障勞工集體權的規定6。相對於此,法院則於2019年10月6日受理本件集體訴訟,全案進入discovery程序7

Google接獲訴狀後,除應訴外,於2018年6月向所有員工發出新的「社群指引」(community guidelines),大意是:在內部溝通與信息共享時,謹記Google Values;盡己所能,確保公司的安全、產能,並維繫相互包容的環境;避免出現讓人無地自容的討論;人身攻擊(ad hominem),絕不縱容;言必慮其作用力,凡走過必留下足跡,慎言其餘,莫引怨言,違者必究8

2019年8月,Google再次發布新的「社群指引」,明揭公司信念,臚列5點規範,較前之指引嚴密,特別是工作時間禁言政治或分裂社群的聊天。另引人注目的是第5點:妥善處理「我們的資料」(our data);謹記在心,「我們的通訊」(our communications)可能快速外傳,切勿違反公司的「資安政策」、不法接近、揭露或散布「非必要不得知悉」(Need-to-Know)或機密的資訊9

職場社群的行為規範,涵蓋資料安全管理,從公司的角度來說,理所當然。但以「我們的」(our)作為資料或通訊的所有格,令人不禁思考:在intranet上面的發言或PO文諸如此類的資料,到底是誰的?公司與員工共有,還是專屬於員工全體,抑或為個人分別所有?

就算雇主可以片面訂定職場社群的行為規範,勞雇雙方的權利義務關係,也不是雇主一方說了就算!

這是一項簡單不過的勞動法原則,卻知易行難。除了勞動基準法等法律定有勞動條件最低標準及勞工權益保障基礎規定外,勞資雙方往往透過一定的機制,如團體協約或勞資會議等,議定雙方的權利義務關係。如果我們把intranet、community guideline、our data與勞資關係串連起來,可以設想出兩種問題情境:

  • 勞資會議代表能夠在公司的intranet上進行意見溝通(串連),或是發表不利於公司的勞動抗爭言論嗎?
  • 勞工可以利用雇主設置的intranet,發動罷工嗎?

以上二問,不是理論虛擬,而是爭訟實境,至少在德國不乏法院裁判可稽。後一問題,德國聯邦勞動法院持否定見解10,立場較為明確,理由略以:雇主提供勞工使用的電子郵件帳號若僅供職場工作之用,則當勞工透過intranet將工會發起罷工的訊息傳給其他勞工時,即屬對雇主財產權之侵害。因為該勞工並非用於勞動利益之職場目的,而是追求其個人之集體性目標。反之,intranet在勞資爭議上的運用面向,法律實務與學說看法分殊11,仍是開放性的問題,細節暫且不談,容後繼續追索。

思維一路走來,回首起點:Einstein AI是Salesforce(一家企業雲計算公司)推出的一項產品,提供客製化顧客關係管理的數位服務。實在話說,不一定要名為「愛因斯坦」,可以是任何一位科學家或更炫酷的名字。且不問商業品牌的命名是否經過AI的演算(search engine optimization, SEO,另一個流行語),是因為愛因斯坦在消費者的心目中代表智慧的象徵,還是另有別樣的人味!?

李建良繪、蔡翔安後製

真人機器與AI

如果再一次把Einstein與AI當關鍵字丟到Google搜尋引擎裡,不難跳出像Professor Einstein Is a Fun, Wacky Robot That Loves to Talk About Science12的字串。這是幾年前一家專門製造機器人的公司推出的一項產品:人形學習機器。Einstein不是假借,而是按照他的形象打造,一具約37公分高的機器人,除了應答科學數理問題外,臉部表情栩栩如生,眼神可以和人對視,當然還少不了招牌的吐舌頭動作。

透過AI軟體控制機器人的臉部表情與對話能力的表情機器人,或更精確的說,人格化機器人或智慧(非)人,當然不會只有愛因斯坦一尊,研發技術一日千里,擬人化細膩的程度,直逼真人,「用途」也隨之無限可能。想像一下,我們的手機變成一個小小人,住在我們的口袋裡或坐在書桌邊,與我們對話或為我們傳話!

AI機器人是凝聚人類願望的一種媒介,可以任何形式表現。人類或可自問:如果AI可以作為感情交流的對象或療癒內心的憑藉,目的是要認識久違的真實自我,啟動交際的能量按鈕,打開全新的心靈空間?還是拉開與人的距離,營造無human touch的一方世界,為獨居生活預作準備?

AI機器人與法秩序

法律人很難不被觸動法意識,比如說民法問題:AI機器人「所有權」誰屬?此涉及民法第814條「加工」規定的解釋,尤其但書「因加工所增之價值顯逾材料之價值者,其加工物之所有權屬於加工人」,如何適用於軟體的設計及操作者?也就是設計、安裝使用AI軟體者,是否符合民法加工規定,從而以加工人身分取得所有權?需要考量的問題,包括:加工後的硬體(機器人)是否有更高的等級;例如機器人活動的品質是否因此有所提升?加工後的硬體經濟上價值是否顯著提升?硬體的物質外觀上,是否仍得被認為同一物?從硬體的功能或名稱來看,是否因為加工而有所改變?以上環繞在「新物」認定的檢驗要件,值得反覆思考、驗之實務13

機器AI與人的尊嚴

AI與法秩序的根本課題是:AI機器人與人性尊嚴有沒有/有什麼關係?思維取向之犖犖大者,軸心或在於:人之為人的自主性與價值是否淪喪於無形?略綴數問,自我省思,若至曲委,另文述縷:

  • 過於依賴機器人是否讓人類逐漸喪失自主性?行動決定出自人的意念,或是依照機器的指示?人的判斷力是否降低?人在役使機器,還是機器在伺弄人?
  • 「得來速」的知識是否讓人略過求知(困思)的階段,降低經由「嘗試錯誤」過程獲取解決問題及思考的能力,失去在探索知識過程中「自己肯定自己」的機會?
  • 如果人(不只是兒童)會沈溺在電玩、手機、平版、筆電而不克自拔,使用AI機器人是否也可能成癮,導致中樞神經系統功能失調?標示警語,如「過度使用機器人有害健康」,應否是機器人製造者的商品責任之一?
  • 有社會,就有法;反面推之,法源於社會,同時表示人是群居動物,社會性也是人的本性之一。人的價值一部分來自與團體之間的互動關係及社會聯帶。過度依賴機器人(機器動物)是否切斷、異化或扭曲溝通的文化與關連?
  • AI機器人(例如照護機器人),節省人力,提升醫療短缺,解決長期照顧制度的人力短缺問題,但是純然的「非人」完善照顧(以成就「完人」?),是否造就出無人性的「人機關係」14?而失去了相濡以沫的自然溫度,是否讓人進入某種dystopia,或者這才是utopia15?1991年9月14日在日本上映的科幻喜劇類型動畫電影《老人Z》,以人口老齡化的老人問題為主題,30年後,值得再看。
Photo by Jens Johnsson on Unsplash

反向圖靈測試

1950年,圖靈(Alan Turing)設計了一項判別性別的「模仿遊戲」,由提問者C寫好問題,分向不同房間的A男與B女提出,再根據(打字)書面回答的內容,辨認答題者的性別。圖靈把A替換成機器,讓提問者透過「鍵盤聊天」,對不同房間的人與機器提問,再從對話中判別何者為真人或機器。如果提問者誤以為機器是真人,就可由此證明「機器會思考」16。多年來,圖靈設計的「遊戲」不斷被測試。

相對於設法讓機器騙過人類的測試,反向思維是人類如何判別出「這是真人」?不會誤以為自己在跟「其實是機器的真人」對話?當我們收到一封email的時候,如何知道這不是機器發出來的?在Google Assistant、Amazon Alexa或Apple Siri等smart assistants大量被運用的今天17,我們是否能夠或有權知道我們的「對話者」,是人還是機器?

人格的全數位化

1983年12年15日,德國聯邦憲法法院作出著名的「全國普查案」判決,宣告全國普查法有關個資利用與處理的規定違憲。該判決從人性尊嚴及人格權保障規定推導出「資訊自決權」,影響深遠。2005年9月28日公布的司法院釋字第603號解釋(全民捺指紋案),「其中就個人自主控制個人資料之資訊隱私權而言,乃保障人民決定是否揭露其個人資料、及在何種範圍內、於何時、以何種方式、向何人揭露之決定權,並保障人民對其個人資料之使用有知悉與控制權及資料記載錯誤之更正權」,究極奧義,其來有自18

重讀判決理由,其中一段針對「人性尊嚴防線」的闡述,值得翫味:

如果政府蒐集所得的資料,可以和行政機關所得資料(包括敏感資料)串連,或者透過一定的個人特徵或其他電腦資料符碼(Ordnungsmerkmal),足以建構起一種資料串接,則人性尊嚴的不可侵犯性可能為之動搖。特別是透過個人生活資料與個人資料的串連,如果足以讓個人的人格形象被鉅細靡遺地紀錄及類目化(eine umfassende Registrierung und Katalogisierung der Persönlichkeit),就算是匿名化的統計資料,也是憲法所不許。此種資料串連的手法,也就是全面數位複製化,讓人民的圖像可以透過數據資料而被捕捉、現形,縱然只是「部分截圖」,也可能因侵犯人性尊嚴而違憲19

個人資料的全記錄與類目化,意味了人格的描繪或重製,以及個人私領域的全面追蹤、掌握與監控。AI機器人利用descriptor方式蒐集、紀錄「主人」的種種feature,逐細建檔,將來只消透過descriptor,「主人」的「圖像」就一覽無遺、無所遁形,好嗎?

Photo by h heyerlein on Unsplash

私秘的況味

告訴你一個秘密,你絕對不要告訴別人!

錢不是萬能,但錢不會說謊,窮就是窮!

隱私權觀念的啟蒙,Samuel Warren和Louis Brandeis於1890年的經典之作,源於Warren家庭私人宴會的細節被媒體揭露,正值yellow journalism成為美國新聞潮流的當口。所謂的「秘密」(私密),有時候是茶餘飯後的重要談資。21世紀出現的wardrobe malfunction一語,指涉的當然不是新世紀才有的新現象。這類資訊先天上帶有「不吐不快」的內在驅動、「高點閱率」的商業利益,還有可能傳世的新聞或文學價值。以「私人秘書」或「私人醫師」為名的回憶錄或秘辛,屢見不鮮。法國前總統密特朗死後不久,其私人醫師與報社記者共同於1996年出版的Le Grand Secret,以及10年後,其紅粉密友於2016年出版的Lettres à Anne、Journal pour Anne兩本書,都是大家熟知的例子。前一揭露密特朗病情的「大秘密」,曾經引發「醫療秘密」與「出版自由」的法律戰,爭訟至歐洲人權法院,著有判決20

個人生活資料被全盤掌控、進一步的商業化、成為變現的談資…。數位化時代,人們的親密伴侶如果是AI,面臨問題的嚴重程度是否會更有甚之?

國家保護義務:新/舊瓶 v. 舊/新酒

人離自主思考越遠,與物化的距離,就越來越近!

Max Weber在「學術作為志業」21的演講中提到「除魅」的意義,在於擺脫神召天啟,但不單是製造時代常識,而是組織有系統、可驗證的知識體系22;同時提醒世人,除魅後的神祇不會就此善罷甘休,仍會不斷地從墳墓中崛起,以非人的形象出現,主導人類的生存23

AI與人性尊嚴的當代法課題,除了公權力有了AI附身之後,可能正在為被除魅的幽靈鋪墊借屍還魂的軌道或平台外,更需要面對的是掌握資訊力量、同樣足以凌駕人類的global player(全球玩家)24

理論上,沒有人可以被強迫使用AI;基本上,AI的人權課題奠基在人的選擇自由!暫且假設國家與玩家不會聯手出擊(!?),機器智慧化時代的人性尊嚴保障課題,主要不是排除來自公權力的侵犯,而是國家必須負起保護人性尊嚴免於受到私人(玩家)侵犯的義務。

人性尊嚴與AI的思維框架——國家的保護義務,1980年代後期出廠的新瓶,處理似新實舊的人權議題,比如墮胎除罪化或核電廠應否停建等爭議。轉眼間,新瓶已成舊罐,儘管AI的科技不斷躍進,人權難題依舊如新。因為人權辯證無法簡化為公式教條,需要的是無窮綿延的反覆思辨25。如果可以把國家保護義務的思維體系架構比喻成一座玻璃溫室,則多一分理路播種與論證深耕,少一點像「中度」審查之類的修飾語,有朝一日,或許會綻放出錦簇的花團。

求解的意義

繞了一圈,愛因斯坦與AI到底有沒有/有什麼關係?

除了確知把《AI幸福學》這本書透過google翻譯不會出現「愛因斯坦」字眼外,還是個充滿無限想像空間的謎題,可以無盡無窮地追索下去。只不過,有時候不妨停下腳步暫借問,求解的意義到底是什麼?問題本身或恐比答案還重要!

我們在追問「為什麼」的過程中,習慣於causation的邏輯思考或correlation的聯翩隨想;思想訴諸文字時,往往講究collocation的寫作技藝。思路或伸向因果深處,或通往認知核心,不管哪一邊都要慎防落入cum hoc ergo propter hoc的謬誤陷阱。

「人類受限於有限的生命,在有限的時間裡完成一生,而有限的存在只有透過永恆的存在,亦即上帝的存在,才找得到理由。…因此,哲學需要神學,但本身卻不需要成為神學。26」時間,是人類的敵人,也是朋友。文字、書寫、創作、藝術、文明之所由生,皆拜生命有限之賜。靠視覺捕捉真實,用攝影凝固時間,抓住永恆的瞬間,也是人打敗時間的一種方式27

李建良繪、蔡翔安攝影

1951年3月14日,過72歲生日的愛因斯坦,在攝影記者百般糾纏、疲憊無奈之下吐了舌頭,外於科學智慧的無心之舉,造就了傳世的經典表情,折射出一身專屬的赤子之心。

1933年,納粹掌權,迫害猶太人,愛因斯坦憤然拋棄德國國籍,輾轉落腳於美國,獲聘為普林斯頓高等研究院教授。1936年,他提交一份成為美國公民的意願書,同年在一篇名為「物理與現實」的論文開篇提及:「所有的科學∕學術,皆不過是日常思維的精純化。」這句話後來被Hanson公司拿來當作行銷Professor Einstein的廣告詞28。其實,愛因斯坦想要說的只是,物理學家的批判性洞察力,不能侷限在其專業領域概念的鑽研上,而要對無數闕疑的日常思維,進行嚴格的辨析。

AI是否會比人類有智慧?需要時間證明,這涉及了「知識論」(如何可能?)與「價值論」(那又如何?)的雙重交錯課題,由此也讓AI研究成為一種思維方法、一門研究人類自己的學問。Artificial的字源是ars,兼含工藝與藝術兩重意涵,如何區別,由來久矣;成就極致之美,則不(單)是偶然的邂逅,而是不斷累積之始然,兩者並無二致。

定位,由視角決定。AI作為法學研究的對象,同樣也可以成為反思法學的元素。法學是一門窮究法理與正義之學,是否被自然科學界承認為一門科學,端視法律人的自我定位,需要找對視角,看見自己。法諺ius est ars boni et aequi,法被奉為一種ars;近代法學方法論鼻祖Savingny也說:法律解釋是一門Kunst/art29,只是法學中有價值的發現或理論,不是爛漫地乞靈於巧遇而可得。

面對浩瀚的法學典籍,身在無垠的政治現實,抱持法治理想的法律人只有一種模糊的期待,很大可能會落空,但仍需要日復一日,往深處發掘。相比於經由精密測算的自然科學專業知識,從事法學研究更需要勇氣和想像力,以及對法治理想的執著。

Einstein AI或Professor Einstein會想這些問題?或寫這樣的文章?或知道本文寫作的動機嗎?如果有一天,AI比人類還要聰明,應該可以告訴人類,人的意義是什麼!


延伸閱讀