AI預測的兩難:規範性爭議初探

◎洪子偉(中央研究院歐美所副研究員)

*本文節錄並改寫自《歐美研究》「淺論 AI 風險預測的規範性爭議」第三節

[1] [Public domain], via Wikimedia Commons

1865年清帝國同治維新,英國商人在北京永寧門外初建鐵路,詎料「京師人詫所未聞,劾為妖物,舉國若狂,幾致大變」,最後步軍統領衙門只好把鐵路拆了。回顧歷史,確保社會大眾的安全感並消除疑慮,反而才能促進新科技的推廣與發展。

人工智慧(AI)亦不例外。AI預測技術,是指人造自主適應系統在特定任務中,根據所輸入的資料而輸出或修正有關未來可能結果。譬如在極端氣候的災防或瀕危生物的復育中,透過分析過去巨量資料以預知未來風險,是深具潛力的應用。然而,當風險預測的對象從「自然環境」變成「人類本身」,卻引發不少批評聲浪。不論是以色列將此技術用於反恐、中國用於壓迫異議人士與維穩,濫用的隱憂隨之浮現。

AI預測的兩難在於:一方面,其技術價值取決於預測精準度,準度越高所需的資料量要越大。但另方面,所需蒐集的資料量越龐大,就越可能對民眾的權利造成侵害(如隱私、匿名商業行為、政治言論自由),從而減損AI之社會價值。那麼,我們是否該允許此技術?是否有辦法在善用此技術的同時,保障民眾的基本權利?

一、必然性條件 vs. 事實性條件

Image by Pre-Crime Press Kit from Pre-Crime

常見反對使用 AI 預測技術的理由,可歸納為「必然性條件」與「事實性條件」兩項。必然性條件指出,AI預測多採用貝氏推論,根據過去數據來預測未來行為。但是貝氏推論僅能輸出可能性而非必然性。以「辨識個別嫌犯的預測警務」(Person-based predictive policing)為例,即便有99%的機率,仍可能抓錯人。甚至永遠無法證實究竟是否抓對人。因為一旦被抓,嫌疑人就不會有機會去實現「被預測會犯的罪」。然而,必然性條件也受到質疑,因為雖然在科學或知識論上「必然真」很重要,但在社會實務層面「可能性」更不容忽視。譬如司法上之DNA親子鑑定,不論是民事離婚訴訟或刑事拐賣兒童,所根據的鑑定報告也只有可能性(如準確度80-99%)而非必然性,故為何不行?可能的答覆是:因為有無親屬關係屬已發生之事實,但AI所預測者卻尚未發生。這種說法,就與接下來要談的「事實性條件」有關。

所謂事實性條件是指, AI之預測結果並非已發生之事實,而是未發生(或尚未發生),人不應因為沒有發生的行為負責。畢竟如果未發生,就沒有這樣的行為,沒有這樣的行為又如何把行為的責任歸咎於他呢?這種說法乍聽之下很合理。但仔細想想,在日常生活中其實有很多違反「事實性條件」卻行之有年的法律或社會規範。例如,美國銀行的credit rating system,也是根據過去資料來預測未來還款能力,從而決定個人之信用額度。為何這些可以但AI預測就不行?或更具體講,為何美國銀行的個人信用評等可以,而中國的「社會信用系統」卻備受質疑?是否雙重標準?

支持「事實性條件」的人可能會辯護說,這些反例與AI的情形有兩個不同:一是前者有經過知情同意的契約過程、二是前者的銀行是利害關係人(銀行須承擔呆帳風險),屬民法中的損害賠償的潛在被害人。相反的,中國政府與人民是否有此契約關係,或是中國政府在何種意義下是潛在被害人,均有爭議。然而,上述辯護並無法釋疑。畢竟在民主國家法律中,人常常會為了尚未發生但可能發生的行為負責。例如刑法上不是只有酒駕肇事才有罪,酒駕本身就有罪了(公共危險)。同樣的,千面人在飲料下毒,不論有無受害者誤食都有罪。這如何一致地辯護?畢竟「預防」的概念就是在事情方生前採取行動介入,「事實性」條件似乎忽略這一點。

支持「事實性條件」者可能會回覆:當涉公共利益或危險重大時,可在事實發生前採取行動。當風險愈大,應越嚴格。此外,行為者的意圖也很重要。如有犯意即便未遂也應究責(酒駕罔顧人命、千面人預期恐慌)。當然,兩者刑度有別。然而,這樣的回覆仍有問題。一方面,如以公共福祉作為AI預測之條件,(即便不考慮執行面是否被濫用)能否一致性地應用?例如若某人自殺不具公共性則不應阻止,但自殺炸彈客則應被阻止。然如果已知道某人極可能自殺卻不介入,難道沒有道德責任?如果要介入,且宣稱個人生死具公共福祉,又是否擴大解釋公共利益的界定,而允許更多濫用(如維穩)?另一方面,如以行為意圖為標準,意圖難以認定(一個被AI預測為高風險的人可能完全無犯罪意圖)。在執行上也有其困難。

由上可知,如果我們以「必然性」或「事實性」條件來反對AI預測,就會面臨同時排除既有法律與社會規範的問題:要嘛兩個都要禁止,要嘛兩個都允許。換言之,即便在此極端的例子中,我們能仍沒有辦法找到一致性的理由來反對以AI預測來預防人類所造成的風險。那麼,這否意味著我們需要對AI預測全面開放?

二、自主性原則

Image by Gerd Altmann from Pixabay

要避免上述困難,我們或可參考醫學倫理學中的「自主性原則」:病人擁有決定是否接受治療的權力(the power to decide)。如應用到AI預測上,或可說,決策者擁有是否將決定權讓渡給AI預測的權力。

在此原則下,人類需負擔最終決策。就算人類決定讓AI完全決策時也需要對於預測錯誤負責。畢竟,是人類決定交給(完全授權)AI來決策。換言之,這個原則確保人類仍是終決策者。故大部分既有約束人類行為的法律與社會規範,仍然可以應用。舉例來說,如果某國家既有的法律架構不允許警察單位僅憑線報或情資,在沒有證據下就居留可疑人士48小時,則當「傳統線報」換成「AI預測結果」時一樣不行。若可,則AI亦可。如此可確保出錯時知道該找誰負責與究責。譬如2005年英國國會通過反恐法案中不經審判拘留嫌犯,由原本的14天延長到28天,但反對布萊爾政府提的90天。如果英國的國會經民主程序同意,則依自主性原則AI預測同樣適用。 1

引進自主性原則有何優點?首先,以人類為最終決策者,可確保行為與責任相對。這在民主國家強調權責相符的責任政治尤其重要。其次,以人類為最終決策者,可保有人類執行並評估某決策的能力。例如在預測腫瘤上,若全交給機器決定(準度較高),一旦人類醫師完全依賴機器判斷,則可能不重視人類判斷的相關訓練而逐漸失去此能力,未來亦無從知道機器究竟算不算準確。第三,以人類自主性作為最後關卡,可保有人類控制力。而人類控制力是心理安全感的重要來源之一。在新科技發展時,確保社會的安全感反而才能促進科技的發展。否則就會像1865年清帝國同治維新時,英國商人在北京永寧門外建鐵路,結果「京師人詫所未聞,劾為妖物,舉國若狂,幾致大變」,最後同治皇帝不得已只好把鐵路給拆了。

最後要注意的是,上述原則僅是必要條件,而非充分條件。甚至,很可能只是眾多必要條件之一。2未來如何完善使用 AI 預測的相關規範,有待更深入的研究。

三、結語

本文目的,是淺析將AI預測技術用於蒐集、使用人類資料作為風險預測之爭議並探討其規範性考量。本文主張(一)在限制 AI技術的使用上,必然性與事實性條件無法一致地避免AI預測的極端案例,卻又不排除現有法律或社會規範的案例。(二)在使用 AI技術時,引進自主性原則做為一必要條件,可確保權責相符、避免人類喪失能力並降低AI發展的社會阻力。