◎ 楊庭語(台灣大學法律學系學士生)

一、問題意識
AI科技發展日益興盛,最能凸顯者,當屬AI進行的創作行為,而此創作行為能否歸屬給AI,或者必須歸屬給人類,此乃有涉權利主體的意義。而所謂權利主體的定位,乃整個法秩序之精隨,其意義在於區辨法律上,得享受權利並應負擔義務之主體。
而綜觀AI發展史,關於AI創作與法律,其面臨自1956年Martin Klein及Douglas Bolitho利用程式創作樂曲1,到2019年Open AI設計之開源冒險遊戲,與使用者互動。此一「不可逆」的趨勢,包含著作權爭議、責任追究等,使AI是否能作為適格的法律主體,或者說,現行權利主體的範疇,能否擴張至自然人、法人以外者,引起法律界的熱議。而現今仍未有法體系將AI承認為權利主體,卻有些官方文獻2始有所討論,也因此成為應被法律界重視的前沿課題。
二、本文立場與理由
本文贊同AI得以成為法律上適格的權利主體,並以三項理由作為支持,分別為:其一,從事實層面上,AI介入人類生活的深度亦增,實然層面導致應然層面上,必須使他有其法律定位,以維護法秩序的安定,而AI深度思考的發展趨勢,使其就定位上漸無法等同於物,或者等同於受到保護而部分時候成為權利主體的動物,而是更趨於作為權利的主體;其二,將AI視為適格的權利主體,將使事故後的責任追究較為容易,並於該段落反駁近來權威的歐盟Expert Group’s Review3的論述4,並透過反駁更加深化對AI權利主體化的支持;其三,鼓勵AI成為適格的權利主體,將使AI創新者願意投注更多資金等,在研發促進人類生活的科技,其利益遠大於可能性弊害,即是退萬步言之,縱AI作為權利主體,仍有許多值得探討的倫理議題,在法律與生活層面以利弊權衡作為判準,仍應於現階段承認AI作為權利主體。
其一,隨著AI的進步,將其定位為適格的權利主體,而非企圖納入現行物的範疇,將有利於整體法秩序定位的安穩與精確。從實然層面來看,從電子網路有跟無的二進位訊號階段,經由圖靈測試的劃時代論文,確立思考機器之可行性,作為AI的鋪墊,AI研究領域於1956年達特茅斯學院確立,到現今能擁有深度學習,甚至超越人類平均準確率,其與人作為權利主體相似。再反觀物的概念,所謂物,乃直接支配特定物,享受利益而具排他性的所有權。而現行AI已非單純的被支配,而是有其獨自思考、與人此一權利主體互動的能力,例如:用於棋藝的深藍、透過判斷路況來決定如何駕駛的Tesla自駕車等。此外,因動物無此等與人類相似、甚至超越人類的思考能力,故AI在這點上,也與物權中涵蓋的動物權利有別。另,動物保護相關法令中的權利主體,也因其非討論保護與否而有別。故,從應然層面來看,AI應不能簡化約為普通的物,而適用物權的概念。
其二,將AI視為適格的權利主體,將使事故後的責任追究更加容易。討論AI法人格的責任追究,近期最著名的反對意見文書之一,當屬歐盟2019年的Expert Group’s Review,其對此採取全面否定立場,以三個論點支持其論述,為:此將導致僱用人責任的推諉、可以以現行的受僱人責任制度類推適用、有涉人AI的法律制度設計過為複雜。對此,本文一一反駁如下:一,AI設計為一環環相扣的過程,縱未推諉給AI,也將於現行權利主體之間互相推諉,故將AI作為權利主體,亦即責任的最終歸屬對象,為較可行的方案,也對正對消費產業的使用者較為有利;二,類推適用本身的邏輯為,就法律未規定的事項進行漏洞填補,然而此處要討論的正是需不需要填補此漏洞,因此有導問題為結論之嫌;三,當AI逐漸與人類相似,與其另設計一套法律制度,不如善用現行的權利主體概念,因此前揭Expert Group’s Review的觀點,於此三點均被反駁。
其三,綜觀之,賦予AI權利主體適格,將是利大於弊的作法。常見對AI作為適格權利主體莫過於倫理觀點,賦予AI法權利主體性,其是否將以此凌駕於人類的思考上,對此,下段將詳細闡明。惟併此澄清,現行法在處理法律實體設定議題,比如公司制度,通常不會以倫理作為前提考量,此處亦未見納入倫理考量之必須。退萬步言之,縱納入倫理,亦即AI最具爭議性的觀點,法律與生活上的利弊權衡,仍使本文贊同AI作為適格權利主體得以成立。
三、反對論述與其弊病
長期作為反駁AI具有權利主體適格的論述,莫過於擔心演算法的自主性、其具體應用與歸責性困境。然而,無論法律上是否賦予其權利主體的適格,在科技日新月異的發展下,最終的結果並非合當解決倫理困境,而是與之相悖的,法律追不上科技的腳步,而在不久後的將來實用性下降;此外,無法律管道可訴諸,使AI所衍生的責任問題,成為只在教科書上辯論的倫理問題,而無相應的罰則可以適用。此段可推導出的小結為:倫理不足以構成反駁AI作為權利主體的理由,此弊害不存在。反之,AI作為權利主體適格,透過法律來促進生活,將大幅增進人類的福祉。
將AI作為權利主體看待,則其法律上重要性得以提升,與其法律地位的穩定,使公司願意為此增加對AI的開創的資金,投資人也更願意資助相關的新創產業。論及AI對人類福祉的促進,舉例而言,對於法律正義的追尋,在美國,近年法院已採COMPAS5(一種AI軟體)幫助法官評估被告的再犯風險,作為量刑的依據。而COMPAS判定為高風險者,63%在交保期間犯罪,其作為法官的鷹眼,顯然是恰當的輔助角色。可以從此想見的是,若以法源賦予AI權利主體的位置,使其能坐上審判席,將有效處理自然人無法解決的風險評估問題。至於以對有色人種的隱性歧視6,反對AI法官上路的論點,AI仍能透過學習來翻轉歧視。至於公司與投資人的意願,舉例而言,美國在著作權歸屬上,開發出聘僱原則(the work made for hire doctrine7),顯然是注意到投資人意願所受影響,間接可證立前揭命題,然而如此的例外開放,使法律體制喪失一致性。
四、代結論
依據法安定性、責任追究的容易程度、與生活上的利弊衡量,本文認為應支持AI作為適格的權利主體。本文亦想反問的,是反對AI作為權利主體,本質上是否其實是一種隱約的倫理恐懼:如果在法律允許AI擁有像人的地位,是不是人的獨特性將會被取代?然而這份倫理恐懼不該訴諸法律層面的防堵,讓AI的發展成為地下化的隱憂,而該倫理歸倫理地正視,在AI日新月異的發展下,自然人存在所具有的獨特性為何。然而這份倫理的追問——正如前述,已不在法律的範疇。準此,綜觀各方,本文贊同AI作為具有法人格的權利主體。