人工智慧對於財產權法之衝擊與相關問題之探索

人工智慧與法律規範學術研究群
第二年期(2019-2020)

第十次會議
2020年4月30日(星期四)
主題一:專利法篇

主持人:李建良(中央研究院法律學研究所研究員兼所長)
主講人:沈宗倫(國立政治大學法律學系教授)

◎整理:洪于庭
◎註解、定稿:李建良

Photo by Héctor J. Rivas on Unsplash

美國專利商標局(United States Patent and Trademark Office, USPTO)對AI科技發展後,在專利申請、發明認定,甚至進一步的權利歸屬問題感到十分恐慌。因此從2019年8月27日開始,希望收集各界評論,匯集大家的想法,討論未來專利有關人工智慧的發明要以怎麼樣的方式,在準則或認定上做一些調整,所以列出了許多重要問題,以下就整個體系分別說明。

什麼是AI的相關發明?

首先是USPTO對AI本身定義的問題,什麼叫AI相關發明?需要定義是因為AI用在發明上不見得看得出軌跡,有可能在申請專利範圍請求上就用像以前電腦相關發明的寫法。當然AI揭露得越多、越清楚,在專利權人的角度來看,權利容易被限定或限縮,所以在解釋AI相關發明時有兩類,這種分類也得到USPTO的肯認。第一類是創造AI的發明,包括深度學習、認知、感知上訓練,這是AI創造的概念。第二類是AI本身所做的發明。這兩類一類是AI形成部分,一類是本身實踐的部分。未來可能需要單獨規格化的審查或是相關配套,處理包括訓練AI本身的行為以及其資料庫、連結架構、演算法,甚至其他連動的問題。

這部分第一個問題關注的是什麼叫AI的發明?我認為這個問題較難回答,尤其是應用端,在形成端透過類網絡的概念,多少可以看出AI外觀,但是在應用端時並不容易看出,因為申請人可能不想揭露演算法或相關數據庫,因為專利有個概念,揭露越多容易被限定相關範圍。

第二個就是美國曾有個法案對AI做相關解釋1,其中特別提到human-like。human-like是AI與傳統電腦發明最不同之處。當然human-like到何種程度並不清楚,只能說與人的能力越接近、越擬人的,越容易被認為是人工智慧。最後美國這個法案沒通過,但可以從定義中看到蛛絲馬跡,我認為所有問題中還是以如何定義AI相關發明最為困難。

專利適格

接著是AI相關發明的專利適格性,專利法一直在做發明與非發明之間的界定,人類介入的自然活動越多、越明確、越具份量時,被認定成發明的機會也較大。主要目的第一是為鼓勵發明創新,二是不希望專利法的發明過於淺薄,干涉人類本身固有之智識與相關自然運用之工具。所以美國判例法及全世界各國會對發明做把關,不希望單純的演算法被發明主宰,演算法是一個工具,大家都可以運用,就如同數學和抽象的概念。抽象的概念最常出現在商業方法專利,如果技術性不夠高,可能會以專名主宰抽象概念,這會影響到未來進一步的研發、一般正常生活及自然現象。回到剛剛報告的兩個概念,第一個是AI的形成端也有專利適格問題,形成端最大的問題是,因為AI本身的訓練用了不少演算法還有相關的原則概念,很容易被認為只是單純演算法的實踐。AI應用端上則比較有外觀性,較容易顯現應用所產生的技術特徵、技術效果,所以在AI應用端問題不會這麼大,比較困難的是應用端經常隱瞞AI的特徵,有提供目的、結果,但不敘述中間過程。

根據2019年我國智財局的分析報告(我國人工智慧相關專利申請概況及申請人常見核駁理由分析),到分析截止日大概有1567件案子,這裡有個定義問題:什麼是AI發明?從報告當中可以清楚看出訓練端的案子,從神經網路運用核心的案子比例較高,可以看出在形成端、形成的運用或相關訓練方面的案子比較多,因為現在是開端角度,有很多訓練AI的案子出現。另外從功能面來分析,目前較多案子是視覺、外觀的辨識,少數已經運用到實際工業上,做預測分析功能運用的也滿多,假使應用AI的技術被質疑是否為發明,到底演算法本身是不是僅為抽象概念或推理,而沒有技術?如果遭受這樣的質疑,這些專利都會受到很大的衝擊。從產業分析來看,生命科學其實有不少AI相關的專利運用,可能還在不斷增加當中。此外,報告中將許多產業泛指為工業製造類,我認為有些粗糙,現在沒有人在講工業製造類。

美國也要因應一樣的問題,大家都預測,美國長期以來面對電腦相關發明時的態度也會反應在AI問題上。美國有兩個重要的最高法院判決,醫療步驟Mayo案(Mayo Collaborative Services v. Prometheus Laboratories, Inc., 566 U.S. 66 (2012))與商業方法相關問題的Alice案(Alice Corp. v. CLS Bank International, 573 U.S. 208 (2014)),美國從判例法中學到經驗,修改準則,於2019年修訂發明認定指南(2019 Revised Patent Subject Matter Eligibility Guidance)。其中審查步驟2A的第一步(Prong One),是要先判斷申請專利的範圍本身是否是Judicial Exception,亦即是否為演算法、自然現象、數學公式或是抽象概念,假使是,就要看它是單獨發揮作用,還是只是包含在整個技術流程的一部分,因為包含其中時它可能只是一個配角,配角表示有機會做最後的轉型,如果本身是被整合成Practical Application就可過關,否則就進入到第二個步驟。第二個步驟就是給予一個機會,但這機會是最難的,在判例法上可得知,要如何將原來的抽象概念逆轉成技術貢獻,要在這裡把關嚴格,法院對於概念的解釋也是模糊不清,最後傾向放寬。法院認為只要是電腦技術改良到一種程度,就會認為有發明概念。這將來會跟AI牽扯在一起,因為AI本身是演算法,有很多內在的機制,就會掉入到底有沒有Judicial Exception,或是有無機會逆轉原來的不適格變成適格,這是非常難以達成的。

此外,Apple泰坦計畫(Project Titan),該計畫本身是在車底有三個控制單元,可以透過三個控制單元本身的運作直接在命令端上下指令,這是在車底下的單位,透過三個的相互運作,可以讓一台車自動從A點到B點,發命令端還可以偵測A點到B點路上有多少彎道、路況,會給予不同轉速、扭度、增速,等於一開始在起始端輸入,就會很平安、符合預期地將你送到終點,中間還經過山路和坡道轉彎等等,這還是算與AI較相關的。如果調出資料,可以看到其中有許多演算法。其中有三個很重要的單元,第一個是intelligence union,使用者本身要確定一個運行計畫,但智慧的地方並非在此,重要的是要有control union,這是一個反饋機制,譬如設定A點到B點時,control union會確認這樣的相關設定參數及預定計劃內容合不合理,不合理會要求改進,最後確認後再運行。這些主要是跟各位解釋AI的相關發明有些很容易辨識、有些難以辨識。

接著來看2017年加州北區聯邦法院的PUREPREDICTIVE, Inc. v. H20.AI, Inc., 2017 WL 3721480 (N.D. Cal. 29 August 2017) ,這是一個侵權案,被告提出發明無效的抗辯,系爭發明是有關資料庫的彙集分析,原告號稱是AI,但法院認為是一個抽象概念,應屬於mental process或是 abstract concept。可見這個預測資訊與分析所做成的資料庫,雖然或許有附行在AI上,但顯然沒受到主管機關或法院的青睞,法院認為技術性不夠,如果給予專利可能會停留在原本的抽象概念。這就是大家為何認為專利適格重要,回到2019年美國專利商標局提問(Request for Comments on Patenting Artificial Intelligence Inventions)的第五點:在講專利適格性時,對AI發明到底有沒有特別的考量?在爭點二有提到專利適格的問題,我認為寫得算平淺,其中提出幾個問題:法律要不要因為發明是由AI申請,就排除其專利適格?我認為是不可能,只是範圍或是未來如何面對的問題。第二個進一步的問題:假使是這樣,有沒有需要給它特殊規定,還是就用以前電腦相關發明的基準?我認為AI跟傳統電腦有很大的出入,特別在專利審查準則方面有沒有需要做特別修正,這是一個被普遍提出的問題。

其實根據歐洲專利公約成立的歐洲專利局在去年就已經修改審查準則,指出回歸、向量等概念常用在深度訓練,但在審查時要特別注意,這些只是抽象的數學性質,不會因為訓練AI就當然具備適格性,他們對這個問題有所警覺。歐洲人強調技術特徵,以前在審查電腦發明時也是一樣,這跟美國講的發明概念不太相同。大家長期以來都很疑惑什麼叫技術特徵或特性,歐洲在解釋時也有不同的見解,有時會像美國的解釋方式,有時會認為超越內在演算會連動外在機器才算。我想如果這方面必須做調整,應該要因應將來AI的問題。我個人認為AI是擬人,擬人與人固有的知識不一樣,因為擬人是模仿人類固有之事,故有一定的技術性,並非一般單純的電腦運用,以上是有關於適格性的問題。

  • 發明歸屬

AI相關發明到底要歸屬於何人?以現在法制角度來看,就算發明是事實行為,AI本身可能也被排除在外。各國考慮的問題是:AI如果參與了技術貢獻,的確有做出人類本身無法顧及、無法想到的內容,對相關發明的確有一定技術貢獻,它可不可以作為發明人?如果作為發明人,還會衍生下個問題,可不可以作為專利申請權人與專利權人?如果不可以,該如何適切規範AI相關發明的發明歸屬?當然這要回歸專利法的本質,至少不能讓專利法原本鼓勵創新的政策,因為AI而造成相反的結果。如果不承認AI作為發明人,其所做的技術貢獻進入到公共領域,會不會有違背創新政策的問題?因此大家會關心到底要不要設定一個法人,專門為AI而設,背後有人負責,至少享有專利申請權與運用權,否則AI本身是申請權人、專利權人,取得專利權卻無法做處分、運用,無法做後續專利權人得做的事。這是礙於現在的法制獨尊人類,在這個問題上,AI一直在撼動我們,改變我們的思維。

從WIPO的說明中可以看到第一個問題就在討論這件事,AI傳統上只是工具,AI可不可以列名發明人?發明人是否只能為自然人?台灣是用法定歸屬方式讓發明歸屬於法人或公司,但是各國也常通過指定、契約方式來處理。第二個問題是,如果不能把AI列為發明人,那人類被列為發明人時的正當性為何?這裡要討論的是如果人才能作為適格的發明人,在AI實際上真的做出貢獻時,專利法要如何看待?以前貢獻人就是發明人、專利權人,現在為了因應法制上需要,被一分為二,這樣是否會有問題?應該要怎麼做?我認為比較難是後面的問題。就算AI是發明人,後續還有專利權人、申請權人,因為涉及到授權、侵權等相關管理問題,AI就算可以是發明人但終究非權利主體,該如何看待、處理後續問題?是不是要透過像以前在法人中的職務發明、非職務發明的立法模式或思考?我認為最終還是要將權利歸於人類手中,那誰能享有這些權利就變成一道難題。有沒有可能AI本身成為權利主體?也有可能,但不是現在,目前實務上大家會有這些問題。

美國在此著墨很多,有關權利最後歸屬的問題、要不要透過法人概念解決專利權與專利申請權問題,是不是要透過自動讓與或其他方式去得到這樣的結果,這些都不斷在進行討論,當然也要徵求各國的意見,因此美國發函給各國,希望能得到一些想法。昨天美國有AI作為申請人的案子,英國有位教授提出一種發亮的逃生裝置,可以讓救難者較容易快速發現受難人的位置,尤其是發生大災難的時候。他向歐洲專利局申請歐洲專利時,是以AI作為發明人的角度申請,同樣的案子他也在美國提出申請。此案今年1月28日被歐洲專利局拒絕,歐洲專利局特別提到“DABUS”本身只是人工智慧,該申請案是以DABUS作為發明人,EPO審查時認為所有的發明人都必須是自然人,所以恕難接受申請及要求。同樣的案子在美國遭美國商標專利局以同樣理由拒絕,因為申請在形式上就不符合。這個DABUS十分聰明,它有兩端神經元,第一端叫做創新端,第二端叫做回饋端。創新端做出決策,後面的人幫忙把關,看是否得宜,不好要修改。據此該英國教授認為DABUS的很多創新活動超越人,人無法想到如此縝密或具備技術特徵的想法。這或許這是真的,真的是AI本身做出人所不能及的技術貢獻,各位可以看到這個結果,如果貢獻九成都來自AI,但這其實沒有得到專利,進入公共領域就大家都可以使用,除非中間能透過其他營業秘密或契約方式保護。但事情沒那麼簡單,因為不確定是否如我所講有這麼高的技術性。

  • 專利要件

專利本身需要揭露,專利與營業秘密不同,專利就是要鼓勵創新,最大貢獻是代價保護,希望能揭露相關資訊給所有公眾,讓大家做進一步發展、再研發、再創新,甚至讓合作者得以衡估未來該如何實施,所以專利的揭露非常重要。還有一個要件是要超越先前技術,以往判斷進步性是設定一個類似善良管理人的人,叫做「所屬領域具有通常知識者」,由他做標準,對各種領域、行業的發明進行判斷。如果在申請日「所屬領域具有通常知識者」認為依申請前之先前技術能輕易完成該發明,則該發明不符合進步性,無法得到專利授與。

AI進來後面臨的第一個問題是,將來AI與人類到底是競爭角色還是合作角色?以往電腦在工具概念時永遠都是合作者,但是未來AI就我剛剛與各位報告的英國教授所舉的概念,它已經超過人類,未來人類與AI到底是競爭還是合作?如果是競爭,人類可能會被邊緣化,如果在發展上被邊緣化,那專利法也無用了,雖然專利法是技術法律,但還是要遵守人類的自尊。如果是競爭關係,將來人類與AI就會共享一個先前技術設定「所屬領域具有通常知識者」,那在設定「所屬領域具有通常知識者」本身時,AI與人類就要在同樣標準下競爭。可能大家會不敢接受這個事實,所以我將研發分成兩條路,AI有自己的場域,人類有自己的場域,中間有交錯,交錯再用特別規則解決,所以人類可以保有研發者的地位,AI可以在其他場域中發展,所以有不同的進步性和不同的所屬領域通常知識者。雖然AI問題還沒有到如此嚴重的地步,但日本案例已經提到這個問題了。在日本有個例子是,看臉的特徵可以計算出血糖有多高,實質內容如何不清楚,不是看身高、體重、體脂,而是將可以看到的特徵都列入考慮來判斷血糖有多高,這個我認為很難想像。

第二部分是揭露問題,如何避免讓專利過期後只有發明人或專利權人會實施,等於變相延長專利。還有一個問題是大家申請專利都偏好將範圍寫很大,因此侵權範圍就變很大。假設今天我做了一張椅子,椅子的材質是木頭,形狀有兩個扶手等等,這只是例示,未來其他人做出其他椅子,可能在申請專利範圍、解釋範圍時會造成侵權。所以到底AI相關發明要不要揭露?中間要不要揭露演算法?尤其是於深度學習中,將來要實施甚至還要揭露用什麼資料訓練。AI訓練後如何揭露?因為很難預測它的走向。揭露的意涵是什麼?是否要持續揭露?我相信發明人不願意做太多這種事,揭露越多某種程度上其實是對自己的矮化。有時法院會認為揭露是例示,但在某些情況解釋中,「所屬領域具有通常知識者」看到會覺得不是例示是列舉,所以雖然在解釋範圍內,但並不構成侵權。所以這變成大家關注的問題,最初應該揭露多少,要不要重新去改變層級,WIPO也問一樣的問題,從新興技術到「所屬領域通常知識者」到後面的進步性評價以及所謂的實施揭露,都是在持續討論的問題。

最後的問題是,是否要賦予AI新的保護形式?很多新科技研發者喜歡推廣這種概念,這種概念是增加新的排他場域,到底符不符合我們的需要?今天保護不是主要目標,保護的最終目的是希望促進產業提升,專利法中最重要的是在開發潛在發明人,而不是僅是保護現有的,應不應該這樣引發很大的論辯。我始終認為智慧財產權的重點並非打擊侵權者,侵權者在實施的效率會比發明人、專利權人高,惟侵權事實不能改變,這會影響如何審酌最後的補償,所以專利法是一個十分有趣的法律,沒有正義與邪惡。


Photo by M. B. M. on Unsplash

主題二:著作權法篇

主講人:王怡蘋(國立臺北大學法律學系教授)

在著作權這塊最主要的三個問題,第一個是AI的成果是否受著作權保護,或是應不應該受到著作權保護,這是最主要的問題,也是現在大家最關注的問題。接下來這兩個問題相對而言受到的關注程度不是那麼高,第二個問題是,AI學習時會有學習用的資料庫,做這個資料庫時會大量重製別人的東西,這樣的重製行為除非得到同意,是不是一個侵害著作權的行為,普遍都認為有疑慮或認為是,如真如此,進一步要去探討的是如果要促進AI的發展,要不要有一些權利限制的規定處理這塊。最後一個問題是一個較遠的疑慮,如果AI的成果與已經存在的作品相似,是否侵害著作權?主要是這三個議題。

  • AI之成果是否受著作權保護?

就第一個問題,有兩個在中國發生的判決,一個是2019年,一個是今年1月的判決。2019年的判決出來時引起廣泛討論,此判決所涉及的法律事實是,有一個菲林事務所使用大數據分析有關電視娛樂行業的判決,分析出的成果又使用AI寫出兩篇報告(分析報告一、分析報告二),後來這個報告有被彙整成文章,這文章隔天發表在微信上發表,再隔天被百度大部分轉貼到自己平台上。而百度從來沒有得過菲林事務所的同意,也沒有在文章上標示著作人的姓名,於是菲林事務所提告。判決理由最主要區分涉案文章、分析報告一、二。從分析報告生成過程來看,法院認為有一定獨創性,但法院又非常明確指出,獨創性不是構成文字作品受到保護的充分條件,依照現行法規文字作品應有自然人創作完成。這段話的結果就得出一個結論是,分析報告本身不會受到著作權保護,可是涉案文章與分析報告比對後發現,內容與表達方式是不一樣的,分析報告的描述都是一句話,可是涉案文章變成較長較多的說明,所以認為內容、表達不一樣,涉案文章的文字內容與分析報告不相同,屬於原告獨立創作完成,具有獨創性構成文字作品。在這很明確地否認AI的作品能夠直接受到保護的可能性,以現在的法律而言只保護自然人的創作,所以在這脈絡下只有涉案文章受到保護。

在今年1月有第二則判決,法律事實是有個電腦的智慧型寫作輔助系統,將資料輸入後就會自動生成新聞,發生爭議的是2018年標題為「滬指小幅上漲0.11%報2671.93點通信運營、石油開採等板塊領漲」的財經報導文章,文末註明「本文由騰訊機器人Dreamwriter自動撰寫」,同一天,這篇文章在盈訊科技有限公司網站上發表,一比對發現這兩篇內容一模一樣,進入訴訟。今年1月判決出爐,法院雖未明確指明非自然人的作品不受保護,但仔細查看會發現,判決中還是有談到著作權保護幾個要件。其中很重要的是原告的團隊為系爭文章的生成做出相關選擇與安排,並進一步提到,本案中原告主創團隊於數據輸入、起動條件設定、模組和語句風格取捨上的安排選擇有直接關連性,得出的結論是,原告主創團隊相關人員所進行上述的選擇與安排符合著作權人創作的要求,應納入這篇文章的創作過程,故這篇文章受到著作權保護。被告抄了一模一樣的,故侵害著作權,為何我會強調他將團隊人員拉入,第二個判決雖沒像第一個判決強調著作權一定要保護自然人的創作,但我們能看到的是他不斷強調人和人類精神的參與,雖肯定著作權的保護,可是只連結到人的參與。所以導出一個對著作權有蠻大衝擊的問題,過去著作權法一直在強調保護的是人類精神創作,在此情況下,如先前紅猩猩自拍照的例子,該案因為是紅猩猩自拍照,非人類精神的創作,故不會受到著作權保護,傳統著作權保護的對象一直強調是要保護人類精神的創作。AI會發生問題的是,如果AI能自主性創作,不管前面的訓練過程,AI一旦找出規則可以自主性創作,一旦AI達成自主性創作的目標,接下來的問題就是AI自主性創作出來的成果能否被著作權保護,因為這會與著作權原先保護的目的、想法很不一樣。

要先強調必須是AI的自主性創作,如果有人的參與,則沒有背離現在著作權的保護範圍。從這裡也可以反過來看中國兩則判決,特別是第二則判決,為何一直連結、回到自然人去,因為這樣就不會逸脫現行的著作權法保護,可是AI要追求的目標是AI能夠自主性創作,不過不包含前階段訓練,前階段的訓練當然一定都有人的參與、給定目標、給定選取規則的因素,絕對都有人的參與。會產生問題的是,自主性的創作產生的成果到底有沒有受到保護?是不是可以擴大著作權的保護範圍?以目前來講各國都有爭議,最快立法的是英國,以前大英國協的國家,像香港、印度也跟著立法保護,其他國家都沒有,但這個問題一直受到關注,我國於民國107年已經有人詢問智慧財產局,不過智慧財產局的回答將可不可以保護及權利歸屬混在一起談,有些奇怪。但從這裡可以看出,不是只有中國發生這個問題,其實世界各國都非常關注這個問題。

是否可擴大保護會先詢問的是著作權的立法精神,這點在各國是不同的。以美國而言較建構在功利主義,著作權的目的在提供創作誘因、促進文化及經濟發展。而歐洲就建立在自然法與個人主義,首先建構在自然法,著作權是為了保護人類努力工作的成果,這是一個自然權利,一旦這個成果出線就自然受到保護,只是在這個基礎上,再加上個人主義,理由是要強調創作人與作品間的緊密關聯性,個人主義理論的加入是特別去解釋著作人格權的保護,非僅保護財產權而需保護著作人格權。從立法精神去看,會比較有困擾的是自然法個人主義的部分,因為它強調工作成果的自然保障,那AI的東西真的還能受到保護嗎?不過看歐盟與著作權有關的指令,其實會發現越來越強調創新、創造的實質投入、創造、創新與知識發展等這些誘因,可以慢慢地看到不斷往創作誘因、促進公共利益這塊前進。可以看到各會員國的著作權變成同時建構在自然法、個人主義,再加上功利主義並行的兩個主軸。從立法精神來看,只要著作權法的精神有建構在功利主義上,並非完全排除,應該要擴張保護範圍,那就有可能去保護人工智慧的結果,至少不會違反著作權的立法精神,譬如後來歐洲對Data base的保護,其實著重的是創造人的投入及確保經濟回饋這塊。

如果能接受著作權擴大保護人工智慧的成果,接下來的問題會是怎麼保護,這些問題會與權利歸屬、權利範圍等一同出現。從人工智慧產生的過程中會看到,要讓AI能創造或生成這樣的成果,一定要做學習用的資料庫,讓人工智慧在資料庫裡找尋規則,所以它的第二步是在資料庫中歸納出創作方式及模組等,然後才依照該規則創作。由此我們得出人工智慧的成果大概有幾個特性,第一個不是模仿單一或既有的作品,而是產生一個新的成果,而且產生的新成果不太容易預測內容為何,因為有這兩個特性,人工智慧的成果現在已經有在應用,未來應該會更廣泛應用在更多產業中,特別是在不強調高度藝術性的產業,譬如電玩的配樂與廣告我想都會大量的運用,那大量運用後要如何保護?另一個特性是建置成本高,包含相關電腦程式、建置學習用的資料庫,所需成本都非常高,這三個特性都是我們在建構相關保護時,要思考應不應該去保護,怎麼去保護的問題。另外還有兩個特性會讓我們對要不要直接套用現有著作權法制有疑慮,第一個是人工智慧只是模仿人類創作,與人類思維不同,欠缺創作動機。而且近期內可達到的人工智慧創作其實欠缺表達想法,人類創作幾乎都有想法,譬如批判、歌頌或表達想法,但近期能做到的人工智慧還欠缺創作想法。我認為就著作權保護的觀點而言,這雖然不會直接表現在保護上,但會影響到保護機制的設計,因此需要去考慮。第二個是人工智慧創作作品速度很快,且無需休息,我們要給多長的期間保護。後面這兩個特質,會讓我們思索就現有著作權保護而言,需要給人工智慧著作人格權嗎?權利內容需要給多少?第二個是時間、保護期間問題,這些都是從特性去看保護制度要如何建置的問題。

  • 建置AI學習用資訊庫之行為是否侵害著作權?

AI創作前一定要建立資料庫,建構資料庫要將所有資料數位化,再存入資料庫內,這個行為本身是著作權法中的重製行為,而且一旦存入後誰都可以用,只要能接觸到此資料庫都可使用,某種程度與人的閱讀不同,所以會牽涉到著作權法中的重製行為,且對於著作權的權利人而言,這裡所謂的權利人是被存入的資料的權利人,他會擔心這種資料庫如果其他人得任意拿去用,權利人的權利會不會受到侵害?回頭來看,從建置資料庫,想發展AI的人的角度觀之,他們其實會想知道為了發展AI技術而需要存取時,要一個一個找權利人同意嗎?這不太可能,因為學習資料庫裡的資料很多。有聲音出來希望有權利限制的規定,像是歐盟對於文字探勘有權利限制的規定,可是AI這部分沒有,所以一直有人提出其實AI的學習資料庫與文字探勘很像,可不可以直接套用規制。不管可否直接套用,從政策形塑面觀之,如果我們希望能夠發展AI,權利限制可能有必要性,接下來的問題是如何規範要件,一般而言,不會有疑慮的是要以學術研究為目的,只是後續要不要限定在非營利目的?或是限定特定機構(文化機構、研究機構)?要不要限定、限制那麼嚴格?但是將來發展到一個穩定程度,變成不只是為了學術研究,而是進一步在盈利、產業上運用時,就完全不是權利限制要規定的,那是大規模授權要去做的問題。權利限制規定可以回應權利人的擔憂,如果只是學術研究發展我想權利人不會吝於同意,權利人害怕的是這個資料庫將來會不會被濫用,一旦被濫用所有資料都在資料庫中。後續會有的考慮是,德國是一旦研究完成,資料庫就要銷毀,但這會有反彈的聲音,因為成本很高,一旦銷毀其他需要使用的團體就無法繼續用,這是另一個要討論的問題。或是看有無機構是大家可信賴的,可以將資料庫存放在機構中,看有無其他研究團體要續用,這是回應權利人的疑慮的部分。

  • AI之成果近似於他人之著作?

第三個議題,這個議題目前尚未發生,但以微軟小兵寫的詩集為例,微軟小兵有一個自我控制系統,寫出的詩會先透過自我控制系統與既有的詩比對,近似度過高就會刪掉,近似度不高才會發表。這裡會有的疑問是,如果AI的成果與既有作品很像是否有侵害著作權的疑慮,以目前抄襲的判斷標準而言,除了相似還要有接觸或接觸的可能性,後創作人應該要能接觸到先前創作內容才有抄襲可能,如果從來都沒接觸到,那只是平行創作,在此是保護平行創作的。如果把這個概念運用到AI的成果、創作,相對來講容易區分,只要在學習資料庫內一定有接觸過,只要沒有在學習資料庫中的就一定沒有接觸過。如果直接套用侵權概念,AI根本沒有侵權的故意過失,只是按照規則創作,根本沒有主觀認知,對於這樣的現象到底要不要負侵權責任,或是建構一定的義務,否則以現有規範而言根本不會構成責任。最簡單的是人工智慧無主觀故意、過失,進一步去想,這樣現象我們真的可以容認其存在,而認為人工智慧沒有侵害的故意或過失嗎?如果是這樣我們可能無法容認,否則某種程度上可能會演變成規避、脫法現象,進一步的問題是有沒有可能還是要建構一些義務,例如在參數設定時,盡可能設定AI在使用這些規則,重新組合時,盡量做較不常見的組合。會有疑慮的是,第一,參數設定是使用者或程式設計者的自由,我們似乎難以規定要如何設定參數。第二,當技術越複雜,其實要設定參數或是限制會更複雜,不太可能透過參數就能避免與他人作品類似的現象。如果將防免的責任架在參數上似乎有些奇怪,有沒有可能要求加上自我控制,至少負有義務,所有的作品出來後要與學習資料庫中的東西做比對,篩除掉過度相似的。

問題與討論(敬稱省略)

陳弘儒:

首先有貢獻者、發明人跟專利權人,如果發明人必須為自然人,貢獻者在專利過程中的角色跟那個過程是什麼?

沈宗倫:

如果從一般實務界的講法就是說,申請專利範圍裡面的技術特徵,有一部分是貢獻者想出來的,例如多點觸控系統,其實有很多技術在裡面,有可能是人類跟AI共同參與的時候,透過AI本身的訓練或知識、AI本身所做的深度學習、本身的展望性,解決某一些問題。

陳弘儒:

所以他不一定要是自然人?

沈宗倫:

對,現在已經跟科學脫節了。其實早期有些工程師在非正式場合發表的文告、內容的相關文句上面,包括IBM在內,都認為其實AI貢獻了很多想法和解決很多問題。

蘇凱平:

剛剛菲林公司的判決,法院是認為著作權只保護自然人,保護自然人這件事情是個先驗的存在,還是說有什麼論證過程,去論述我們法律的規定。

李建良:

必須是自然人的創作這個問題,是不是一個一般性的規定,還是是中國那邊開展出來的?也就是說,我們的著作權是不是也有類似的問題?

王怡蘋:

各國著作權的慣例,過去都說只保護人類精神的創作,有一些是直接就擺在條文裡面,有一些是推論出來的。我認為要回到其立法目的、立法精神去看,不管是從促進文化發展來看或者是從自然法個人主義來看,就是保障人的創作。

蘇凱平:

在一開始還沒有AI概念的時候,這個概念不應該是排他的?制度設計的時候應該沒有AI跟自然人的概念,我們就是只保護自然人。有點像憲法上在講原質主義的概念,兩三百年前沒有憲法的這些概念,但當時的這個條文就這樣解釋,邏輯上面並不當然排除一些新出現的東西。

王怡蘋:

我同意這個概念,但這會牽涉到一個問題,那動物所做的也不能說是創作,比方黑猩猩拿著相機自拍,我們是否納入保護?過去確實沒有AI,但是會去區隔人跟動物的作品,不知道動物做的東西能不能叫做創作。在過去的概念,只要是動物自主性的作品,著作權不保護。因為這樣的概念延伸過來,就常常會類比說那AI就跟動物一樣,所以它的作品也是不受保護。

李建良:

歐盟那個案子,為什麼他要用AI的名義申請,他如果自己申請的話是不是不會通過?

沈宗倫:

其實我覺得他是想做個嘗試,長期以來其實真的累積了很多AI本身的貢獻,這次一方面可能是想號召,對他的技術做一些宣傳,二方面也是想試水溫。這個案子如果是人來申請,可能還要看先前技術,還有其他相關要件。我覺得可能申請人也知道,AI申請發明很不容易,不過可能想要測試。因為以往都沒有人敢做這個嘗試,但創新相關的法律時常會比一般的法律有多一點空間,我們嘗試讓AI做出一些成果,如果真的有一些貢獻,某程度上應該可以寬認它是創作者。但著作權可能就比較困難,因為著作權本來就是在累積人的文化。立法者不可能為動物的文化做累積,著作比專利更難的在於文化思考,有文化思考比發明創作更難。因為我們始終認為,不管科技怎麼發展,目前認為著作權保護的是真正的反省能力。因為著作權旨在保護反省能力產生出來的表達,並不是在技術問題的解決。其實技術問題的解決比較容易,有可能AI就能解決問題,就像老師問的英國求生設備。但是就算AI可以寫出詩歌,那到底是不是立法者原來期待的,人在周遭環境、歷史時空底下的反省表達,就會非常有疑慮。所以才有一派的人認為,應該顧及成果就好,另外一派則認為,文化是要嚴守我們一開始的取捨。大致來說這個教授是想要試一下水溫,想看看現在各國審查機關,尤其美國跟歐洲專利局的立場和態度。

李建良:

在宗倫老師的報告中有提到專利沒有所謂的好人壞人,好像跟著作權要分隔開來,指涉專利好像是一個純中性的制度?若申請之後被批准了,那位英國教授自己不是也不能用嗎?另一個問題是,他有沒有經過AI的同意去申請?申請人要不要經過當事人同意?這個問題有可能會挑戰AI所有產生的相關權利主體的問題。

沈宗倫:

英國的教授其實只是來嘗試這個部分。發明人、申請人、專利權人這三個階段,一定要於法律上無疑慮,才可能真正發生效果。就算可以認定AI是發明人,發明人是否為申請人?就算可以認發明人是申請人,但下一個問題是最後的權利會被前面狹隘的概念遮斷,比如說下一步怎麼辦?取得專利權要給誰?與法人的概念又不相同,當然也可以解釋成AI是其工具,可是這又跟他剛才提到把發明人作為申請人自相矛盾,AI現在是工具,卻又是申請人?

這個問題產生了糾葛,WIPO才在很多法制上認為,這些要連在一起看,不能夠切開,就算AI能夠取得專利,後面還是有很多問題。更前端一點來看這個問題,發明人本身是否為申請權人?申請權人是否要是權利主體才可以提出申請?在這個案子中,拒絕可能有兩個層次,第一個層次的問題在於,發明人被拒絕是不是代表就算能作為發明人,也不適合當申請權人。申請權人必須是人,只是人有很多種意涵,包括許多概念,終局就是拒絕了,但是我覺得中間有很多可以討論的地方,拒絕有很多種理由。

何之行:

提到AI專利揭露,在AI裡面有所謂解釋權的困難,有些東西可能就是沒有辦法說明得夠清楚,因為在技術上沒有辦法完全揭露。如果是在專利權裡面,應該怎麼樣去揭露,揭露到什麼樣的地步,可能去處理到個資法裡面解釋權一直沒有處理的問題。

沈宗倫:

我覺得問題有兩個層面,第一個層面是揭露演算法,就像揭露一個技術特徵的一切相關運作。另外一個是數據庫data-base的問題,今天深度學習的發明如果要授權或實施,是不是勢必在某種程度要揭露資料庫。基本上如果從傳統專利法來看,所謂的實施的可行性,也是由所謂的「所屬領域通常知識者」設定出來,看法院怎麼認定。主要是要揭露到什麼程度,在此並沒有討論到解釋權的問題,但未來AI如果使用很多資訊的話,這個問題可能就會進來。傳統上沒這個問題的時候,基本上就是以主體做標準。

如果實驗就可以達成這個專利原來的目的,基本上就是已經充分實施。這問題很抽象,法院最初在表象看的時候就沒有去注意到資訊內容是不是事實上揭露,以前沒有這樣的問題,也許電腦程式部分有,可是沒有像現在在AI底下這麼盛行或得到關注,所以以往的做法就是設定一個類似虛擬專家的角度,由這個角度審視其資訊充不充分、可否實現。如果必須重複試驗、或是不正常的、會過度耗費的實驗才能做成,這個揭露就要加強。但就解釋權的部分,未來要揭露的是不是只有演算法?是否要把訓練AI的資料庫一併揭露?揭露的時候要怎麼看?因為虛擬專家PHOSITA(A person having ordinary skill in the art)本身沒有倫理辨識能力,沒有所謂法評價上的人權概念,過去沒有涉入這方面,但未來會需要關心。

李建良:

中國案例的Dreamwriter是歸屬何人?是任何人都可以使用?還是事務所合作開發出來的?第二個,涉及到AI學習的資料庫,把資料數位化是不是會造成對他人著作權的侵害,是否算是一種重製?在您提出的設題是說把相關資料數位化,相關資料指的是原本是紙本然後把它數位化,還是說原本是數位資料,轉換成二進位的數位形式,如果今天是在網路上面取得的連結資料,是否也會落入這個範疇?

王怡蘋:

Dreamwriter是由騰訊公司的關係企業開發,授權給騰訊公司使用,所以並不是任何人都可以隨便使用。

李建良:

所以有一個前階段的問題是,他是使用Dreamwriter之後產出一個東西,如果他人沒有這個使用授權,也沒有辦法來產出這個東西。在那個判決有沒有去談到這個問題?

王怡蘋:

沒有,因為Dreamwriter本身是一個電腦程式,設計者也就是該關係企業,設計出來之後對這個程式有著作權,應用了Dreamwriter寫出來的東西,進一步寫出來的文章被抄襲,爭執點是在於這個產出的文章被抄襲。

李建良:

就算後面的部分不是,但前面那個部分因為是透過一個有特定、有授權關係產出的東西,也有可能會在另外一層去處理這個問題。

王怡蘋:

的確問題在於如果我們將來能夠接受AI所創造的東西,其權利歸屬其實也會出問題,有沒有可能是電腦程式的所有人繼續擁有後續權利?

再來就是資料庫的問題,本來就是數位化的東西存進資料庫也是一個重製行為,通常來講,並不是AI學習的時候就是直接將其放到網路上,抓網路上的東西,大多是先做一個學習資料庫,然後讓AI在資料庫裡面學習,如果是這樣的話,把資料匯進資料庫,本身就會有重製的問題。還有一個會出現的問題是,權利人同意可以在網路上看到的資料,不代表權利人同意在網路上找到這些資料就可以直接儲存到別的地方,這個不必然等同,授權範圍會有不同,比較要去處理的,應該是那個儲存到學習資料庫裡面的行為,原本的存在形式是數位化還是紙本形式都有可能出現。

李建良:

所謂的儲存,概念是一種連結?那第二個問題,什麼叫資料庫?我們不一定會給它一個名稱叫做資料庫,不給予名稱但就將連結集中在一個地方,是否為一資料庫?如果僅是在資料庫中放連結也許問題就不會是重製?

王怡蘋:

在這個狀況之下,如果僅是將連結放入,AI自行去學習的話,那就不能算是有重製資料,就像在網路上使用他人的資料,也會建議只放連結就好了,盡量不要直接使用內容,才不會構成侵害。所以問題是在於把資料放進資料庫的行為本身,這才有可能構成重製的問題。

楊岳平:

第一個問題是,AI對於某一個發明或創作有貢獻的時候,就會產生權利歸屬的問題,有沒有可能把AI當作是受僱人的角色,將AI的掌控者當作僱用人,所以雖然是AI創作、發明的,但是就像是員工發明的,權利最後都是歸屬僱用人。如果這個類比可以的話,這樣的想法是否可以用來解決現實上是AI貢獻,但AI沒有權利人資格所以沒有辦法取得權利的問題,好像從僱用受僱的關係來理解也沒有什麼不合理的地方?常常僱用人其實也只有出資金,沒有做具體的發明或是創作。

第二個問題是,目前擺盪是因為我們不承認AI有法人格,但是陸陸續續有些討論探討是否要給予AI法人格,如果能夠承認AI的法人格,剛剛討論的問題是否即可解決?但就算給予AI權利,需由何人行使?這個也有辦法解決,如果是一個法人格的話肯定會需要一個自然人代理人,就像公司也需要代表人。

第三個問題,不管是專利還是著作,AI的一個特性就是產生作品速度快,會不會就是因為該原因使專利跟著作權的問題變得複雜很多,因為我們建立專利或著作權制度的時候,我們知道它產生了一定程度的壟斷,這是它的副作用。過去我們願意接受這個平衡,是因為我們覺得這種壟斷的效果應該還可以控制,但是當AI產生的速度很快的時候,壟斷的現象會特別明顯,它可以用很短的時間壟斷掉大部分人想得到的東西,天秤就會開始失衡,會不會所有這些著作權、專利權的問題,背後真正的根源,來自於我們擔心,不是擔心AI創作、AI發明,而是擔心AI創作和AI發明得太過快速?

沈宗倫:

第一個僱傭的問題,其實也有人從這個方面去構想。在傳統結構裡面的僱傭是人與人的關係,基本上如果要從僱傭去套AI跟一般人的話,必須解決基本的問題:受雇人是否必須為自然人?或是從另一個角度上來看實質支配關係,或者是論它有工具性?弔詭的是,AI一直在超脫人的掌控。我們在講雇傭的時候,向來講的是監督跟支配,跟一般講的委任或承攬不太一樣,但如果能夠在這個法體系上解決,基本上是沒有問題的。

第二個問題在於,最基本的根源解決要從法人化的角度觀之,如果把AI法人化,很多問題都可以迎刃而解,不管是以法人地位跟他人做各種交易或形成各種關係。但相對來講AI法人化有一個重要的問題,在我們的體系建構上面,公司法人化是因為具備正當性理由而且是通念,大家都支持。但說到AI法人化,雖然在專利法、著作權方面是有創新的原因可供支撐,可是AI不能只為著作權法、專利法而法人化,這應該是一個普遍性的考量,它的存在價值是什麼?要如何正當化法人化?其本身重要的目的為何?這些都有值得琢磨的地方。AI法人化的問題在於如何建構它,而不只是為了專利權、著作權。

第三個問題,我們的法制底下到底期待人類扮演什麼角色?就創新活動來講,到底AI永遠是增益我們的工具,還是會跟人類競爭?基本上專利法跟著作權法在這一點會比較寬認,因為在此著重創新導向及對人類福祉文化的貢獻。可是如果牽扯到一般的法律行為,或是倫理和人權問題,可能就沒有辦法如此寬認。雖然相對其他領域來講,著作專利是比較彈性的問題,但著作權跟專利權不一樣,著作權是文化的累積,專利是技術問題的解決,所以一個著重促進產業創新科技,一個著重累積文化,因此著作權會需要稍微比專利權保守。AI創造出來的東西能否代表人類文化?是否是人類期待的文化?過去人類不會懷疑人類,人有反省能力,所以人講出來的表達可以被接受,當然會有文化的市場去汰選,但不會懷疑講出來的東西本身是機械語言,或者是人類所不能接受的一種想法、看法,他人可能會挑戰我的觀點,但不會挑戰我的適格度。但是在講文化的時候,AI不管受多大的訓練,最後做出來的結果是否符合人類對文化的期待?這方面就會比專利稍微嚴格一點點。當然有人寬認說其實它只要產出增益人類的文化就好,不論產出端是機械還是以其他方式。

王怡蘋:

在著作權的部份,確實在美國有很多討論想要用僱用人的概念來適用、解釋AI。將AI解釋成受僱人,就可以擁有它的著作權,但這還是建構在一個前提之上,就是到底要不要讓AI的作品受到著作權保護,所以後面的這個討論其實比較像是,如果我們已經承認、同意要讓它受保護的話,才在既有的制度裡面去找尋,有沒有可能可以類比、或是方便直接拿來借用的方式。

第二個關於法人化的問題,如果要用法人去處理的話,相對而言的確可以解決掉一些問題,但這個問題其實蠻全面性的,可能會連帶影響到其他的領域,可能不是只有智財這個領域可以去處理的。

邱文聰:

前面講者所講到的,比較多是在討論AI的作品可不可以受到著作權的保護,但有沒有人去探討AI的演算法,可不可以用著作權保護?

另一個問題是,剛剛講的資料庫的問題,如果是用資料庫形式存下來,然後來進行學習,可能會發生重製的問題,但如果不是用轉儲存建立資料庫這種型態的資料庫可能就可以擺脫這樣的問題。那如果有些資料庫是必須用影像的方式來學習,尤其是像醫療的影像,會需要有人對那個影像先進行一些標註,對影像進行標註的意思是說,必須先在X光片或者電腦斷層影像上面去標註,這個地方是屬於某一種病,然後可能要花不少人力先標誌,才能夠讓機器去學習,什麼樣算是腫瘤。

這邊的問題是在於說,請問人的這個標註行為,是不是受到保護的著作權行為?有兩個可能性,一是那是一個人的標註,醫生對於這個影像的表達;但從另外一方面看的話,他其實是按照醫學知識在影像呈現上面做出符合醫學知識的判斷。理論上兩個人去標註應該要標註一樣的東西,但實際面上,可能不同家醫院會標榜自家醫生的標註品質比較好,同樣都是標註,但也許來我們這家醫院訓練出來的AI會比較好。專利適格不應該單純包含演算法,這會不會是基於過去我們對演算法的理解過於狹隘,例如某種數學的計算方式,但這跟現在所談的機器學習的演算法,似乎不是同樣意義,雖然都叫做演算法但應該有不同的意涵在其中。美國的專利法在講演算法的例外的部分,是不是可以直接套用在我們談AI的演算法之中。

沈宗倫:

第一個問題,演算法跟AI有關可不可以用著作權保護。基本上而言,這個東西就像以往在討論軟體的程式或相關的東西,同樣會面臨專利的挑戰,專利上會算是適格外。在著作權中會認為其有功能性,或者會認為它等於是想法的解決,可能會卡在功能性的地方等等。所以演算法如果與傳統軟體的態樣結合來看,其實在著作權上的挑戰也蠻高的,雖然說我國從1996年開始承認電腦程式或機器碼等相關的東西是文字保護的事物,認為功能性、目的性還有很多其他文化的附帶價值,會蓋過它本身的文化創意的主要目的,但著作權在這一塊比較保守。

第三個問題,美國法將其列為例外沒錯,但怎麼解釋不一定,或許某些演算法可能創造出一些所謂技術上的功能或是技術上的獨特性,但主要的目的是不希望演算法僅在內在運作,而是希望走出外面去發生一些功能。但AI可能內在就是外在,不能用一般看技術製程或相關的技術來看AI,因為AI本身就是內化的東西,如果AI本身帶有偏見,卻說這是在模仿人類,對整個AI的技術發展其實不公平,所以要如何套用,未來就要看法官的智慧,法官如何解釋演算法本身是否已超出以往講的那個範圍、場域、效能。法院如果沒有清楚的標準,界定哪個是合格的演算法,哪個不是,就變成大家都一頭霧水沒辦法有一個標準的方向。演算法本身是否有機械的連結或產生質變?我認為AI的演算法裡面就有invented concept,因為我覺得AI的內在就是外在,所以法院要換個思維去思考這樣的問題。

王怡蘋:

演算法用電腦程式著作去保護,把它當成一個新語言,當成語文著作來保護,是否能夠滿足我們對AI演算法的保護需求,這點還不是很清楚。但從著作權的角度來看,確實可以用電腦程式著作去保護它,這也是為什麼在AI的討論裡面,會討論到既然有電腦程式著作的保護,它產生的作品還要歸給電腦程式設計者嗎?因為其實這樣子會有誘因上的欠缺,在歸給同一個人的情況下,誘因可能就不太足或很有限。如果承認的話,權利歸屬其實會有進一步的討論。

至於就影像的標註,法院判決資料也需要標註,其實會有兩個問題:第一,標註算不算是表現?就算認為是表現,其實應該是依照他的專業去標示,所以雖然可能每個人標出來會不太一樣,這可能不是創作空間的問題。因為在著作權裡面要受到保護,要有原創性,每一個人都能有不一樣的設計、創造空間,那在標註上會遇到困難,因為這是本於專業的標註,而非與創作有關,可能沒辦法受到著作權的保護。

陳弘儒:

信託可以去照顧某些非人的對象,我們能不能將AI創作權益的收取,交給某一類的信託公司,讓這些利益歸屬到AI上面?最後一個問題,如果讓一個演算法擁有專利,那它不就沒有營業秘密?

沈宗倫:

信託跟雇傭要回歸的問題相同,就是AI到底可不可以對自己的產出享有利益?有沒有所謂支配、擁有的權利?如果有沒有那個權利,或者如果不明的話,那信託人要如何介入?尤其是信託是不是有專業服務比較沒有專業的,但AI可能有這樣的概念嗎?

營業秘密基本上是優先於專利,即便是公開還是會受到營業秘密的保護,必須符合營業秘密的要件,例如經濟利益以及不被大家所共知、合理的保護措施。營業秘密是很強烈的權利。所以有些演算法的確會選擇以營業秘密保護,因為在著作權本來就可能受到功能性問題的挑戰。

王怡蘋:

以目前的AI而言,的確沒有辦法讓人了解它創作的動機,但可能未來50年後,它可以去表達為什麼要這樣創作,那情況可能完全不同,屆時如果從保護文化、促進文化發展的觀點來看,它其實充分展現了這個面向,那就會是不同層次的討論了,可能完全就是直接用著作權保護。以現在來說,AI的發明主要還是希望AI可以為其帶來獲利,就是經濟上的回饋,如果設計信託機制的話,對於投資人來說有什麼好處?

李建良:

我們一直想要把AI套進目前既有的法律框架,這樣的意義是什麼?因為即便是法人制度,背後也需要自然人運作,但AI本身就是一代理人,和法人的思維就又很難相同。最後會需要歸納的是,AI所帶來的智慧財產權的問題,與非AI帶來的問題會有什麼不同?