人工智慧科技於公部門之應用及其法制框架:德國國情報告
人工智慧與法律規範學術研究群
第二年期(2019-2020)
第二次會議
2019年8月19日(星期一)
主持人:李建良(中央研究院法律學研究所研究員兼所長)
主講人:詹鎮榮教授(國立政治大學法律學系)
◎整理:洪于庭
◎定稿:李建良

國家在AI科技中所扮演的角色
在過去的討論中通常都是討論當民間企業使用AI的時候去擔任管制者的角色,去擬定相關的規範、釐清相關法律責任、智慧財產權的保護。但另外也會擬定政策挹注資金,促進AI的發展。然而在AI發展之中,在從事國家任務的時候,公部門也可能會是AI使用者,使國家的任務執行的更順遂,在此公部門「球員兼裁判」應如何管制。
德國國情報告
德國做為歐盟的領頭羊,目前的AI科技發展上有非常巨大的野心,聯邦政府希望能夠做到成為世界的龍頭。2019年,德國挹注五億的資金在發展AI上面,2025年有一個中期的預算的編列,在AI的技術移轉上面。為促進人工智慧之研究與發展,預估至少增加100名以上之相關領域教授員額,並且著重在技術移轉產業之面向上。
德國AI發展的脈絡
最上位出發點:數位化的契機
從數位化開始:提出工業4.0
工業4.0的強化與興起,打算透過資通科技的發展來協助經濟、工廠,乃至於公部門的行政更有效率、而且具有創新性
- 在此發展出幾個次領域的促進方案:AI、數位經濟(ex.平台經濟AIRBNB、UBER),打破傳統的經濟營業模式。
- 引發當代數位政府、電子化政府的翻轉。
為了因應工業4.0的推展,聯邦經濟部設置了工業4.0的工作圈,共有六個工作圈:
- 民法/民事訴訟法
- 資安法/資料保護法
- 產品責任法/產品安全法
- 智慧財產法
- 勞動法
- 競爭法
其中包括法制面的工作圈「法律框架條件」,負責草擬、研議、提案法規範的相關因應。尤其將焦點放在如何能夠讓中小企業,在安定的法治框架底下,面對科技衝擊,推動工業4.0所帶來的創新方案。
歐盟AI策略方案
透過歐盟層次,希望成員國能夠在這個方案的指引之下除舊布新。方案的主要內容:
- 強調投資在人工智慧方面的挹注(挹注大量資金)成立歐盟策略性投資基金。
- 周邊條件的整備(人員、社會的對話、人才培訓與教育)。
- AI的落實和推行,倫理層面與法治框架的問題(是否公開原始碼、演算法過程是否要用一般人可以理解的語言去發表)。
歐盟提出的GDPR
GDPR成為第二代(或第三代)的個資法規,嘗試建構一個全新的個資的法規範。一方面調和或促進數位化、AI科技發展,不要讓個資法的問題限制了科技發展,但也不能舉著發展科技的大旗,來侵害人權。內容包括:被遺忘權、資料刪除權、資料可攜性等。
德國AI策略聯盟
德國如何回應歐盟框架的內容?
德國在2018年提出人工智慧綱領,是將歐盟法內國化的一個方案,其中提出幾個細項:
- AI運用在德國的終局目標為何?
- 評估目前的發展現況?
- 如何把人工智慧應用在公私部門?
行動領域七:AI和行政權執行兩者之間的關聯性
如何讓AI的發展讓行政權可以更有效率的發揮?
人工智慧除了使用在民間企業也應該用在政府高權之上,藉以調整行政權的傳統缺點:行政任務的品質、穩定性安全性的提升,希望能夠導入電子化的政府,電子化政府不是只有把行政執行數位化而已,而是適度導入AI的技術,具體應用領域,主要是危險防禦、內部內政、外交國防安全。目前德國已經做的:
道路交通儀控系統
邱文聰問:道路交通管理系統,是跟上述所提到的危險防禦?內政?或是外交國防安全?
詹鎮榮答:有可能是危險防禦的部分,難以做為單一性的劃歸而是具有多元的可能性,可能會是預計可能會發生的交通問題、打結的交通。
人臉辨識領航計畫
雖然在德國發展幾乎可以說是禁忌,但是在柏林Südkreuz火車站已經執行一年。德國警方提出的報告指出,其系統人臉辨識率高達80%以上,站在官方立場,德國警方對此是非常正面的態度,希望可以導入人臉辨識系統,利用在危險防禦、犯罪防護,作為執法工具的一環。
人臉辨識系統的運作方式:徵詢自願者,輸入識別其資料,自願者的徵詢是經常出入使用該車站的使用者,其有選擇權可以走藍區和白區,只有走藍色通道的人自願被蒐集資料。
邱文聰問:所以他是在蒐集資料還是有連結後端的資料?
詹鎮榮答:看起來是有的,但這個資料蒐集主要是想看他的資料辨識量有多大,後來報告提到就算是戴眼鏡、戴頭巾、或是走過去與他人重疊的的時候,透過後端資料庫還是可以辨識出人臉。
邱文聰:如此看來這個技術應該是在發展人臉辨識而不是與後端資料庫的連結。
MANNHEIM犯罪回報及查緝計畫
透過錄影機的監測去監測何種行為是危險的行為、憤怒指數,如果有情境是進入其預設的情境時,會立即回報給主管機關。除了當場監控以外,也會自動去啟動追蹤系統,就會開始串聯沿路的監視攝影機去讓主管機關可以追訴犯罪。於香港反送中行動,有幾個年輕人將五星旗往海裡丟而被逮捕,根據新聞媒體,智慧路燈加入人臉辨識系統, 目前中國有大量使用人臉辨識系統,Mannheim比較像是去辨識當時的模式跟人民的反應,而去追蹤犯罪行為人。
自動化行政之立法
2017年行政程序法已經納入行政程序法的框架:
行政程序法第35a條:行政處分得依法完全由自動化設備作成之,但以行政機關無裁量權或判斷餘地者為限。類似的規定出現在:社會法典第十部第31-1條;租稅法典第155條第4項:羈束決定、專法保留(必須有專法授權導入自動化)。
目前較多的是使用在課稅處分的決定。
德國學者在討論此一新修法的討論也提出幾個質疑:
- 全自動化設備與人工智慧的區隔為何?立法者的真正意圖為何?作為輔助,又或是放任人工智慧自己去學習、使其可以發單和裁決。
- 如何確保正當行政程序?警察行政?可否跟AI閱覽卷宗?
- 古典的行政程序,程序正義的保障如何確保?
AI作為行政決定的輔助系統:作成行政行為的「主體」不因為AI的導入而改變行政行為作成主體的質變。
GDPR的限制及例外許可
- 歐盟資料保護一般規則第22條第1項
- 要因應GDPR的立法,德國的第35a條是必須要再有另一波的改革才有可能去確認GDPR和德國內國法的主從關係。
AI與法律——工業4.0的結案報告
- AI與法律人格
- AI與資料進入及保護責任
- 源自於AI的智慧財產
- 勞動法
- 資安與AI
法治框架的影響:樂觀說,有可能會去執行
歐洲人權憲章第41條:良善行政Good governance,若是透過AI應用可以讓公部門行政效率或品質的提升,就應該是一種良善行政。
聯合國身心障礙者權利公約: 如何促進身障者的保障,運用輔助性的技術,如果能夠幫助身心障礙者,若是AI的導入可以讓身障者的生活環境更好的話,政府應該去做。
批判:這樣的導入是不是只是政府客觀上的裁量權、或是更高密度是一個做為義務。如果政府滯怠不前,人民是不是有請求政府作為的義務?學者也沒有一個確定的答案。
聯邦資通安管理法:主管機關有義務維持資通安的相關框架,可以透過人工智慧的AI系統,自動去巡航或是巡查資訊安全,透過自動化的示警功能,去補足行政任務的不足。
實驗性法條的導入
目前常軌化的法條其實並不多。
各邦目前多有立法,容許、幫助政府將AI使用在公部門的執行上,而且是一種實驗性的條款,透過特別立法暫時排除普通法的限制,主要排除:
- 排除管轄權
- 行政行為形式的規定(如:必須以書面、證書為之,非既有法律的方式來作成)。
- 主要可以看到行政費用法、行政程序法、行政執行法,以通案式將法規範排除適用。
行政政府部門運用AI的九點結論
其中最重要的部分:
- 考慮行政法院的審查,行政行為的可審查性
- 人始終是最終的決定者,政府始終會是最終的決定者。改變僅是科技的導入。
- 「科技始終來自於人性,也是為人性服務。」

問題討論(敬稱省略)
李建良:
大家比較關注的是德國的行政程序法第35a條和GDPR的關係,但其實GDPR第22條第1項根本沒有辦法直接適用。如果直接適用的話,可能就會跟台灣的個資法一樣。行政程序法可以用全自動的處分作成,好像一個授權條款,事實上不是,授權條款應該要回到專業性的法律去授權。
自動化與AI的關係,自動化是很早就有的,但和AI的關係是什麼?
行政程序法第96、97條,「用自動機器作成的行政處分」?是否透過法律的解釋是不是就可以直接涵蓋?自動化的行政跟AI之間是否是相等關係?或是不同?
楊岳平:
授權的實驗性條款,凍結既有的行政程序法的問題?
這樣的實驗性條款是否是用來讓幫助行政機關在做成行政決定的時候可以豁免一些原本既有的義務?
金融監理沙盒並不是用來對行政行為做成的時候的實驗性的,而是被管制者如果以新的科技應用的時候,可以去申請相關的實驗,這兩個是否不同的問題?
- 自動化行政?這世界上真的還有羈束決定的存在嗎?就算是寫得很羈束性還是有一定的裁量空間,是否真的有可以落入定義中的羈束決定存在?
- 就算是租稅上是否還有可能裁量的空間?是否要考慮實際實務層面的問題?
- 有沒有可能解釋成GDPR沒有與德國行政程序法第35a條不衝突?因為GDPR的規定只是規定人們有再次請求做成決定的請求權?那麼人民可否直接放棄這個權利不要行使就好?
詹鎮榮:
可以讓這些科技發展可以無視於行政程序法的規定,只要發展就對了。如果從古典的行政法來看,從規範面來看,其實還是有羈束處分,以目前的狀況來說還是有的。
李建良:
路邊停車費的繳費單據是否是羈束處分?因為其不需要裁量而只是一個時間區間。
自動化和主體性的問題:自駕車的規範,不可以發展一個人被物化的自駕車。不可以讓發展自駕車的結果變成人被物化,政府不應該讓這樣的發明上路,因為有違反人性尊嚴的問題。
沈宗倫:
人類對於行政行為救濟,會不會有可能將不只是基於法規適用錯誤、做成的處分不恰當,而是基於不信賴感對於人工智慧機器所為的行為而去救濟,而造成行政法院的訴訟關係變得更加複雜?
詹鎮榮:
從古典的公法學來看,人和政府之間並不會用信賴來說明,毋寧說是「適法性」,適法性中可能會有的,政府的行政也必須要有誠信原則的適用。
沈宗倫:
行政法院可不可以用AI去審查這個行政處分?因為行政部門的介入,從使用者、促進性的角度,這方便的發展會不會因為政策的關係,或是發展進程的關係,而影響AI。
詹鎮榮:
目前台灣也導入AI作為量刑系統,AI最大的功能,尤其是針對公部門,尤其是在針對裁量的部分,是針對行政立法司法權,處理人的思想以外更細膩的部分。德國目前的狀況,目前德國還在非常保守的狀態。但律師事務所已經導入AI作法律諮詢,當然這也會涉及律師倫理與律師法的問題。
王立達:
目前我們所能夠想像的全自動機器:紅綠燈,德國如何去處理這個問題?他原本的條文是在說舊的那種機器,能不能包括AI當然會有可能有很多解釋方法,德國如何去處理這個問題,而目前修法之後已經所指得是有AI的新機器?
AI到底為什麼作成這個決定其實對於人來說很重要,但理由其實對我們來說是很重要的,我們是否可以使人工智慧產出一個報表去告訴我們他是怎麼作出這個決定的?如果沒理由,進到法院之後根本就只能用人工來決定,或是法院用AI重新算出。結果內容不一樣,是不是就要廢棄原本AI的結果?
如何去跟AI分工,或是AI是否可以了解或陳述意見。
詹鎮榮:
目前我國的自動化概念,和德國的程序法的概念,其實就只是用機器來呈現行政機關的意思表示。紅綠燈燈號的變換,在學說上仍舊如同當作交通警察站在路邊指揮交通,古典程序法所說的自動化機器只是行政機關意思表示的延伸。(或是表示方式的不同)
但德國行政程序法35條,其實重點是要說一開始可能只有一點點人工介入,但裡面調查、行政決定、計算、做成處分已經沒有人為意思表示的牽引以及取代,但其中會需要給予他資料庫以及相關的資料。所以德國的行政程序法第35-1條其實重要的還是前面所提及的要件:專法授權、羈束處分。確實能夠發揮得並不大。
邱文聰:
紅綠燈是羈束處分嗎?何時是紅燈何時是綠燈,這個紅燈綠燈的時間其實是受到個別的裁量而沒有經過法條的拘束,應該關鍵問題不只是法律效果,還有構成要件的規範性和拘束性,如果構成要件已經不需要再去判斷,那就可能落入羈束處分的可能。
詹鎮榮:
在目前的資料中,第35a條根本沒有應用的例子,因為就是要先有專法開放且是羈束處分,所以其還有發展的空間,但目前這個立法比較像是將拘束打開,去發展。單純從這個觀點來看,以後透過科技系統的協助,或許有空間可能會讓行政機關做成行政決定的理由會越來越細緻,至少不會因人而異、或是因為公務員的性質,可以造成風險降低的可能性。
誰作成行政行為?目前在短期之內德國的答案應該不會改變,就算是沒有意思表示的介入,仍然還是要究責行政機關,但也不確定是否有可能會發展出人工智慧的法人格。我國行政程序法102條、103條,大量作成行政處分本來就可以適度減少意見給予的機會,就這個部分,正當行政程序的賦予本來問題就不大,如果要用在個案裁量的可能,那就要嚴陣以對,以目前立法的政策和技術仍然沒有一個明確的建議,大多就是現象觀察而已。
王怡蘋:
海關自動出入境,以前是海關人員看你,現在目前是通關系統的攝影機,然而目前我們根本不知道,到底是攝影機後面有資料庫在審查,或是攝影機背後就是一大群海關人員在檢查?在講自動化行政行為的做成或決定的時候,假設去認為海關很先進,裡面有AI的學習,裡面有指紋、人臉辨識,去判定是否開門,但也是會有過不了通關系統的時候,那麼這樣的系統是不是一個初步的實驗性的系統,在我們開始發展AI之前?
邱文聰:
在行動綱領中似乎有提到開放資料庫的無限制運用?在這裡目前僅是一個綱領,德國事實上的立法是不是已經做到說可以讓政府部門的資料去分享?綱領是不是僅是一個宣示性而不是實際上去直接立法?
詹鎮榮:
在目前比較像是政策面的,主管部會應該是經濟部,目前還沒有去看到立法真正的回應。
邱文聰:
如果要發展AI,勢必需要大量的資料庫讓AI可以去學習、當作是基礎,如果是台灣的話可能就會直接開放資料去利用,但如果是德國的話可能就沒有這樣的開放,那是不是就造成AI的發展需要去先得到社會一般的共識,目前德國的發展大概是如何?
詹鎮榮:
我們幾乎找不到一個導向單一的學界內容所支撐,在目前的討論也是相當熱烈,可以推測目前德國應該會尋求一個不會是全然開放、毫無條件的去提供資料給社會大眾使用。但目前還沒有立法去規範這個部分,所以很難去觀察他將會將管制的點設在哪裏。政策綱領對於過去用個資去箝制發展的說法是有很大的衝擊的。
李建良:
然而關鍵還是會環繞在人才是最終的決定者。人工智慧做成的決定,最後還是會歸咎到行政機關。從規範上不會有太多的開展性。但比較值得思考的是兩個部分:實然與應然,實際上就是人做的決定,還是這是一個應然的訴求。實際上已經不再是決定者了,在訴訟中,如果行政機關根本就不再是決定者。行政機關是不是最後還是要舉證自己才是決定者?人是最終的決定者到底是實然還是應然?AI在公部門所呈現的各種面貌的問題,從法律或是法律人的角度去看待,如何和科技對話。
邱文聰:
GDPR第22條某種程度上還是把它當作應然,賦予當事人請求必須讓人介入做出決定。然而,目前這個應然有可能會被型態化,就是實際上面放了一個人,但實際上這個人被機器所主宰?一個醫生有多大的勇氣,作出跟AI不同的決定?
楊岳平:
在這個基準上,我們還要堅持人是最高的決定者嗎?