AI Guidelines與白皮書

人工智慧與法律規範學術研究群
第二年期(2019-2020)
第三次會議(主題一)

時間:2019年9月26日(星期四)

主持人:李建良(中央研究院法律學研究所特聘研究員兼所長)
主講人:劉靜怡教授(國立臺灣大學國家發展研究所)

◎ 整理:邱筠雅、洪于庭
◎ 定稿:李建良

Photo by Ars Electronica on Foter.com / CC BY-NC-ND

劉靜怡:

先跟大家分享AI Guidelines的形式與寫法:

EPIC基金會提出的AI Policy Source book 2019,其分成三個部分

  • Official AI Guidelines
  • Expert AI Guidelines 專業組織
  • Corporate AI Guideline

本研究群未來是否要產出類似的Guidelines?

我們要站在什麼立場,撰寫AI白皮書?是否像OECD作為一個國際組織,希望其成員國應遵守的準則?

邱文聰:

本研究群預定提出的AI白皮書,第一個部分是衝擊影響的描述與分析,架構如下:

  • 已有相當認識之衝擊影響?
    • 目的外利用的常態化:在AI時代,目的外利用會變成常態化的現象,過去個資規範是以特定目的為限,有可能因為機器學習、大數據,可能會使得目的外利用常態化
    • 合法基礎建置成本的外部化:要大規模的取得資料同意,就變得困難,可能需要透過其他的方式來做,會架空資訊自主的情況。
    • 訓練資料無從真正去識別化的困境:訓練資料沒有辦法真正去識別化,其實很難達到法律上定義的去識別化
    • 資料提供訓練利用潛能難以事前預見
  • 如果沒有進一步要研究確認的衝擊影響,就會進入法政策規範的初步提議
  • 法政策規範之初步提議
    • 可以分成現在學界內部或是以研究群當作範圍來談,可以形成共識的部分的主張有哪些?再列點下來寫出一些Reasoning
    • 目前的做法:由文聰與當週報告的老師先開會討論什麼是可以成熟到可以提出共識的?哪些是可以正式提出初步規範的?以事前先把Reasoning寫出來的方式,讓大家可以先在開會前看到,先確認這樣的reasoning是不是連非專業領域之人都可以被說服的程度?
    • 有待進一步取得共識的法政策主張,可能會有幾種?要有什麼樣的model?
    • 預估起來一章大約三千字左右,大概是比較政策取向而不是像文章一樣,寫作密度可能沒有這麼高

李建良:

目前就先不討論實質內容,只確定形式。
目前政府部門也正擬議提出一份白皮書。但政府部門與學者提出的白皮書,在定位上及實質內容上,都不會相同,尤其是由法律學者提出的版本,涉及層面包括法律體系及其適用的影響評估。

劉靜怡:

OECD 和其過去的文件寫起來都差不多,前面會有前言去講內容包括哪些事情。可能跟privacy最有關的就是section 1的部分,尤其是一直到1.1、1.2部分。後面其實也有guideline是相關的東西,因為在這樣民主法治的概念下,所以希望可以有trancparency、可解釋性、security safety之類的,我們有沒有必要寫到這個樣子?最抽象的部分?
法治原則、對人權的尊敬與保護,價值,因為基於這些東西,所以要有透明度和可解釋性,才會有邱文聰在書面裡面寫的這些東西,到底要不要談?

邱文聰:

我們預計在每一章的第二節才會有像OECD的guideline類似的東西,在每一章的第一節,我們學者的白皮書的價值就在於此,就是多了對於衝擊的評估。其次,關鍵在第二節的部分,到底是要多具體或抽象的層次,目前沒有辦法一概而論,可能要視討論什麼議題簡單來說就是,當爭議能夠settle到一個程度的話,越能夠去到規範的層次去討論。如果爭議越大越無法取得共識,就可能只能停留在抽象的高度。可能就現在的架構來說希望可以具體而細緻化,而不是停在抽象的概念。在台灣的脈絡之下有什麼事可以去做的。不然就會像另外一份OECD的文件一般。

劉靜怡:

另外一個要講的就是Berlin Group的working paper。這個working paper更具體,去定義要討論的scope和definition,到底演算法是怎麼去學習的,去把它寫出來,此外他將一些example做出來,去寫出例子來。這樣做有一個好處,是把抽象的隱私保護的東西寫出來,並舉出例子,說明可能面臨何種privacy change。

邱文聰:

確實在第一節的衝擊影響描述包括什麼?應該在白皮書中所衝擊影響跟描述包含的是什麼?實際技術狀態的描述,對各該法領域的衝擊是什麼,在這次的草稿裡面,雖然沒有很具體的例子,但應該是隱含在某些技術的特徵寫出來,但因為沒有辦法一般化,比如說下一章要談著作權,他所要談的scenario可能會不太一樣,不同法領域面對的衝擊可能會不一樣。產出的東西可能有所不同,如果大家最後要講說除了第一章以外,再去寫一個第零章,也許把所有一般性的技術問題放進去。所以應該視我會跟每個月要報告的老師討論,到底目前有遇到衝擊影響到底是什麼、有什麼爭議去列出來,做出來之後再去講第二節的法規範

李建良:

一定要有一個第零章,我們要去設定對法制的影響,可能是在各個領域不同的,對法制的影響跟因應的話,我們是否先把題目訂下來?雖然不是百分之百確定,但從草擬的方向是否可以先表示意見?

邱文聰:

請大家就原本負責的題目中去看是否可以用剛剛的架構去討論?

劉靜怡:

隱私的部分還是有一個特殊性,其實通常是在說一個科技出現之後對於自主權的影響,所以我們會從防禦跟保護的方向去想,但並不是每一個法律領域都是這樣,有些領域可能是強調當一個科技被發明之後,應用在這個領域裡面會遇到什麼樣的問題,有哪些必要的規範來做safeguard。基本上這樣的架構應該是行得通的。IEEE的資料也許是參考價值最高的

李建良:

接下來我們就是要follow這樣的做法,我們要朝向什麼樣的型態?他在形式上的內容可以是有建言性的、還是非常規則性的?邱文聰老師目前的草稿也是這個方向。大致上有一個想像呈現出來應該要是什麼樣子?

楊岳平:

我們目標鎖定的觀眾是誰?任何人都可以看嗎?

邱文聰:

目前還是聚焦在法政策制定者

李建良:

還是希望可以影響法規範。不管是在政策或是在行政具體的作法,有具體的政策目標,可能是有特定的有政治目的或目標,我們今天還是回到以學者的立場來看AI這個問題,從法律學的角度來做,有很多是從政治學的角度或是倫理的角度,目前應該還是會回歸到我們的專業來做。就像上個年度,各個不同的報告,做報告討論的內容也是以法律的內容的關懷,稍微把方法改變,內容我的理解應該其實並沒有太多的不同,只是一樣的研究,不是以論文的方式呈現只是今年是以白皮書的方式處理。

邱文聰:

學者對於政策的建言,所以不只是學界內部的討論,他的觀眾可能是一般人,要說服的不只是政策制定者也還有一般人,內容不適合太過艱澀。

劉靜怡:

在寫作上面去避免作為政府的立場去宣示或表示什麼?

黃居正:

難道我們不用考慮到白皮書的時空的限制,不管是目前技術的發展方向,政府已經開始做什麼,不然就是把規範政策的發展方向蒐集過來,甚至就會像政策的翻譯。必須要有本土化、在地化的設想與預測,如果我們沒有回應這個部分,就會比較像是大雜燴或預言式。

邱文聰:

時空的條件應該會反映在草稿的第一節跟第二節在寫的這個草稿來講的話,個資上面是以台灣當作進行的描述的嘗試,雖然看起來一般化,因為大家遇到的問題其實相類似,對於現代法治衝擊的影響,我們是否要把哪些法律規定寫出來?我們會不會在第二節要去具體地指出台灣的法治有什麼需要修改的。在這次的草稿裡面,已經蘊含了這些思考在裡面。

黃居正:

我們有很多問題是沒有在地化的問題,在討論到某些問題的時候,比如說合理人責任,但很顯然我們沒有知識論、整體論,因為這些東西都是進口的。在一樣的狀況,寫出來的東西可能會混成一團。

邱文聰:

所以希望可以在設定這個架構的時候,把這個方向跟調性寫出來,讓這個可以標準化下來有一個很清楚的orientation,要回到台灣的法規範的脈絡,去談現在正在台灣進行中的技術。我們可能沒辦法從百分之百的掌握現在發展的趨勢,也許現在可能不夠精準,但這個是我們對技術的掌握能力,可能我們只能用比較二手的角度去得到這樣的資訊,如果在衝擊影響或分析,如果有實證的資料可以放進去會更好,所以才會列有一個次小節「有待進一步研究確認之衝擊影響」,可能台灣還缺資料,不知道它發展的狀態,需要更多的學習,是目前台灣的資料還沒有掌握到的,不是過去的那種比較法研究。

李建良:

我們在做法學研究本來就有問題的話,那現在也會有問題,透過這個東西去看平常我們在做的東西是否有需要調整,這個白皮書應該不是一個新的東西,只是呈現的方式不是論文的方式,不去做論辯或什麼的。其實看到這個問題,從法律人的角度來看,應該要注意到什麼問題,去發掘問題,去提出一些也未必就是一種對策,就是一種因應,剛剛劉老師也提到,像白宮的部分,那未必是我們要follow的做法,但裡頭的問題可能是我們所要研究的。我們之前去做的是不同領域的做法,如果是適用論文式的,又會變成變成論文合集,我們比較希望可以是從法律人的問題的看法的匯集。不期待做出來的內容是大家都贊同的,問題是應該要是開放的,從法律的觀點來說是怎樣的?具體的作法是什麼?雖然今天是以資訊隱私做為內容,但今天還是希望能夠把框架找出來,之後每一個月再依循這樣的方式來做。

劉靜怡:

最後一個comment就是,目前邱文聰老師現在的東西是沒有去區分這個個資是在什麼樣的部門中被處理?是公部門在處理的話有哪些事情要注意到的?私部門在處理的話,要注意什麼?比如說犯罪控制預防也許就會比較多去談公部門的應用,所以在這個部分的問題,可以去考慮要不要這樣處理?所以在法政策或法規範的建議上面就會有不同的要求。

CCPA談的絕大部分是私部門,這個東西被被認為是美國的GDPR,內容講到裡面就算是私部門,我還是會基於所謂的自主性隱私權受到保護還是會有平等服務請求權,但如果是公部門,也許是說政府不可以有差別待遇,各種部門使用AI個資的問題。

邱文聰:

我們不可能把單次的書寫模式,也許不用一次就把所有的問題解決。

李建良:

我們今天能不能先把Framework確定下來?

黃居正:

如果有cross section 在裡面加入,做到後來可能會發現有大家都有的共同的問題。

何之行:

歐盟的AI和GDPR最多的文章最多的是在討論有沒有解釋權這個問題,也就是歐盟的GDPR到底有沒有提供解釋權的請求權基礎。解釋權所回應的透明性原則,透明性原則其實跟framework提到的資料的二次化利用跟去識別化,其實可以接續著去討論AI的正當法律程序。是否有可解釋性?


接續主題(二):AI中的個資保護與資訊中隱私——GDPR中的請求解釋權