AI的風險、監管與治理

公共性與AI論壇(三十二)

時間:2024/05/08(三)10:00-12:00
地點:中央研究院法律學研究所 第一會議室

主講人:何之行(中央研究院歐美研究所副研究員暨香港大學醫學倫理與法律研究中心研究員)
主持人:李建良(中央研究院法律學研究所特聘研究員兼所長)

Photo by Simone Hutsch on Unsplash

一、演講大綱

這次的演講可以分為三個部分,第一部分為「AI可能帶來的風險」,第二部分為「AI可能產生偏見(Bias)的原因,第三部分則會探討「如何可以對AI所帶來的風險進行更好的監管與治理」。

二、AI系統與人類態度的演進

在2023、2024之前,以AI立法而言,全球還沒有一個如歐盟AI Act的系統性規範,雖然有白皮書(white paper)或是指引(Guideline),但這些都不是一個完整的、藉由立法模式形成的法律;在2010到2020年之間,AI發展還處於深度學習的階段,應用的突破多半在於圖像辨識(Image Recognition);2017到2018年間AI對物件辨識的能力幾乎可以與人類相當或超越人類,也因此開啟了之後對於AI的想像與各式應用。

在2017、2018年左右的文獻當中,人們開始探討是否能發展出公正、客觀,能協助人類消除偏見的人工智慧,特別是協助人類做出決策—像是司法判決、資源分配,就如同這裡所用的新聞標題「AI Prevail」可以看出當時人們對於AI的協助抱持著相當正面的態度。

然而三、四年之後,人們以開始反省大量在生活中使用AI所造成的風險,約莫從2020年開始就有大量的文獻在反省,應用AI系統是否真的能做客觀公平?

總結來說,在AI的研究中,2017、2018和2020、2021是兩個比較重要的分水嶺。

三、AI產生的偏見

(一)司法應用

在量刑系統上若利用過往的資料,例如,美國黑人過往的再犯率高於白人,因此若使用這個資料來訓練AI系統,且希望預測未來時,結果常常會複製跟重現既有的事實,反而加強社會已存在的偏見,如美國COMPAS系統所帶來的問題,然而很多文獻已在探討如何透過演算法揭露或矯正的方式,讓AI系統達到一個更為公平的決定。

(二)生活中的應用

在生活中最顯著的例子是每個人使用電腦去搜尋,所得到的反饋可能會根據過往的搜尋紀錄而有所不同,演算法藉由過往紀錄客製化搜尋結果,例如:提供給女性的就業廣告通常與男性不同,且大多不是領導階級的職位,賣車的廣告也通常不會是最貴的車種。

(三)言論自由與民主

除了上述兩個面向,演算法的介入其實對於言論自由與民主的影響最大,如美國大選中有人質疑多大程度上演算法的介入可能讓選民只能看到一方候選人或是他們已經熟悉的資訊,許多資訊已被演算法過濾掉,這些過濾機制讓我們原本期盼民主社會中多元的資訊傳達受到限制。

(四)小結

上述都是大家所熟悉的例子,問題在於如何使用較為客觀的方式去量化或檢測這些偏見,這會是規範上希望能夠處理的部分,

四、演算法偏見如何而來?

黑盒子(black box)

如何讓演算法變的更透明是規範制定者想要努力的方向,包含類神經網絡得出結果的過程,以及在進入到運算的過程之前,包含所輸入的資料不具代表性、人類訓練的標註帶進人類偏見等都可能造成演算法最後得出的結果是具有偏見的。

以醫療系統為例

資訊標註

如何使訓練資料具代表性,且正確標註非常重要,以emotional AI為例,指目前認知科學僅將情緒分為七大類,但人的情緒不可能只有這些類別,甚至會有一些隱藏跟轉折,所以在標註時如何處理分類(label),其實包含了個人主觀的判斷;疾病上也有相似的例子,比如在中醫標註的「精神衰弱」很難去對應西方的ICD code,要標註為一種精神疾病,或是亞健康狀態,這時候的標註就會影響到AI產出的結果,因為labelling本身反映了人類對於這個現象既存的社會判斷。

再以Amazon公布的人臉辨識訓練圖像為例,白人男性準確率近乎百分百,而黑人女性的正確率卻降到七成以下;這樣的結果如果未能充分揭露訓練AI所使用的資料與態樣,應用這套系統在不同人種時就會造成偏誤。同樣的例子是美國臨床醫學中常缺乏黑人皮膚病患者的資料,造成AI輔助臨床診斷的預測系統比較容易造成誤診,這是因為美國的醫療照護相當昂貴,如同COVID時期,黑人可能選擇不就醫,但若AI無法察覺這裡的因果關係和醫療成本相關,就可能錯誤推導出膚色越黑的人越不易患皮膚病的錯誤結論。

AI的錯誤推論會讓臨床輔助診斷漏掉一群很需要照護的人,一開始可能是只是臨床上被忽視的單一個人,但當單一個人變成其所代表的群體時,這個群體極可能是弱勢與少數,如:移民、兒童、老年人、身心障礙者;當我們只著重在過往的資料,我們會不自覺的忘記事實上有一群少數群體在資料集中常失去其代表性。

有些人會很直觀的認為這樣的問題其實在AI出現以前就存在了,但是AI會深化它的效果,當我們無法反省或意識到演算法可能存在的偏見,就會更傾向相信它所做出來的決定;最令人擔憂的是沒有AI時社會上已存在的偏見狀態,在AI應用後不但沒有矯正,反而更深化了這些偏見的合理性。

醫療從業人員信賴度

一篇於2023年發表的英國實證研究,醫療從業人員對於AI的信任度其實並不高,特別是對於臨床輔助系統(CDSS Clinical Decision Support System),很多醫療人員都表示擔憂感(loss of control),除了擔心CDSS沒有辦法讓他們像以往一樣信任自己的判斷,更擔心的是在法律層面,最終仍讓醫師去負擔使用AI所帶來的損害責任,不論該損害是AI的演算法本身造成的,還是醫師信賴AI的演算法,或者是醫師本身判斷上的問題,只要使用了演算法,法律不去區分情況,都要醫師來負責;因此醫師會認為法律的規定不夠明確,不清楚的部分在於沒有細緻的責任分配,無論是產品製造商、訓練或使用演算法的人,對醫師而言,現行制度都需要他們擔負責任。

很有趣的是,研究指出醫師對於演算法的不信任,並不在於CDSS給出的建議是否足夠準確,而是擔憂AI能不能涵蓋到醫療照護關係中「帶有價值的判斷」,例如符合「病人最佳利益」的判斷是甚麼?要不要開刀?用什麼樣的治療選擇?AI是否能回答帶有「價值性」的問題。

當AI被置於每個決策的最高位置,傳統的注意義務(duty of care)就會受到挑戰。傳統上,過失責任是基於應注意而未注意所產生的責任。然而,當AI參與決策時,何為應注意而未注意會出現判斷上的困難。例如,是否每個醫療決策都需要AI輔助系統的雙重驗證才能被視為醫療從業人員已盡到注意義務?這將影響未來的注意義務是否必須包括AI的應用。

五、道德預設

(一)光譜型的道德預設

為了消除或減少偏見,我們需要在訓練資料過程中進行完整的稽核,這是AI治理的一部分。此外,我們需要更完整和優質的數據庫。最重要的是,我們必須意識到可能的偏見來源。偏見可能來自於數據本身或標註過程,但我們常忽視的是「誰」在教這個演算法?以及我們教了它什麼?例如,加州矽谷的白人男性工程師教出來的演算法,可能會忽視多元社會或女性的的視角,這種同溫層視角的缺失是我們需要警惕的。

而不同的道德預設反映了我們帶入AI的價值選擇,諸如支持功效主義或是自由主義,這些道德預設的差異可能會讓我們對於同一個問題做出極為不同的選擇,而這些道德預設反映在我們生活的每一個層面,特別是資源分配的例子。以COVID時期的疫苗短缺為例,各國對疫苗分配優先權的安排順序可以看出該國所採取的是功效主義或是自由主義的道德預設,如台灣將疫苗分配給醫護人員、急需、慢性疾病的病人,接下來是年長者與孩童,最後才是青壯年;從這樣的分配來看,背後的道德預設是保護較為弱勢的團體;但義大利曾討論採用混合型模式,一部份疫苗優先分配給最弱勢的族群,但一部份卻讓一些青壯年施打,因為義大利的高齡化非常嚴重,因此除了保護弱勢外,也希望國家的生產力可以延續。

上述的例子說明我們在做每一個決定的背後都帶有道德預設,但人們往往不見得意識到其決定背後所反映的價值或道德預設為何。

(二)科技的客觀性

科技是否真的客觀?事實上,技術與科學不能抽離社會脈絡作判斷,科技的研發、應用背後就一個權力(power)存在,而權力牽涉到的問題是,這是誰的權力?這是誰的決定?誰可以為這個決定負責?

人為決定可能存在偏見,而思考如何建立一個具有可信性(trustworthy)的AI,即是如何回應AI風險和歧視的規範性問題。

歐盟在2019年提出了7 個principles for trustworthy AI,這七個原則影響了歐盟和許多國家對於AI規範的架構性思考,在這個七原則當中,包含了以人為本,隱私權(privacy)和資料治理(data governance),演算法的透明性(transparency),然後須反映這個社會的自由與多元性(diversity),如何建構一個對於人類和環境友善的AI系統。

六、歐盟的AI立法

生成式AI於2022年11月問世,帶來大型語言模型的新的挑戰,Stanford 的Human Center AI中心出了很多生成式AI的指引(guideline)和白皮書(white paper),特別著重在以人為本以及生成式AI的治理;歐盟在醫療監管的部分,使用部門式立法,如:Medical Device關於醫材的規定 ,考量AI的應用目的(intended use),以此進行分析驗證(analytical validation),在產品上市後持續監測(ongoing monitoring)所產生的真實世界的數據(real world data),再利用這些數據回頭檢視演算法的準確度,所以這還是一個滾動式修正的監管方式。

相較於Medical AI的部門式立法,歐盟於2024年3月通過了歐盟AI法案,這個法案將AI分成不同風險等級,如高風險或不可接受的風險,而沒有被歸類到高風險分級的AI則是或不能接受的AI,歐盟允許業者依行為準則(code of conduct)做規範。這裡最核心的概念在於歐盟認為AI風險是可以預測的;這個風險模型除了被禁止的不可接受風險外,高風險的AI有相對應的規範要求,輕微的風險被歸類在限制風險(Limit Risk),對於低風險(Low Risk)或最小風險(Minimum Risk),則採用行為準則(code of conduct)。

最終2024通過的立法在分類上略有不同,主要是在高風險的部分,把限制風險上升到透明度要求,低風險(Low Risk)改成Minimum Risk;主要的不同就是只要被分類為高風險的AI,就必須滿足透明度的揭露,Minimum Risk則是自願性的Code of Conduct,希望業者能以自律方式監理。

七、歐盟立法中AI風險分類

(一)完全禁止的AI

歐盟列為不可接受風險的AI大致有下述幾個類型: 例如,具有操弄性(manipulate)、社會評分(social scoring),另外還有即時生物辨識系統(real-time biometric system),通常被拿來做犯罪預防,但在規範上容有很多的例外(exemption),例如AI Act不適用於反恐和維安(security),歐盟AI Act如何和GDPR調和也是目前許多人在討論的問題。

(二)高風險AI

高風險AI當中最重要的是透明度的要求,只要是和人有互動的AI,如:ChatGPT、人才招募篩選、銀行借貸等,若是利用AI在進行,就須揭露,讓人們知道互動的對象不是真人

被匡列為高風險的AI系統包含教育、執法(law enforcement)、移民、就業等,因為這些AI應用和基本權利直接相關,在最後的立法討論中,它們被歸類為高風險系統。高風險AI除了滿足透明度要求之外,還有文獻紀錄留存(documentation)的要求,這和AI的稽核相關,當AI被設計到應用端的時候,須有完整的檔案紀錄、稽核讓AI系統的運作可以回溯,以便日後追蹤。

除了透明性和稽核外,高風險AI須有人為監管(human oversight)的機制,這個監管要搭配基本權利影響評估(fundamental right impact assessment);在GDPR中我們看到的是資料影響評估(data protection impact assessment)或是隱私影響評估(privacy impact assessment/PIA),AI Act新的立法差異在於以往我們只看到關於隱私或是資料保護衝擊式的評估,在AIA是對於基本權進行脈絡評估,從這個影響評估的不同之處,可以發現歐盟AIA的規範範圍較GDPR更為全面。

(三)系統性監控——生成式AI(GPAI)

2022年11月生成式AI(GPAI)出現之後,歐盟2023年6月以後的立法討論大都在回應AIA的風險管制模式是否也適用於GPAI,一開始法案使用的是基礎模型(foundation model)的概念,也就是說一個通用目的的模型並未限定於何種特定的目的場域,因為應用脈絡是動態(dynamic)的,因此很難在一開始就先作風險預設。再者,過往在討論規範模式時,大都以製造商和佈署者的責任義務為主,從風險分級方式來看,很少去討論到使用者(user),然而在GPAI中,實際上是使用者來決定如何應用AI系統,所以較難以預測使用者會如何使用AI基礎模型。

最後歐盟的處理方式是將傳統上的先決風險(pre-determined risk)依據不同的風險類別,以其是否具有系統性的風險 (systematic risks)做分類,概分為兩大類:

  1. 普通層級的GPAI
  2. 系統性風險的GPAI(general purpose AI with systematic risk)

兩者的規範義務不同:普通型的GPAI只要滿足著作權(copyright compliance)和透明性規範,日後GPAI在使用公開資料做訓練資料時,就必須處理著作權和透明性的問題。

具有系統性風險的GPAI,除了前述透明性和著作權的要求之外,還要滿足減少風險(risk mitigation)的義務;不過這裡會碰到一個問題,就是應如何判定屬於系統性風險AI?以ChatGPT 3.5與4.0的風險評估而言,歐盟對於風險高低的認定方式是用算力做評估,因此認為GPT 3.5屬於一般風險,GPT 4.0則被歸類到系統性風險。這種判斷方式招致很多批評,藉由Open AI公司的法案遊說,最後只有GPT 4.0以上的GPAI系統需要滿足降低系統風險的規範,如意外事件回報,網路安全要求等;另外對於能源的消耗也須揭露。

八、走向美麗新世界?

目前歐盟AI Act的規範注重在風險分級作討論,而不是用權利保護的概念作規範,GPAI的出現可以讓我們思考適不適合僅以風險分類的方式規範AI?AI使用的脈絡改變的時候,風險是不是也會跟著改變?AI對於人類跟文明產生的衝擊,尤其是大型語言模型對於民主、法治或是人類自主性的削弱會產生多大的影響其實尚未可知。此外,大型語言模型系統耗能太大,是否做一個綠能AI(GreenAI),盡量透過小規模的edge端AI來取代大規模AI的雲端運算?

這些討論都不是歐盟AIA面對處理的問題,但這不減其重要性,對於AI的治理與規範的討論,可能需認知法律在規範層面的侷限性,再回頭想一下AI會對於人類文明造成如何的衝擊?會將我們帶往何處? 我們又需要什麼樣的人工智慧,反思這些問題,可能可以比較好的回應AI治理的相關議題以及它所帶來的挑戰。

九、問題與討論

李建良老師:

請問GPT3.5和4.0具體的差別?

何之行老師:

從使用端來看,GPT 3.5對於較特定的問題或是問題本身的回答沒有4.0精確,除此之外,GPT4.0可以做到更多的事情,比方幫我們摘要pdf、做powerpoint,允許上傳文件等,但若回到Open AI的說法,其實兩者只有算力上的區別,Open AI強調算力不同的解釋讓GPT 3.5不必進入GPAI系統性風險的規範。

會議參與者:

剛剛老師有說AI的運行可以分為好幾個階段,比方輸入資料階段到最後生成出來的應用面階段,我比較想知道現在普遍立法的點如果從根本性的輸入資料開始,製造商一開始就要在毫無偏見的環境下輸入資料,這比較無法想像,想請教老師確切的運作方式。

何之行老師:

立法者確實沒有辦法在每一個個案要求資料的完整性或代表性,但透過透明度和基本權利評估的影響,會讓AI系統的製造商有義務提供資料以證明AI系統使用的訓練資料(training data)已滿足了群體的代表性,製造商須意識到其有義務揭露資料的態樣;所以雖然規範沒有辦法直接要求應採用的資料態樣,但可藉由揭露要求使製造商滿足資料端的義務。

會議參與者:

世界上有三大組織:中國、美國、歐盟,中國的嚴格在於以政府權力為主,資料用來控制人民,有很多部門式立法和白皮書,但歐盟對人權的保障好像一直最嚴格、整體的限制,只要不符合就無法進入歐盟市場,因此想請問老師為何美國與歐盟的立法模式差距如此大。

何之行老師:

從歐盟GDPR的脈絡可以大概理解歐盟的規範為什麼這麼嚴格,因為其主要的規範對象是位於美國大型的資料控制者及平台業者,如:Amazon、Google、Facebook。歐盟的法制雖一部份反映其人權價值,但另一部份則是藉由法制,特別是域外效力的規範用以提高競爭對手的法遵循成本;而美國則希望透過市場主導,讓企業自己找到遵循的行為準則(code of conduct),因其了解若是透過法制去限制自由市場的發展,傷害最大的將會是美國的新創產業和市場。

會議參與者:

AI黑箱化的過程人腦其實已經無法趕上,所以很好奇人為監控是否真的能達到效果;之前有聽過用演算法來管理演算法的方案,但好像也會遇到相同的問題,不知道老師怎麼看?

何之行老師:

現在的技術是否已經能夠用AI來監測AI其實一直有爭論,但人為監控是回到以人為本的概念,希望人類能加入自動化決策的過程,比如在GDPR裡原本的用詞是自動化決策(automatic decision making),到了AI Act,有些部分的文字已從decision改為outcome,這裡的decision表示人為介入的判斷;所謂的human oversight主要是希望最後能有人為介入的可能,而不僅僅是完全仰賴AI的自動化決策。

用機器來對抗機器在理論上或許是可能的,然而弔詭的問題是用來對抗的機器也必須是人類去寫、去發展;在這裡有兩種可能,一是由國家來發展一個可以監管所有技術的AI,但這會對人權和法治產生很大的風險;另一個可能是由業者來發展,然而若沒有明顯經濟上的效益,企業不太會願意投入發展。

會議參與者:

老師剛剛的演講提到很多如何管制AI的方法,想請教有什麼是在AI的相關領域裡,法律不應該管制的?

何之行老師:

什麼是不應該規範的?換一種方式來想,我們應如何看待規範,一種說法是規範是一種禁止,但法律沒有規範外的事情我們是不是都可以做?另外一些規範是透過法律給予授權空間,也就是立法保留,透過立法來讓事情具有正當性的基礎;目前AI的規範比較趨近第一種,但是不是有可能用第二種規範方式提供AI發展一種基礎,使它有比較好的發展?

李建良老師:

大家應該都有聽過一個法諺「有社會就有法」,因為人之間會有衝突或利益糾葛,所以用法律來建立共同生活秩序,雖然目前還是有許多衝突;在科技發展的面向,應當是科技走在前面,法律盡量不要擋它的路,偶爾踩一點剎車,當然這是在設定科技對我們社會創造很多福祉的情況下,要不要去規範前提是我們是否覺得現在的數位社會夠安全了,所以規範不是為了規範而規範,而是在這數位社會裡,一定有一些已經覺得現行法不足夠了;我現在用的都是「有社群就有法」,現在是社交媒(social media)的時代,以前是社會(society),現在我們已經進入到另一種社會關係了,社群是廣義的人與人之間的關係。

會議參與者:

當歐盟在評估AI對於基本權的侵害的時候,他們舉的對基本權的侵害那個清單是什麼?因為基本權的清單不一樣,就會導致規範的密度會不一樣。

何之行老師:

確實歐盟在制定AI規範的時候應該回到歐盟人權憲章裡的基本權規範,很多人批評歐盟對於AI規範的設計,僅僅是一個以風險為主(risk-based)而不是從權利保護的角度去對應,因而不是每一個基本權清單中的權利都可以被對AI Act應到,因為它是以risk-based作為規範基礎,但在做基本權利影響評估時,仍會從應用端來看對於基本權可能造成的侵害是否在AI規範裡都已受到保護。

會議參與者:

權利清單的設計,是基於從已知的侵害去回推我列什麼權利清單,可是現在的管制是以風險為主。所以可能還不知道的侵害方向去想說我要怎麼去預防它,所以變成說就是沒有直接對著權利清單去做規範的其中一個緣由,是因為那個權利清單它沒有這麼符合現在的問題。

何之行老師:

如果要用權利清單的方式來立法,可能會影響其內容,而透過規範AI系統可能帶來的風險,似乎立法者就不需要去考慮有沒有辦法涵蓋歐盟憲章全部的權利,因而最多的爭議正是在歐盟採取risk-based的立法方式,而不是以權利為導向的立法模式。

會議參與者:

有幾個問題想要接續剛才用AI來監管AI的問題。

  1. 如果用機器來監管機器,在製造監管機器的過程中是否也一樣會有偏見的問題產生?
  2. 在輔助醫療診斷當中,AI是否會跟醫生說outcome的原因,而不是只有一個結果而已,這樣比較有助於分析?
  3. 老師剛才介紹了歐盟的狀況,想了解台灣目前的發展為何?

何之行老師:

我試著從最後一個問題往前回答。

  1. 台灣目前的現狀,其實台灣一直有在討論是不是訂一個AI的基本法。但這個基本法的概念和歐盟差距頗大,它比較像是一個框架式的立法,類似原住民基本法,實際上並沒有透過法律處理細節問題,僅僅是把和AI相關討論還有指引直接搬到立法的過程,因此僅有立法框架而已。
  2. AI的訓練包含應用端的領域知識(domain knowledge)和演算法,所以會有一部份的知識是醫生本來就熟悉的領域知識,另一部份則會是自動學習的AI所做的判斷,比較像是黑盒子的部分,麻煩的部分在於很難知道AI做判斷時是基於相關性或是因果關係,即使能夠去說明它的過程,對醫生而言還是有一個極限(limitation)在,這是為何最終希望能有人為介入,就這個限制(limitation)做第二次人為的判斷。
  3. 用機器來監控機器確實會陷入一個套套邏輯(tautology)的困境。

會議參與者:

不好意思,我本身醫生,所以我稍微幫同學解答一下。

  1. 可解釋性的AI可分為兩個部分,一個是告訴我們演算法怎麼形成的,但這事實上對醫生而言沒有意義,我們所期望的是演算法可以告訴我們結果是如何得出的;舉例而言,1加1等於2絕對不會錯,可是我們會擔心加變成減;關於臨床決策軟體,我們必須知道它加的東西是不是正確的,例如臨床診斷上常常會有好幾個症狀,以發燒為例,在臨床上經常有好幾個症狀,比如運動完也會發燒,但要加上白血球高才算有感染,所以如果我們能看到它加了哪些東西進去—比方白血球、感染,那就會知道後面的判斷幾乎是不會出錯的。
  2. 老師剛剛提到FDA的規範其實就是國家食藥署的規範,因為非常嚴格,所以要他們提供演算法的解釋是非常困難的,FDA的規範在於提供熱圖,給你判斷的依據,會醫生這個熱圖哪裡有問題,那醫生就要標示出來不只一個答案,有些演算法會告知機率,但是機率也是見仁見智的;醫生的負擔就在於熱圖給了很多熱點,但熱點不是真正有問題的,經常過度標示,對醫生而言反而每一個點都要去看,假設有20個熱點,其中有兩個熱點是肺癌,但醫生為了其他20個熱點耗費了眼力而做出錯誤的判斷,那法律上的注意義務在哪裡?醫生的注意義務在有了演算法之後突然被提高很多。
  3. 依照目前的標準來說,AI的準確度確實超過醫療人員,但上述這種false positive的情形,表示AI會犯的錯誤和醫生是不一樣的,因為兩者訓練的方式不同,雖然AI的數據可能比醫生好,所以這時候才希望人能夠加入這個環節(human in loop),不管是在判讀或是決策的過程醫生都必須要扮演某個角色;所以如果有一天Nature或Lancet都表明了AI對皮膚癌的判定已經超過醫生,那法律上應當調控出另外一種注意義務的內容。

李建良老師:

剛剛的討論都很重要且精彩,我只在此補充兩點、回應何老師的問題。

  1. 台灣目前部門也要推動一個人工智慧法案,正在推「人工智慧基本法」,約莫在今年年底會進行,先不論內容,主要推出的目的是讓大家知道我們有跟上世界的腳步,在此提出兩點:
    1. 大家剛剛有提到類似原住民基本法,其實搜尋一下會發現,我們有非常多名為基本法的法律,訂了之後即擱置,大家也不會知道有這樣的法案,所以基本法也變成現在的一種立法模式。
    2. 基本法的法效性不能一概而論,以原住民基本法為例,裡面就有規定如果國家的開發行為不適合、選擇弱勢原住民土地的話,必須經過原住民的諮商同意;那條文沒有問題,已經說明了如果沒有經過諮商同意,就會有程序上的瑕疵。
    3. 然而基本法的存在感低落主要是因為它是一個框架性立法,相較於剛剛聽到的歐盟法案,歐盟法案是不用經國家轉換而可以直接一一適用的,這兩者就有極大的差距,因此這是一個託辭(alibi)立法,目前法界分為兩派,一派積極推動,一派覺得不可言喻。
  2. 另一個問題right based或是risk based兩者之間的規範取向差異,要提出的一點是以權利為基礎的立法會是甚麼樣子,其實是一個很難直接回答的問題,因為這些right basic的規範有直接的效益;雖然目前歐盟的法案訂有罰則,但不會直接由歐盟來處罰,而是由各國家的專門機構去處理這個問題;最大的問題是在,比方ChatGPT沒有遵守AI法規的時候,會不會因為這是一個risk based的規範而人民如果無法直接提告,所以最後的問題是今天討論的歐盟法規有沒有辦法起到個人權利的保護作用。