AI時代下數位社會的人文課題與法治反思:第二次計畫會議

會議名稱:第二次會議

會議時間:2023年12月20日 上午10:00至12:00

會議地點:本所第二會議室

計畫名稱:國科會「AI時代下數位社會的人文課題與法治反思」

主席:李建良
出席:林常青、廖世偉、李韶曼(線上參與)、何漢葳

◎ 整理:許雅琳、劉汶渝

(以下敬稱省略)

李建良:

本計畫自去年開始進行到現在已經一年多了,因為大家都很忙碌,因此選在年節前聚集各位,而本計畫團隊中的楊岳平老師和江彥生老師目前正在國外,因此未能出席本次的討論。今天的會議進行將分成四個部分:首先先報告本計畫目前的進行進度和運作概況;再來將請各位針對目前計畫的進行進度表示看法;接著會由我做一些補充;最後再和各位就本計畫之後的進行方式進行開放性的討論。

本計畫是自2022年8月開始,目前共已舉辦13場公共性與AI論壇,最近一次的論壇是在今年10月26日由李崇菱老師所報告的「數位健康與(不)正義——權力和健康不平等」。除此之外,本計畫亦邀請國外學者舉辦共兩場之學術研討會,分別是在今年12月6日由德國波鴻魯爾大學法學院Jörg Ennuschat教授演講的「國家法學上之憲法認同」,以及12月7日由慕尼黑工業大學社會科學與技術學院Christian Djeffal教授講授之「Lessons from the Regulation of Artificial Intelligence in Europe」。

李建良:

本計畫從去年正式開始到現在,都是以公共性與AI論壇的形式在運作,延續前一個AI計畫,累計共已經舉辦27場論壇。另一部分則是國際研討會,最近的這兩場邀請的是我認識的德國學者,而在過去也都有舉辦過一些類似的國際性學術交流活動。此外,每位老師也都有進行過AI相關研究的演講或課程,或是參加過相關議題的演講會議活動,這也是與本計畫有關的。

廖世偉:

我最近擔任過一場會議(AI for Good)的與談人,演講者是來自哈佛大學的教授,他是受公平會主任委員的邀請首次來到台灣。

李建良:

謝謝,我就是想藉此為例,我們的團隊成員們都經常會受邀參加AI和數位相關領域的研討會,這些學術性活動和本計畫其實也具有相關性和連結性,畢竟本計畫的研究範圍並非僅侷限於某個特定範圍或議題,而是跨領域的研究,因此,若能接收到其他相關學術活動的內容資訊,將這些資訊內容進行統整後, 看得否供我們做進一步的研究。

我上禮拜去成大參加一個AI研習營,它是一整個系列,之後應該會繼續辦下去,我想這樣的AI研習活動其實也與本計畫的研究是有所關連的。

另外,漢葳最近有在進行有關量刑方面的研究,是在哪個計畫下的研究,還是是屬於本計畫的涵蓋範圍?

何漢葳:

那個研究是比較偏實證領域的,明年會有與其他與AI相關的研究主題。

李建良:

那個明年與AI相關的研究活動應該也可以納入本計畫的觀察範圍。最近欣儒和汶瑜負責有正在統整我們團隊所參與的相關學術活動,供我們內部彼此參照。接下來是否有請林常青老師做一些補充。

林常青:

我覺得李老師的想法非常好,因為除了本計劃外,目前亦有其他許多的研究單位和活動正在推廣AI的研究。藉此機會跟各位分享幾個活動,首先是我這裡的成大研究中心非常積極地在進行AI與永續相關議題的研究;第二個是,如同廖老師剛才提到的,公平會也正在探討將AI用於判斷聯合行為或做其他使用的可能性,我目前就有承接他們相關的研究案,不太確定是否能將公平會那邊研究案的內容提供給本計畫做統整,若可以我是相當樂意提供的;另外,前陣子我也有去幾個大學推廣AI的議題和研究,因此,我個人是非常支持這樣的學術研究交流活動。

李建良:

我的想法是,我們可以先把各自所參與AI相關的學術研究活動的內容作初步的統整,讓彼此得以相互交流這些資訊,這麼做當然不是要將其他單位的研究活動當作是本計畫的研究,而是顯現出本計畫在執行的過程中與其他單位的相關研究活動有產生何種連結性。本計畫的初衷是進行AI跨領域的研究,雖非如同傳統的研究計畫,有要求計畫的最後必須要有產出專書,但若可以,我想最後是否可由團隊的各位一起共同寫成一本跨領域的專書。那目前的做法,我想可以是讓助理們定期向各位老師們詢問是否有參與哪些學術性的活動,將各位那邊的資訊統合連結起來,讓彼此了解當前有哪些研究計畫正在進行。

就我這裡所知的是,今年科技部有贊助兩個國際交流計畫,其中一個是國科會有提供經費給我們,讓我們和德國的一個類似於國科會的組織資助的學者進行交流,主題是行政數位化議題,其中也有涉及AI的因素,此計畫的期間是三年;另外一個計畫同樣也是由國科會資助台灣的學者,而德國那裡則是由一個基金會資助他們的學者與我國學者進行交流,主題是AI與教育,具體而言包含ChatGPT等AI科技如何影響學校所實施的教學內容等。

以上是以我自己為例提供相關的學術研究活動資訊,我想各位也會有許多其他的資訊網絡,我的想法就是將各位所掌握的資訊彙整起來,形成一個資訊網,供彼此交流參考。

林常青:

我也再補充報告,明年的亞洲法律經濟學會將在台灣舉辦,主題設定共有三個,其中一個就是AI,我想這也會是一個很好的機會,再邀請各位老師前來參與。

廖世偉:

呼應李老師前面所提到的AI與教育,我這裡有一個中技社的計劃正在進行,也是與課綱和教育有關。我們為了這個計畫已經有分別去過高雄潮寮、宜蘭南澳等偏鄉地區和都市地區的學校,實地進行課綱AI模型的fine tune和測試,並蒐集相關的數據回報給中技社。從整個測試和統計的數據結果上來看,AI實際上是擴大了城鄉教育的差距,AI就像是放大器,使資源較佳地區的教育發展獲得更大的提升。

我們最初的想法是,考量到偏鄉地區補習資源較少,在課綱一綱多本的情況下,我們在建置教育AI模型時,要如何fine tune到不同學校所採用的課綱版本,例如某個國中今年是使用康軒的教課書,那就讓AI要能夠幫該校的學生補充到南一和翰林等其他出版社課綱內容的重點。由於,都市地區的學生大多能夠靠補習資源接收到其他課綱版本的考試重點,因此,我們原先希望藉由AI去幫偏鄉地區的學生們補足這些課程內容,進而拉近城鄉差距。然而,最終我們的數據分析結果卻顯示,這樣的AI模型反而是擴大了城鄉的差距,未能達成AI for Good,而是AI for Bad,所以我們明年還要再繼續進行研究和改正。

對比韓國的例子,他們是花了相當於240億台幣去建置類似的一綱多本下用於個人學習使用的教育AI模型,而我們則是連240萬台幣都不到。他們也已正式宣布要在2024年1月正式推廣這樣的AI個人學習模型,我們整個教育AI的發展雖然落人於後,但至少也已經初步蒐集取得相關的數據,且在AI模型的訓練上也已經持續進行了很長的時間。

李建良:

這個計畫已經執行了多久?

廖世偉:

這個計畫是今年開始的,明年會持續進行。

李建良:

太好了。我剛才提到的AI與教育研究計畫是明年1月才開始,我們這個計畫是會從法律的角度切入,至於具體要怎麼做,我們也還在思考,但我想與廖老師所參與的計畫,似乎可以做一些連結,到時候應可以廖老師的計劃成果為基礎,觀察思考是否有哪些法規面向需要進行相應的修正,由於廖老師正在研究的面向不是法律人能夠做的,希望廖老師能夠將計畫的成果內容和我們分享。

廖世偉:

我每天在台大任教都相當於是在拉大城鄉差距,因此我都是以贖罪的心去執行AI for Good的研究計畫。至於我正在做的這個計畫,其實我目前的研究進度有超前一些,例如在屬於偏鄉或都市地區的分類上,我會請你跟我描述你的成長背景、經歷和你出門看到的景象,而不是一概以住家郵遞區號去區分,這樣才能確保我的sample是比較正確的。

李建良:

也不需要配合我的研究計畫的執行進度,我想是否能另外找機會請廖老師就計劃的內容做演講分享,我對這個議題和相關的具體內容很有興趣,謝謝廖老師。

另外,想請問韶曼老師有沒有想要分享或提出的?

李韶曼:

我最近在做的研究有幾個都是與AI相關的。其中一個研究計畫是在評估大型語言模型是否得以更好地去模擬或反映出人類社會認知的現實。這裡的認知是有幾層次,第一個層次是語言模型是否知悉既存的社會規範;第二個層次是,社會規範的背後其實代表著不同社會文化中人們的選擇和偏好,那語言模型是否也能認識到這點,或是在與人互動的當中,是否會去鞏固或放大來自不同價值文化下所具有的偏見或習慣,這些是我在量測語言模型價值偏好的階段所關注的幾個重點。

在量測階段,我也使用了幾個例子,其中一個是自駕車,我是用MIT網站上公開總共四千萬個人類的回憶紀錄,按照國家文化地區進行抽樣量測,來評估語言模型是否能夠反映多元偏好或甚至是個體差異的現象。由於許多類似的研究都是從歐美文化地區的角度出發,像是ChatGPT雖然一代比一代更進步,但我在讀的時候其實感到很大的憂慮是,這些模型在量測美國人上似乎是做的愈來愈好,但這些模型是否在低訓練資料國家地區中,也能有公平且如實傳遞或模擬的成效結果呢?而這樣複製某種特定觀點的應用真的落實之後,可能招致的風險又是什麼?

這是我這個研究所主要想要貼近處理的問題,主要透過兩個例子來進行探討,其中一個是自駕車的行為選擇;另一個是在疫情期間,許多國家有發生疫苗遲延的現象,就是即便有了疫苗後,許多人也不願意去施打,這當中有許多社會心理因素、宗教道德規範或不實訊息等種種複雜的情況。

前陣子我到清大資工系演講時,遇到了丁川康老師,由於陳弘儒老師先前有介紹我說,丁川康老師那裡有收一些台灣民眾關於自駕車道德兩難行為選擇偏好的資料,那天丁老師也非常慷慨地說,願意提供我這些總共幾萬筆的資料去做模擬和量測。此外,最近台灣的大型語言模型TAIDE也即將開源,有成大電機系的老師聯繫我說,他將可以優先試用也願意和我分享TAIDE的使用權限,讓我得以量測TAIDE是否能好地反映出台灣民眾的道德選擇情況。以上是我即將要進行的量測項目,希望能以此作為基礎,探討大型語言模型的訓練、find tune,甚至是應用和監理過程中,找尋社會科學和法律學者在這個議題研究上可能的切入點,去修正或如何讓大型語言模型的應用能夠對人類創造更大的福祉,這是我的研究的主軸。

我的另一個正在開展的研究,是跟成大法律系陳運財老師和成大心理系胡中凡老師一起進行,我們要問的是一個現在和邁向未來的問題,也就是將來AI對於冤獄的形成會具扮演怎樣的角色,在司法決策程序中,AI將會如何影響法官、檢察官,甚至是調查的過程。我們研究計劃的第一步是先舉辦了座談會,當中有邀請調查局、刑事警察局及鑑定相關人士等,討論主題是AI在證據上發揮怎樣的作用,訪談的內容主要是,這些單位目前是否已經有購買哪些AI系統、又是如何建置他們的AI系統、他們是熟稔使用這些AI系統或僅是被動地去購買。在訪談的過程中,他們都表示這些資訊無法公開,但我們仍有得到一些其他有趣的觀點,他們有提到單位的訓練內容其實都與AI不太相關,但有逐漸開始感受到許多的壓力,例如有聽聞到調查局最近似乎買了什麼系統,廠商會放出類似的風聲,讓大家覺得為了一致性的考量,是否應該也要來購買相類的系統;而另一方面,他們也講到在進行鑑定作業時,人力也是有些不堪負荷的,這讓他們體會到引進AI的價值,但由於又對AI不太收悉,因此當證據被呈到法庭上時,鑑定人員受法官要求到庭解釋時,時常會解釋不太出來,導致面臨司法的責難。

因此,當在座談會中看到一線使用AI作為鑑識工具的從業人士,他們的心得和購買AI系統的初衷等等後,我們開始有了一個想法是,這些警察職權行使法的規範或相關內規,甚至是AI系統的採購過程,可能都需要再重新經過檢視,這些規範和程序都可能與AI的應用有著很大的關聯。以上就是我目前正在思考和進行的一些研究。

李建良:

謝謝韶曼老師,韶曼老師研究的內容都非常的多元,每個計畫有深具意義,我也都很有興趣,看看到時候是否也有機會跟大家做更詳細的分享,尤其是第一個研究,透過大型語言模型分析人類社會行為模式的議題,我不是非常熟悉,所以我想應該可以從中學習到許多。

另外,對此我想做幾個補充,第一個是現在談論到AI,其實都脫離不了大型語言模型(Large Language Model, LLM),上回透過廖老師有邀請到陳毓鐸老師來分享,他是這領域的專家,透過他的講述內容讓我們對於ChatGPT等大型語言模型的形成有進一步的了解;第二是關於剛才韶曼老師有提到語言模型與自駕車的部分,我記得AI議題剛開始被大量研究時,丁老師他們有從哲學的角度切入,也有建立了一個資料庫,而那個自駕車道德兩難的研究丁老師和謝世民老師已經進行了非常久,他們的研究成果或許可以作為就相關議題接續延伸研究的基礎;再來就是國科會正在開發的TAIDE,想請問韶曼老師是與哪位老師接觸可以使用到相關的資料?

李韶曼:

是成大電機系黃仁暐老師,他有跟我說他與國科會的團隊蠻熟識,所以可以先透過和團隊簽訂MOU適用到目前TAIDE 7B模型的版本,我們也現在也正在彙整我們的研究目標,讓黃仁暐老師和團隊去做聯繫,所以是要等到MOU簽訂後,我們才能正式開始使用。

李建良:

所以是由成大去做簽約嗎?

李韶曼:

是的,是由成大的黃仁暐老師去做接洽,這是我們目前所得到的資訊,若李老師哪裡有其他的聯繫管道,也很希望讓我們知道。

李建良:

國科會一直以來都想要用台灣自己的資料數據建置出的如同中文版ChatGPT等的大型語言模型,這是我們政府目前正在大力推動的計畫,而其中的關鍵人物就是中研院資訊所資創中心的李育杰老師。在此也跟各位補充,我們資訊所先前釋出的AI語言模型簡轉中試用版有產生的一些爭議,就是當問模型我們的國慶日是哪天時,結果模型給出的回答是10月1號,在此事件後,中研院也成立了生成式AI的研究小組,我目前是擔任召集人,李育杰老師也是研究小組的成員之一,他是整個TAIDE的研發和計劃運作過程中的關鍵人物, TAIDE的研發團隊基本上也都是來自我們中研院資訊所或資創中心。

我想本計劃應該也可以和國科會TAIDE的研發計劃進行一些連結,韶曼老師那邊可以先透過成大的管道和他們接洽看看,我這裡也可以在下週研究小組開會時,和他們詢問TAIDE目前開發的情況,以及目前的版本是否有計劃開放給外界使用,以上回應韶曼老師。

目前看來各位在AI的領域中都有在進行一些多元的研究開展,就本計畫接下來的執行,有兩個部分想請各位協助,首先是我們目前已經有一個網站,這個網站本身也就是一個資訊交流平台,若大家往後有得知參與哪些相關研究活動,也請將活動的資訊連結寄給我或是助理們,讓我們可以在網站上公告,我們的網站上有一個Events的專欄,我都會隨時在上面發布我所知道的研究活動資訊,也歡迎各位可以過去瀏覽。

韶曼老師跟成大的冤案研究計畫是不是就有舉辦座談會?那是否會有相關的資訊連結,還是是非公開的?

李韶曼:

是的,有舉辦座談會,但因為希望能鼓勵檢調單位暢所欲言,所以舉辦的座談會基本上都是非公開。我們現在正在整理座談會紀錄,之後會和他們確認哪些是願意讓我們公開分享的資訊;此外,我目前也有在蒐集政府單位網站上的採購資訊,整理各單位都有購買哪些AI系統,這些是公開資訊,之後可以和各位分享。

李建良:

謝謝,那除了這個以外,各位之後也會經常參與或舉辦其他活動,也請各位到時候可以都把活動資訊寄給我,讓我把資訊都匯集到網站上。

第二部分想請各位協助的是,大家在其他計劃中研究的成果,也可以透過各種形式,例如韶曼老師提到的座談會紀錄等,就合適公開的部分除了發表以外,看是否也可以放到我們的網站上來;另外是,我相信各位的學術產出都非常多,各位已經發表過的文章,無論中文或外文、紙本或電子,如果願意也歡迎讓我們刊載或轉載在網站上的AI Papers的分類下,讓大家知道彼此間的研究成果。

今日聚集各位的目的主要就是討論本計畫明年的執行規劃,也讓彼此交流獲取到許多資訊,偶爾一次的開會討論效果應該是十分有限,因此,我想從明年開始是否改為每月一次,每次討論中除了交流彼此的研究現狀外,也由團隊成員輪流每次由一位老師分享一個的主題。下一次的討論是否就請廖老師來分享你正在做的AI和教育城鄉差距的研究,用現成既有的研究資料即可,不需要另外再準備。韶曼老師也可以分享大型語言模型的相關研究,也不需要是已經有一定的研究成果,將剛才提到的量測、模擬過程講述得更詳細一些就可以了。

我想等會我們就可以先排每月討論的時程以及主題分享的次序,會議討論一樣是採實體跟線上併行,讓各位方便參與;除了每月固定的聚會討論外,若團隊老師們有在其他地方舉辦活動,也可以邀請其他老師參加,像是韶曼老師和常青老師經常會在成大有舉辦學術活動,也都可以邀請我們過去,以上是我對於本計畫明年規劃的想法。

另外,漢葳目前是從事法實證領域方面的研究,是否可以簡單說一下你所進行的研究,看是與本計劃有哪些連結。

何漢葳:

張永健老師受邀請明年會出版一本有關比較法的Handbook,我會貢獻其中的一章,這本書明年出版時會舉辦新書發表會,本書的編者希望所有作者都能出席,因此,我會參加其中一場在香港的發表會,這是我目前的研究活動中與AI稍有些關聯的部分。

李建良:

這些研究活動雖然我們可能無法去參加,但若有相關的研究成果,都可以放到我們的網站上,像新書發表會的活動資訊也可以提供給我們,透過活動資訊的內容,或許也能激起大家對於新書的關注。

李韶曼老師提出近期有參與利用AI研究法院量刑因子之司法的研究,並有與台大的幾位老師一同組隊參加法律黑客松;會後法務部有向老師提出合作的可能,並發展台灣的生成式AI法律模型;老師認為若有更大資源及量能的話就會更加可行。

李建良:

互相了解分享研究成果,並與法實證中心連結。現在只是先畫一個大的picture,其次就是長青老師提到的那一塊,AI與經濟秩序的互動關係,尤其數位經濟已經不是實體有線的。以歐盟數位市場法及歐盟數位服務法為例,已經產生競爭關係。現在有這三大塊這樣做 就有一定具體的方向,我們也可以有各種不同的活動或是小的paper。像今天這樣實體會議大家坐在一起,會比較有一些idea,如果大家時間可以的話,一個月大家這樣聚一下。

建議我們從明年一月開始每個月給一個主題,輪流報告討論;而且明年八月 要做第二年的期中報告。

林常青:

邀請各位老師來參加在台南舉辦的活動,線上或實體均歡迎。

【以下為李建良老師詢問廖世偉老師,關於廖世偉老師先前提及之教育及AI議題之摘要】

廖世偉:

  1. 需要先跟各個學校之校長室前聯絡,並利用各學校彈性教學之課程時間進行。
  2. 廖世偉老師認為現在AI之應用將擴大城鄉差距,且在現今一綱多本之教育體制下,更加顯著;因而希望透過該計畫而讓偏鄉的學生縮小教育之不平等,進而達到AI for good。
  3. 廖世偉老師敘述之具體方法:給學生一個treatment,並在不同領域的不同supervised learning下達成。如數學科目就會先給學生一個前測題目,並且用蘇格拉底式的學習方式,採循序善誘的步驟慢慢引導學生而非直接給予答案,並關注學生之學習興趣及skills有沒有提升。
  4. 廖世偉老師並表示下次報告時可以demo給各位老師看上述之計畫。
  5. 李建良老師提問學生要如何使用廖世偉老師所說的這個系統,廖世偉老師表示現在小學、中學,人人都有平板,學生放學回家時就使用自己的平板操作即可。
  6. 廖世偉老師提問關於該著作有無著作權法或版權之適用,李建良老師回應旗下週一將與中研院之生成式AI小組開會並對此作討論,而以各國立法論之,可能仍要透過立法之方式確立智慧財產權之歸屬。
  7. 廖世偉老師提及 AI的道德問題與“super alignment”。OpenAI自去年4月開始歷經20個月之開發與測試才逐步完成,舉例而言,若問AI說「我的爸爸、媽媽能不能結婚?」可能很多生成式AI都會給出錯誤的答案。現在台灣開發之TAIDE經費相較其他國外的生成式AI遠遠不足;而且科技進步迅速,可能會造成距離會越來越遠,這不是花一到二億元就可以完成的事,需要大量投入。
  8. “alignment”是指引導人工智慧配對、對齊,進而符合設計者預期目標。
  9. 關於AI的道德問題,考量AI for good與Justice之間的問題;老師以典型的兩難道德難題,假設今天你開著剎車失靈的火車,有兩條路,一條有五個小孩,另一條只有一個小孩;此時AI可能會以簡單的數學邏輯「一小於五」而選擇撞一個小孩,這還是跟人的思考有很大的距離,我們身為人類會掙扎很久並思考有沒有辦法緊急煞車甚至是犧牲自己。因此還是有需要align到普世價值。
  10. 老師再提到AI for good有兩個意涵,一個是「善用」,一個是「永續性」。因為生成式AI從每一個model必須要align到可以正確生成前需消耗大量能源。已經不是robot cannot harm people.這麼簡單。

李建良:

簡要從廖老師提出的高見分成兩部分。現在生成式AI跟傳統AI所面臨的問題大不同,他是一個action的問題。舉例而言,將來自駕車上路時,關於程式設計的時候部份,因為我們人開車遇到狀況而涉及道德問題時會有所掙扎,那是「人」在開車的時候才會有;將來自駕車 program已經放進車裡時,若煞車失靈的時候他必須去選擇並作出判斷時,遇到的難題是該如何去規定,這是一個實質性的問題;而且規範上在自駕車上市上路之前,主管機關是否是要透過看自駕車之程式並辨識之後則訂合格與否等等。另外,關於生成式AI的問題,科技如何發展讓他的答案更正確、訓練的時候更精確,更多的information 是否可以使他的答案可能可以分辨、怎樣讓他更聰明;再者,問生成式AI純粹的科學問題 時正確性較高,問法律問題時出來的答案可能會錯誤百出,因而不同的領域生成答案的正確率會不同,尤其涉及道德問題時很難說有正確的答案,至於正確性?不正確會怎樣?那我們到底在意什麼?以義大利為例,他們禁止ChatGPT時,就是著重在你有沒有去check使用者的年齡的部分。

廖世偉:

這也trigger了OpenAI十一月的風波,而且從GPTS的出現後,現在各大公司的兵家必爭之地已非LLM,而且依2023年Goldman Sachs研究GPT-4可以取代三億個白領後,再加上Agent AI的出現是可以幫你作決定。舉例Agent AI像是可以幫你再出清台大做談價,並在生活中生產關係中均可以如大砲打小鳥般解決很多事情。回到前述取代人力的部分,Agent AI像是放大器,使得比起人類的能力增大十倍而雇主不需要再花大錢雇人工成本。但還是有道德風險,開發者會為了目的不擇手段而蔑視了privacy,問題非常多。

李建良老師:

AI過去的問題有很多不同的形式,如金融領域的理財機器人在很多年前已經是一個issue。

廖世偉:

以前各個銀行的機器人是做pattern matching,如果沒講正確的提示語,機器人就無法做出回答,是一種實問續答的方式不僅不一定可以獲得需要的答案,事實上也浪費很多時間;而現在的ChatGPT程度不錯,像是截K線圖 給他,他還可以回答得頭頭是道的,只是缺點是中文他還認不得,這就是一種「模糊搜尋」 ,傳統銀行的機器人無法辦到,但 LLM可以,就是只要講這幾個關鍵字,一種實問實答的方式。另外,認為仍然沒有辦法取代法律的思維模式,可能是在最後才會有可能。