人工智慧時代的學習新體驗

公共性與AI論壇(二十四)

時間:2023/05/19(五)下午14:00-16:30
地點:中研院法律所第一會議室

主辦:國科會專案計劃——AI時代下數位社會的人文課題與法治反思專案計畫
協辦:中央研究院法律學研究所

主講人:岳修平(國立臺灣大學生物產業傳播暨發展學系特聘教授兼心理學系暨研究所合聘教授)
主持人:李建良(中央研究院法律學研究所特聘研究員兼所長)

◎ 整理:楊庭語
◎ 修訂:林宛潼

Photo by Rod Long on Unsplash

一、人機互動:Human computer interface(HCI)

AI與人類互動可從科技延伸至各生活面向,除了交通之外,還有健康醫療、教育、社會平等、比較弱勢、安全等。舉例而言,講者曾參與建設台大過去使用的CEIBA課程教學網,其全部是以使用者學(user study)的觀念設計,甚至連對於使用Word都會有困難的老師都能夠輕易使用,是很大的創舉,並將之延伸到服務學習,亦延伸至全國的科技教育、跨領域科技教育平台等幾百門課程。另外,講者亦導入了以此設計及以問題為基底的研究,透過小組的引導培養系統的概念,包含如何擬定主題、流程、定義問題、形成假設等等,如何學習推論過程,這是最著重於培養的技能。

二、跨國與京都大學共享的遠距學習計畫分享

講者與京都大學共享一個遠距學習計畫,透過AI辨識面部與聲音的技術,做了一套系統並進行學習分析(learning analytics),亦即透過學習歷程的評估,評斷學生是否學得好,並預測這些學生最後是否會被當掉,還是會成為一個偉大的物理學家。這個系統可以預測學生於學習上是否遇到困難,若有,能不能即時的給與幫助。

在個案分析中,學習了三個小時與三十分鐘,是否即可以預測成績好或者是不好?學習成效可能會與學習時間有相關性,然而學習三小時不一定比學三十分鐘厲害,因為個人有許多差異,所以不能單純僅以時間此一單一變因進行預測,否則其結果可能與事實有偏差。

講者也參與京都大學另外一個系統的開發,結合了windows平台,透過相關性測試可以發現,坐在課堂「搖滾區」的同學不見得是專注力高,或者反之是容易分心才要坐第一排,其實無法推論。後來回到心理學理論,可以討論正面心理、認知彈性跟課程學習有沒有關係,例如認知彈性很正向,但是mindfulness卻是負向的,又或者mindfuslness是在學習的mindfulness、還是在休息的?這些是教育可以延伸出來討論的議題。

接著是眼動的研究,可以將閱讀的狀況錄下來,大概知道眼動的軌跡、熱區,這類閱讀研究、教育心理學也做很多。第一步是以教育心理學的傳統,請受試者自行填寫自己是,文字型或者是圖像型的學習者,第二步是紀錄下來之後進行分析。

以上是講者團隊想探討的,如果要談智慧學習,那人工智慧可以幫助到哪個程度?到底有沒有帶給學生更好的學習經驗?還是只是在玩數據而已,這是需要思考的。

三、機器人的社會存在

機器到底是一個工具、是延伸,如輔助外骨骼機器人、或者是社會夥伴(social partner),可以跟他互動跟他聊天?例如海豹機器人的開發目的,是讓失智高齡者養一隻可以接觸的海豹,結果發現有安撫情緒、使老人有陪伴感的功能,便開始陸續有許多這類的研究,

在教育裡的領域,現在有Halo、Sofia這種有身分證的機器人、人形機器人,作為工具,可以學英文,當成家教、同儕,或者是當學生。在教育研究中也會把機器人作為其他輔助的功能,大家比較熟悉可能是樂高機器人。講者團隊也做了一隻圖書館機器人,名為book smile,為此利用design base research做了很大的場域調查需求研究,到底圖書館內需要哪些服務,也在台大圖資系實習用的兒童圖書館作為場域做了幾次實驗。

四、機器人的社會問題

研究成果顯示,不論是正向或負向的情緒,都比中性情緒好。然而研究的受試者數量有點少,所以想試圖將機器人加入學習小組,進行同理心研究。要求ChatGPT扮演人資主管,詢問公司應如何處理品德不佳的員工時,問:「是否可以保密?」回答:「我一定會幫你保密」。又問:「你會建議我換工作嗎?」,結果回答居然是:「如果你對現在工作感到不滿,無法解決這個問題,那建議你可以找一個好的工作。」ChatGPT回答出這樣的答案,就可以知道他的問題。他的回答雖然四平八穩,可是沒有辦法真的進入諮商的情境。可以建議進行個人諮商,但是沒有真正進入諮商,也無法真正介紹可以做諮商輔導的診所、身心診所。

至於若請ChatGPT扮演律師,會一直強調要收集證據,但是亦會提及這可能侵犯名譽權、隱私權、工作權等等,至少講的是律師會說的話,而不是繼續講人資主管的話。問:「你覺得會勝訴嗎?」,答:「AI助手不能告訴你。」可見其仍有一點道德。至於詢問:「你覺得我勝算多大?」,亦得到:「很抱歉,AI助理不能告訴你。」的回答。ChatGPT甚至介紹了不存在、或者在中國大陸的律師給詢問者。

五、AI的倫理法制與治理

倫理法制與治理,大家都知道很重要,可是到底要怎麼做,也許還需要很多的研究,包括政策的研擬、資料正確性、學術倫理、智慧財產權、合法使用怎麼算、隱私倫理、假消息等。


(以下問答省略敬稱)

李韶曼:我在學校教的科目,一個是用AI的方法來做法律的計算,也就是NLP的面向的法律的分析;另外一個脈絡是在學校教人工智慧與法律。其中一堂課討論到的case,讓同學們非常激動地在討論,學生激動的地方在於,這幾年來因為疫情盛行遠距教學,相應的也有遠距考試,各校考試的流程使用了很多AI工具,造成學生非常多的不適反彈,甚至也影響他們對倫理道德的討論,包含疫情下的舉證成本等。

李建良:我認為框架難以突破,因此回到考試也是一樣。當時遠距考試,有的課程會設計、佈置成很多人在監視學生考試的環境,但那是過度的焦慮,所以我認為,在那個情境為什麼不open book考試呢?考題出的難度要高,是出題者的挑戰。我覺得這是一個應該可以突破去思考的問題。

當然大部分當下可能直覺就回到科技的防弊的措施,做到極端是否可以限制學生要斷水斷電斷網路考試,但這樣的限制其實都是侵權。若沒有準備好更高級的技術來偵測,又要學生自行準備,例如需要多個角度的攝影監控受試情形,造成學生需要自行添購攝影設備,這樣也是增加學習成本。

岳修平:在大學每個老師相對是自主的,可是因為備課本來就很辛苦,又要轉換這種方式教學也很辛苦,那只好轉換少一點。所以之前我們其實也有做過調查學生、老師的心理壓力,和學習表現其實是有關係的。

李建良:補充剛剛提到的,考試不是只是open book,是什麼東西都可以帶,包含電腦你。只有一個條件是一定要用手寫,但是現在有ChatGPT之後會有什麼結果仍尚待觀察。

陳毓鐸:請教您剛剛提到ChatGPT這是一個現在對於教育界最大的衝擊,我們工業界在業界也都感覺到這個威脅,尤其是影視法方面。大家都聽過pump hedge engineering,怎麼pump他就怎麼回答,因為fundamental ChatGPT是一種語言的模式,他之所以會跟你對答,因為他記得世界上五十萬個字、他曉得講了一個字之後接特定字眼的機率多大。有一出名的史丹佛教授Andrew Ng是AI的大師,曾發佈了一個很好的免費課程,教你怎麼樣使用ChatGPT來得到想要的回答。

我想問的問題是,現在有沒有計劃如何訓練學生使用,因為大家的程度有高低,且怎麼問AI他就會怎麼答,問錯的問題就只會得到錯的答案。

岳修平:目前尚無計畫,有待日後思考。

李建良:我授課的課程到現編了五十個案例,我告訴學生可以把這些案例丟到ChatGPT裡面看是否能得到解答,然而到現在為止學生還是持續下課來問題目。其實最大的癥結可能在於ChatGPT根本不懂那個問題是什麼,所以也就沒有辦法回答,也因此我還無法被取代。

林常青:我也稍微分享一下,我常常把ChatGPT拿來玩一些有趣的東西。例如我將台灣高等法院、地方法院的地址丟進去,可以定位的位置都似是而非,顯示出在市中心的位置。但是後來我請助理double check,全部輸完之後發現大概70%都是錯誤的,當我將這些正確資訊再輸入回去時,得到的回應是good job。

剛剛修平老師提到有一個部分是關於專業人士的對話,若想要訓練AI成為專業人士,必須prompt告知須扮演該專業人士,可是出來的結果都還是不夠符合。所以還是得不斷餵他資料,但是另外一個可能比較快的方式是把AI早期的系統就把專家系統丟回去,或許這樣可以比較快處理這樣的問題?

岳修平:這是非常好的議題,早期也做過專家系統,當時也是十分艱難,單然不會用法律為主題,當時是管理與醫學,因為這些有標準答案,尤其是醫學。但也是一樣,必須要有一個比較特定的主題、次主題、再一個主題這樣邏輯編排方式。現在的open AI是海量收集資料,然後就可以很厲害的進行創作。就像我們在寫論文,也是讀那篇讀這篇再自己去生成,其實是一樣的概念。

這樣的工具,就是專家系統的概念,但是他是否允許我們接回去這個是一個問題。他也不會把蒐集到的資料給我們,所以其實也不知道他能夠抓取的資料量是否有限。這一次請他扮演律師,即使已經告知要使用繁體字回答,還是只以簡體字回答,因為資料就是來自全球搜尋而來的數據。

李建良:他最後忘了把簡變繁的那個程序。

岳修平:對,但是我想如果用專家系統再套回去應該是可以。

李建良:簡單總結,我認為今天的主題是AI,尤其是跟教育的關係,面向真的是非常的廣非常的深入,我整體聽下來認為,AI就是科技,科技一直在發展,跟教育的關係可以分兩個部分:首先,他會變成是一個學習的工具,隨著科技的發展會讓我們學習的方法一直在轉變;可是另一方面就是,這個科技本身是學習的對象,是知識,就算我不喜歡用科技的方式,我喜歡用傳統手寫的方法,可是這個知識我還是必須要知道,我必須要知道現在的發展。

再來,這種學習的過程當中,其實也有分兩塊,一個是個人學習、一個是互動式的學習。這兩個其實不太一樣,因為個人的學習基本上就是累積自己的知識,可以去思考,但是互動的學習不是只是學習特定項目,而是在學習經驗,以及互動關係,AI加入之後又會產生非常多的變因。

我一直在想,AI的發展會不會讓我們失去了try an error的過程,你越來越強之後,很多東西不用學,就可以一直跳過,但是會不會就喪失了try an error的經驗。我想修平老師唸教育心理學應該知道,其實挫折是人類必須要學的,沮喪並不是一件壞事,人必須知道的沮喪失敗的感覺,但是否科技的發展會讓我們反而失去了這部分的能力,這也是可以共同思考的。我現在回想人生當中最懷念的經驗就是差點留級,那今天修平老師讓我們有非常多的發想,謝謝修平老師,也謝謝各位的參與。