公共性與 AI 論壇(十四)
2022 年 6 月 8 日(星期三)
◎ 主持人:李建良(中研院法律學研究所特聘研究員兼所長)
◎ 主講人:
- 科技.人文.數位貿易:數位主權的形成與挑戰:王震宇(國立臺北大學法律學系教授兼系主任、法律學院副院長、X-Lab 研究員)
- 人工智慧演算法下的社交媒體資訊過濾:認知作戰、同溫層、沉默螺旋:汪志堅(國立臺北大學資訊管理學系特聘教授)
- 後疫情時代人工智慧醫療大數據與法律實證研究的發展:吳俊穎(國立陽明交通大學生物醫學資訊研究所教授兼所長、醫學院執行副院長、臺北榮總轉譯研究科主任)
◎ 整理:鄭詠綺、林宛潼

王震宇/科技.人文.數位貿易:數位主權的形成與挑戰
我們去年與經濟部國貿局合作辦理貿易法以及國際法方面為主題的論壇,當時我和承辦同仁提到,在數位貿易方面,特別是國際貿易談判,包含歐盟與美國間、日本與澳大利亞及紐西蘭間,都有談到數位發展,這些都與人工智慧科技息息相關。透過論壇中的學術交流,我們希望能夠跨界對話,因為數位貿易及AI涉及到很多不同的領域,包含法律、人工智慧科技、數位貿易,甚至還有人文面向,尤其是文化的面向,所以我們找了一些學界還有實務界的朋友及資深的老師們、博士生的新秀、臨床的醫師,接下來要進行分享的吳俊穎醫師也和我們長期合作,還有在技術面、尤其是對資訊管理及數位平台有豐富經驗的汪志堅老師,我甚至還找了一些文化觀察的作家來看人工智慧的時代對傳統上表演藝術的變革,是一個蠻難得的跨域實驗性的論壇。
我們分成八個不同的面向,今天挑選其中與AI比較有相關的部分進行分享。當然,最直接的就是科技跟人工智慧倫理的議題,這個議題也會延伸到關於到平台的市場還有競爭秩序,包含目前法律學門對平台經濟或跟競爭法之間的關係相當關心,例如:巨型平台的競爭問題。而這些爭議也涉及國際經貿原則,WTO或區域貿易協定的發展都有提到數位貿易規則,例如:印太經濟架構、CPTPP等,都在專章裡提到了「資料跨境傳輸」,甚至是一部分的AI倫理問題,以前大致上是WTO所建立的原則,但現在已不敷使用,所以在很多的區域貿易協定裡面又新增不少例外狀況。
其他涉及AI的領域,包括FinTech金融監理、遠距醫療、長期照護等問題。之前我們和吳俊穎醫師的合作中,談到了遠距醫療應用,甚至有遠距視訊看診,當時從醫界角度來看,其實面臨很多法規上限制,醫事法中沒有允許使用遠距方式,而過去遠距醫療的技術上,在內科問診時比較容易達成、外科手術要怎麼使用遠距方式的問題仍是挑戰。當初我們在討論的時候都覺得還蠻不可思議的,可是實際上在醫療的發展裡面,都已經開始運用AI、5G技術,只是礙於法規限制,仍然限制於某一些醫療行為。
另外,在表演藝術元宇宙虛擬世界的問題上,是現在商業與科技業非常熱門的議題,但它衍生了法律上應該要關注的現象,連結到永續的社會及數位平權的問題。在數位發展、人工智慧普及下,關於弱勢及基本權保障問題,是我們上次在論壇及專書中有一些作者提到的問題。
在國際法、國際經貿法的領域,從1944年Bretton Woods 會議裡逐步發展,直到1995年成立WTO,經過非常漫長的時間建立了一套以法律為基礎的體系,造就了目前在電子商務(數位、AI)、跨境資料傳輸等貿易談判都會涉及WTO的現象。不過現在歷經了很長一段時間的滄桑,除了當前疫情影響,又加上美國在川普總統時代對於WTO非常不信任、到現在拜登總統採取保護主義、整個歐盟如俄烏戰爭的情勢來看,對於很多的國際組織及國際法的架構而,是一個蠻大的打擊。很多科技發展都需要各國間的談判協調或法規調和,可是在國際組織漸漸式微的情況下,對國際法領域帶來相當大的衝擊,特別是在近五年。
我們先從數位主權開始談起。數位主權是一個蠻新的概念,還沒有正式的法律文件或國際協定裡直接定義數位主權,所以我們只能從媒體或歐盟、美國的科技業者、政府發佈的報告、文件中,大致定義它的輪廓:直接或間接侵害國家管理數位環境的權益,或使消費者權益受損,這就會延伸為侵害數位主權。此外,在科技業的競爭之下,因為演算法、AI科技逐漸普及,科技巨擘所使用的技術是跨越國界的,但是針對資料的流動或跨境傳輸,事實上各國政府難以過問。在國際經貿法上,特別是在GATT還有WTO針對服務貿易談判時,對於跨境傳輸的服務提供,像平台或電商,或像是OTT這類有內容傳輸的類型,以前管制密度非常的低,認為這些是言論自由或數位傳輸自由的一部分。現在慢慢開始強調數位主權,就會提到這類科技巨擘,逐漸蒐集大量資料,透過科技及電腦網路,對我們產生控制,甚至引起歧視或侵害人權,這也引起各國政府討論是否進行管控。放到主權的概念裡,開始有一些比較明確的定義,例如在數位空間中獨立行動和做出決定的能力,還有對於儲存資料政府有無完全控制的能力或對其獨立決策的權力,這也延伸出很多資料在地化的研究,目前國際談判或國際協定中討論很多關於資料在地化的問題,台灣政府也越來越重視對資料在地化的要求,尤其是針對消費者保護的部分。
這當然也會引發所謂的數位保護主義,歐盟的GDPR開了法規的先河,在數位主權保障下,使個人資料的掌控回到不同在地的屬人主義管轄下,試圖排除美國或中國科技巨擘的掌握。我們可以看見,歐盟在法規上走在前端,技術也很領先;美國或中國雖然技術走在前端,法規上卻沒有像歐盟有這麼細緻的規劃。比如數位服務法有直接、間接涉及數位主權的概念。除了歐盟、美國、中國都有境內規管的法制之外,與人工智慧、數位發展的協定,如APEC裡就有關於數位貿易的非正式論壇;其他重要的貿易協定,例如FTA中也有電子商務專章。特別是在CPTPP中有更多相關規範,例如智慧財產權的流動、會員間要如何在民刑法遏止數位的侵權行為發生,並因而產生數位經濟協定(Digital Economy Agreement)的規則討論。目前的四大經濟體(美國、中國、歐盟、日本)也相繼制定數位貿易規則,包含資料傳輸與境內監管,監管密度是否能在各個經濟體間調和,這也產生數位主權必須在貿易流動與公共利益間取得平衡。我們常在國際經濟、國際政治中談到地緣政治,在南方觀點的中小型經濟體如澳洲、紐西蘭、新加坡或智利,他們提倡跨境傳輸自由、禁止資料在地化,並兼顧個人資料與隱私保護的作法。這與WTO或美、中、歐、日的方向完全不同,強調自由開放的數位環境或AI的發展應用。在這樣的背景下,我們可以思考台灣在數位貿易的規則和國際接軌中,要怎麼擺脫二元化思維,尋找有利的方式。
過去在人工智慧的發展上,著重在靜態貨品的觀點,比如機器本身或晶片等3C科技產品。但到了人工智慧時代,也開始強調機器不只學習、模仿、判斷,而帶有不帶感情、偏見的理性特質,這已超越過去的管制範疇,而進入到虛擬的領域。在上位指引的部分,歐盟在2020年後發展的AI指引,或所謂的倫理規範指引中,改變了過去把AI型態分為貨品與服務的方式,而改以人為中心、以風險管制為基礎,來避免歧視、壟斷、不當使用、濫用或違法使用。在這個模式下,指引不再區分AI屬於貨品、IP還是服務,而是只要在人工智慧的範疇內,就必須著重基本權,例如隱私、人性尊嚴、反歧視、民主參與等面向。
在目前的消費者運用裡,與AI接觸到的是數位平台的崛起。平台經濟帶來很大的影響,例如Facebook(Meta)、Amazon這些大型的數位平台大量運用AI技術及演算法,對於競爭市場或消費者都有非常大的影響。對於數位平台和背後所依據的大型資料庫,或所蒐集到的消費者資料,再加上演算法,這三者形成的經濟市場結構,各國管制密度與重點不一,不過對數位平台已經有要監理的共識。針對如何監理,有些國家的規範模式是從平台著手,從平台的設立登記、市場態樣或與消費者的關係來做管制。有些國家從資料著手,例如要在境內提供平台服務,資料必須在地化或符合當地的法規。另外也有從演算法規範,不過較為困難的部分是,如果法律總是跟著科技的發展馬上做出評價,可能也會遏止科技的發展,所以目前直接針對演算法的方式規範的情形較少。而且大部分的國家都是採取科技中立的態度,也就是演算法本身並沒有問題,而是針對演算法產生的結果作法律上的評價,例如是否侵權或違反基本權。
目前在歐美國家裡,開始將人權(human right)、數位時代(digital age)、人工智慧(AI)等關鍵字連結在一起,它們影響了人權的發展情況,以及從經濟法的角度來看,牽涉市場界定、市場力量、競爭態樣的標準。前陣子公平會發布了關於科技、平台的政策白皮書,以求更能因應目前巨型平台、科技巨擘的問題,這些平台大多不是在台灣設立,所以如何達成真正的監理或實際上能產生法律效果,是很大的挑戰。以歐盟來說,要在歐盟境內作相關的投資服務,就必須研究歐盟內部的數位服務法、數位市場法,這兩部法對數位平台競爭的監理產生很大的影響,也提到基本權的問題,例如移除違法內容、過度刪除言論的兩難問題。例如仇恨言論加上演算法的運作,是否會加深社會上、國際上的對立或衝突,或透過社群媒體散布,讓特定群眾能吸收到一部分訊息。
目前有一個有趣的發展,是所謂的累積義務(累加義務)。大型平台的數量最少,但市占率與市場影響力最大,所以累加的義務最多,許多義務是附加在非常大型的線上平台上。如果是數量較多的線上平台,義務就比巨型平台少了一些,對於風險管理義務、外部風險查核等要求較少。資料儲存提供者、網路中介者或資訊社會服務者數量更多,而義務則越來越少,如果只是中介者、中游的平台或廠商,在制定此類法律時,就會討論要加諸多少的義務,很多國家也會思考如何平衡公益與經濟發展。
數位平台涉及跨境資料傳輸的這些元素,在國際法角度就會形成數位主權,然後走向民族主義的高牆,WTO或聯合國對此情形力有未逮。因為目前的數位民族主義與過去民族主義不同,可能是從突發性、發生在世界邊緣的事件擴散到整個社群,是一種全球化的現象,如果再搭配AI或演算法技術,渲染力非常強。而這造成的影響,包含對民主、法治、自由等概念的影響,是目前許多法政學者關注的。
歐盟與美國在數位平台監理、保護上,有激烈的司法案件對立。美國的安全隱私港原則、隱私盾協議都嘗試針對歐盟GDPR妥協、修正,但歐盟法院在過去的案例中,並不非常贊同美國的作法,這也造成美國與歐盟間的衝突,尤其是在數位監管的部分。目前最新的發展動態是以美國為首的印太經濟架構(IPEF)中,提及數位貿易的概念,包含人工智慧的應用、提供AI技術的供應鏈韌性都在經濟架構之中,這與我們過去所認知的自由貿易協定(FTA)不完全相同,強調的是美國資料、AI技術的完整性及其供應。
美國、歐盟、中國等國家也對所謂的敏感、重要、核心、戰略、國家安全技術,包含AI、5G在內,提倡資料在地化的要求。過去幾年在G20中,還強調自由開放,對敏感、重要、核心技術進行限縮解釋,以避免對人才、技術的跨國流動產生傷害。但一旦涉及國家安全,各國又回到保護主義的狀況,過去G20曾經提倡更具信任感的資料自由流通,這幾年已經沒有人在談了。
另外,在APEC中提到許多「跨境隱私保護規則」(Cross-Border Privacy Rules, ”CBPR”),希望能橋接歐盟的GDPR,變成亞洲可以適用的形式。另外從紐、澳、智利等南方觀點,提出數位經濟協定(DEA),將數位落差、區域合作納入條約義務中,以求更多的數位包容(digital inclusion)。不過由於是在拜登提出印太經濟架構前所提出的,所以數位包容與數位經濟協定能發展到何種程度,還要看國際氛圍。
提出這些國際發展與現象的重點,在於反思台灣的立場與走向。當然我們會希望能夠與美國在印太經濟架構,或在台美21世紀貿易倡議中,討論多一點數位或AI的問題,但也不能忽略歐盟或南方觀點的立場,對台灣而言也不能完全排除在外。在這部分無須二元化、三元化排除其他觀點,而是可以融合不同觀點,在DEPA、CPTPP、DEA、RCEP中,都討論到數位的問題,不管是流動、原始碼、演算法,都在協議中有稍微提到,在未來的五年、十年間,可能都是形成中的規範。到底哪一些是原則、哪一些是例外,可能要看幾個大的經濟體,或中小型經濟體如何結盟或產生後續的影響。
在數位平權與數位包容的概念上,也有一些專家學者提到,台灣對科技應用與法律的研究並不缺乏,但在非科技、法律領域的學術討論中,則會關注更具包容性、信任感的教育政策,或在疫情下產生的遠距教育、遠距服務是否能有數位包容的問題。目前也興起了所謂的貿易正議論,希望以公平、公正、透明的方式解決全球的數位落差或AI科技對貧窮國家造成的其是、排除問題。在這樣的氛圍下,2021年WTO改選秘書長時,選出了奈及利亞外交部部長Iweala女士,是第一位來自非洲國家的秘書長,儘管目前仍以歐美的觀點為主,但氛圍有一些轉變。在南方觀點國家下,也會特別關注數位貿易、AI跨境流動的情況是否能符合發展的概念。
就像剛才提到的,AI也運用於醫療、金融、表演藝術領域。另外,在教育領域,下一代的成長過程中,很多時候是在虛擬的學習環境中進行知識的建構,與我們過去的教育完全不同,在數位環境中會有不同的養成及想法。另外,在元宇宙的問題上,其中有許多消費、遊戲、學習、社交,乃至於NFT交易,都涉及法律是否能夠介入。在元宇宙或虛擬的AI中,已經無法區分何謂跨境、沒有領土概念,沒有辦法區分原產地、什麼是法律及適用誰的法律。在元宇宙的環境中,也面臨侵害人權或是違法行為如何規範,在脫離現實的情況下法律如何介入、能否保障消費者等諸種問題。這些問題在目前的氛圍中,對敏感科技保護、出口管制、營業秘密國安審查等都與AI、5G的發展交錯,例如在俄烏戰爭中的無人機、衛星定位等。我們說的科技中立到底是純粹中立,還是選擇性中立呢?也有一些新聞指出,武器自動化所需的晶片有一個重要的來源就是台灣的公司,我們在發展科技時,是否有辦法預知它會如何被運用?
我以劍橋大學Leverhulme Centre for the Future of Intelligence中,霍金生前的一句話作結。” AI will be either the best or the worst thing ever to happen to humanity, so there’s huge value in getting it right.” 我們有很大的責任是要讓AI的價值走在對的方向,需要集合各個社群集思廣益,才能讓機器更智慧化、更人性化地使用。
問題與討論(敬稱省略)
李建良:
現在提出數位主權的觀念是一個非常新的一個發展,可以說是用sovereignty的概念來引導整個思維。sovereignty的概念其實有兩大面向,翻成中文都是主權, digital sovereignty這個概念比較側重到剛剛王老師特別提到的跨境傳輸這個部分,過去應該是基於言論自由等各方面考量而不太管理,現在所謂的資料的在地化有點像是在每一個國境都要有一個control概念帶進來,所以所謂的sovereignty概念有這樣的一個思維。從國家的角度在看這個問題就是我們可以這樣說,所謂的數位主權這個主權是從國家主權的角度,是每一個國家對經過境內所為的管控。當然現在很難說有所謂的國境,在數位世界沒有國境,但是尤其在歐盟,之所以會提出那幾個法案,多少是想要把歐盟當作是一個廣義的國境,然後相對於美國或者是其他領域來進行管控。另外一個角度是有關把基本權也納入這個思維,這個主權如果換成比較憲法的角度來說,就是國民主權,談到國民主權的時候,基本上就是從人民的角度去思考數位主權在國家以外的面向,考慮加入傳統基本權的思維。

汪志堅/人工智慧演算法下的社交媒體資訊過濾:認知作戰、同溫層、沉默螺旋
我的分享聚焦於演算法則與它對網路上資訊過濾、排序所造成的影響。其實在大部分的情況中,資訊並沒有過濾,只是排序在很後面的資訊我們看不見,因此是透過排序得到效果。從這個角度,我想分享這會演變成怎樣的情境。從一個簡單的想法出發,就是我們如何形成對整個社會的認識?在沒有網路前,我們是透過家庭、學校、職場、書籍、媒體、新聞等其他管道,形成我們對社會的看法,今天要討論的、在現在這個年代常出現的同溫層效應或沉默螺旋等課題,在以前其實也會發生,只是不發生在網路的情境,而是發生在我們的現實生活中。現在,我們形成社會認識的媒體,除了上述各式各樣的媒體之外,再加上了網路,網路形成了新的重要資訊來源。在沒有網路時,我們也仍然默默過濾很多資訊,但誰來過濾資訊?這些過濾掉的資訊會形塑我們的價值觀,比如家庭或過濾資訊。把不符價值觀的資訊過濾掉,因此我們所養成的價值觀會有某種程度的接近,又或者學校、職場、書籍、新聞亦會提供資訊、改變我們的價值觀。如果我們想要控制別人的想法,一個方式就是資訊過濾,讓人接受到某些資訊、不接收到某些資訊,這是一個重要的環節。那麼,AI真的與資訊過濾有關嗎?其實商業公司並不是為了政治目的或思想傳達目的進行過濾,可是卻不知不覺達成這個效果。
回顧過去的歷史,其實古時候就有很多資訊過濾的情況,例如焚書坑儒就是透過燒書、殺讀書人的方式達到資訊過濾的目的,史書只留下秦朝的史書;又或者蜀漢地區的三星堆或金沙文化,為什麼在中國歷史中完全沒有提到呢?是不是史書沒有留下?不管在這背後有什麼動機,最後都達成了思想控制的結果。再比如乾隆年間編纂的四庫全書,做了資訊的保存,在過程中也做了資訊的過濾,有大量資訊被判定為禁書、針對禁書分級;有些等級只限皇家閱讀,不抄錄只有孤本,有些等級只存書目,不存孤本,且必須在民間不斷蒐羅應該要禁止的資訊;另外也有不禁止資訊,但竄改內容,這個過程中也有很多文字獄,使寫作的人或文字無法保存下來。
我們都曾經希望推廣我們的想法,並在此過程中打壓跟我們不同價值觀的想法,如果這個情況古時候有,那麼現在也有嗎?網路剛開始推行時,大家都覺得它是一個烏托邦,每個人都可能成為自媒體、成為訊息的發送者,既然如此,網路理應不可能出現資訊的一言堂以及資訊過濾。但是,在演算法則出現後這些想法顯然不切實際,演算法則並不是為了資訊過濾出現,而是為了讓資訊更能符合使用者的需要而出現,可是在這過程中卻達到了完全不同的效果,就是讓這些資訊因此而被過濾。或者說不是過濾,而是透過排序達成過濾的效果。
那麼,在網路上誰能決定川普能不能透過網路發訊?這是馬斯克在買下推特時的主要論述,也就是我可以不同意川普,但我為什麼可以決定川普能不能講話?就算說川普說的話都是謊言,但從學理的角度討論假新聞的來源樣態,就會看到有許多假新聞本身符合社會價值,卻不被大家討論的。典型的例子就是金正恩過世的新聞經常出現在西方主流媒體,而這些新聞不會被標註為假新聞,有可能過一陣子金正恩又露面了,但報導的媒體也不會澄清過去的新聞是假新聞,因為這則新聞符合西方的新聞價值觀。最近的例子是俄羅斯總統普丁,兩個禮拜前各大新聞報導普丁的身體狀況不好,或是早已過世,我們的主流媒體也報導了,但實際上並沒有太多證據。這些現象背後都有一個共通問題是,誰來決定訊息可不可以出現?誰來決定訊息的排序前後?影響的因素很多,我們就從演算法的角度來看這個問題。
從一個簡單的角度來說,推特、Facebook、IG、YouTube這些我們常用的東西會決定我們對於社會的理解。當一則新聞出現時,你的好友不斷在網路上張貼各式各樣的資訊,你在Facebook、IG、YouTube上看到各式各樣的資訊,形塑了你的價值觀。實際上,社交平台並沒有真正過濾資訊,它只是把資訊排序、決定你該看到什麼,比如當有人討論為什麼Facebook有權過濾新聞,Facebook就會說其實它沒有過濾,只是排序到最後,只是當排到可能一千則貼文以後,我們根本不可能看見,就達到了過濾的實質目的。
在網路上,我們的想法如何形成?人是群聚的動物,有太多社會心理學理論可以告訴我們,我們會根據別人的想法來決定自己的想法,這是後產生的問題是,有沒有人的想法被過濾掉,而不能夠講出自己的想法?即便川普有百分之四十幾的支持者,但當被Facebook、Twitter判定為造謠者、不准在平台上傳送任何資訊時,即使他的想法有百分之四十幾的美國人支持,他的想法也不可以出現在網路上。當然,川普是極端案例,我們也可以看到一些老師貴為大學教授,但只要講的東西有一點點立場不符,可能在Facebook上就會看到他被禁言三十天,而禁言的理由我們經常認為沒什麼特別的,這是過濾的問題。
第二個問題是排序,排序影響我們的想法形成,也就是先入為主。當有十個論述,先讓你看到八個支持方,最後兩個是反對方,此時你會對後面兩個論述抱持非常負面的看法,因為前八個論述中你已經形成了心證。如果在法庭中,我們會要求雙方有平等的空間,讓法官能夠判斷哪種論述是合理的,如果今天形成一個法庭,裡面先講百分之八十支持某個論述,再把時間留給反對的人,所有人都會贊成支持的那一方,在網路上,這種先入為主的偏見非常容易形成,因為它會形成這種排序。可是,平台公司成立的目的是商業利益,不應該會主動涉入政治事件,那為什麼會變成這樣呢?傳統媒體過濾、排序的方式是由總編輯決定誰要看這個新聞、不看這個新聞,無論記者採訪多少新聞,編輯決定了這一次的報導內容,閱聽人能做到的是選台。在網路的時代,頻道跟頻道之間的界限模糊了,我們剩下的是平台而不是頻道,是平台排序,所以決定權從頻道移轉到了平台。
網路與過去不同之處在於,其決定由演算法則形成,有一類演算法法則按照時間順序排列,這種媒體已經變得很少,大部分的媒體是採取最適成果的演算法則,也就是「你最同意的成果」,也因此很容易形成同溫層效應。如果你支持某個偏激的立場,AI演算法則算出了你是這種立場,因此在眾多資料庫中不斷找出與這個立場相符的東西播送給你,你就會感到滿意,其結果是你相信自己的立場被社會大眾所支持,並不斷循環放大,使信心增強。原本可能對於自身立場抱有的懷疑,因為社交平台不斷告訴你,你就是這個立場的支持者,而周遭的人都支持你的立場,就導致了想法的固定。也因此排序演算法則成為很大的關鍵,無論以什麼方式做、用什麼權重,只要分析得越好,這個問題就越嚴重。
常見的社交媒體,包含LINE、Facebook、Instagram、PTT、抖音在內,都是一種Web 2.0,也就是平台訊息內容由所有使用者共同產製。理論上,內容無法被控制,可是因為排序存在,所以控制的問題仍然會出現。在社交媒體訊息的接受上,控制者大概有兩種:一種是閱聽人主控,一種是平台主控。閱聽人可以透過加入好友群組、按讚、追蹤、訂閱等功能對資訊有某種程度的決定權。以LINE來說,平台主控的權力非常小,同溫層效應或沉默螺旋是使用者造成的,平台並無法推播資訊,儘管LINE有嘗試做類似Facebook的功能,但並沒有太多人買單,而LINE上的資訊排序是依照時間序排列,除非經過釘選。
不過,除此之外的幾個媒體,例如Facebook、Instagram並沒有辦法得知為什麼看到那些資訊,有可能是涉及發訊時間、多少人按讚、與你的相關程度,但公司並不會告訴你比重如何。實際上的公式可能是對Facebook公司有利的,比如使競爭對手YouTube的連結資訊盡量不被看到,但內部人員並不會承認,也不會說明為什麼含有YouTube的連結,演算法就會認為資訊是沒人要看的。這些演算法的最終目的是,要決定主動推播那些資訊給閱聽人?這其中又涉及收費與否等不同情況,如果一個訊息因為付費而被很多人看見,就算不再推播廣告後,因為曾經被很多人按讚,排序仍然會在前面。在演算法中,會存在很多細節是值得討論的。
除此之外,PTT也是不那麼仰賴演算法的媒體。PTT基本上是由大家共同維護的媒體,背後並非商業公司,所以基本上沒有演算法則推播訊息。此時排序或使使用者決定要看什麼訊息的方式,通常是時間序或爆紅的標記。時間序沒有辦法操弄,但爆紅的標是可以,例如借助外力,這就會牽涉到網軍的問題,網軍的目的經常是欺騙演算法則。
平台演算法的目的就是算出閱聽人最想看到的訊息、延長閱聽人的黏著,最終創造平台的最大營收,而非遂行政治目的,不過卻衍生幾個問題。第一是同溫層效應,來自平台演算法及使用者選擇,閱聽人希望能夠收到與立場相符的訊息,因此當收到訊息時會感到認同,就會產生同溫層效應。演算法在此推波助瀾,把與你立場相符的資訊不斷推播給你,讓你覺得在這個平台很多人認同你,同時,使用者與和他立場相符的帳號互動也會有影響。
第二個問題是政治作戰,這是網軍設法形塑輿論與演算法則被誘導這兩件事的結果。這是因為,對平台來說要找到主流意見,推播主流意見給使用者時,比較容易讓大部分使用者感到認同,好比說一個要追求最大收視率的電視台在決定留什麼新聞時,當然會選擇立場和一般主流意見最相同的。這如何與網軍產生關係?網軍透過不同來源創造類似的資訊,進而形成網路上的主流資訊,這些平台的演算法則就會被網軍欺瞞,推播網軍形成的主流意見。對一般使用者來說,如果一開始對訊息立場並沒有定見,就會參考網路的主流意見,當網軍在網路上貼了大量的主流意見,就會影響使用者形成對於事件的看法。這兩件是疊加變成認知作戰,任何一個訊息出來時,透過網軍用大量評論引導主流意見,再引導演算法則,讓演算法則判斷它是主要意見並進行訊息推播,再來就是社群網站的沉默螺旋形成。
我們曾經在學校做過一個實驗,讓大家看一部電影,並先讓受試者看見60%的主流意見認為電影很好,所有人都會評論電影是好的;反過來說,如果先呈現60%的主流意見認為電影不好看,受試者就會說電影其實不好看。如果電影都有沉默螺旋,更何況是社會議題?在演算法算出主流意見、受到最多閱聽人支持下,對少數意見的支持者來說,他們發現主流意見並不支持自己的想法,與其跟大家辯論,不如不要理會就好,因此他們會不願意發聲或做任何回應,這就會讓演算法失真,因為不同立場的人選擇忽略問題,本來是六比四的主流意見,因為偵測不到少數意見,而可能放大成九比一或十比零。呼應最近養網軍、貼文章的新聞,可以看到某則訊息刊出之後,在同一時間點有十幾個粉絲專頁同樣貼出同一篇文章,顯然十幾個粉絲專頁都是同一個單位付錢經營的,但形式完全不同、彼此之間看似完全沒有關係。這個現象有兩個可能的成因,第一是為了欺瞞使用者,第二是欺瞞演算法則,使演算法則成為助力。
我認為未來的可能方向是要求過濾或排序的演算法更加透明。所以馬斯克買推特時,要做的第一件事就是請推特把演算法公開透明,當然這是他的宣稱,如果他成為推特的老闆,是否仍會保持原本的立場是存疑的。第二,是否有可能在演算法則上設法找出這些網軍,避免網軍的欺騙與操弄,或是調整演算法以容納更多元的資訊,而非只是最大化消費者認同,以及讓消費者掌握資訊呈現的決定權。
問題與討論(敬稱省略)
吳俊穎:
是否有辦法提供例如假訊息可能是來自於少數幾個同溫層,或者是可能一些所謂的IP資訊給讀者?
汪志堅:
這是大家都在設法做的事情,政府也投注很多力量。不過下一個問題是,根據過去研究及是實際狀況,假訊息的認定會被質疑立場不符,這是社會信任的問題。因此並非單純過濾出假訊息即可,問題在於誰來過濾、誰有權決定。例如普丁過世的例子,很少人敢直接說這是假新聞、指出是假訊息沒人理會,但其實媒體都有報導,或是露面後先前訊息就是假的,但如果有預設的立場,就不會在意這些資訊。好比說如果希望金正恩過世,就會傾向信任金正恩身體不好的新聞,如果之後發現他沒過世,也不會太過後悔曾經相信這些新聞。
王立達:
演算法其實會推播訊息給用戶,用戶端也可以做過濾,但過濾的選擇力量並不是那麼大。我在想是否有可能做用戶端的平台,它可能是付費制、跨不同資訊來源的,也就是user side algorithm?依我自身的經驗,從15年前開始有所謂的書籤,早期台灣有一個HEMiDEMi平台,可以追蹤一些人,這些人透過平台分享讀過好的報導,這些分享的文章就很有效果。但那個時代好像已經過去了,現在在臉書的訊息無論是深度或量都不夠,因此我在想是否能夠運用現在的科技,反過來讓用戶主導,成為該平台的用戶後,可以指定要怎樣的新聞,也可以是付費制的。不知道現在科技是否可行,或有無新創公司在做這方面的事情?
汪志堅:
有一個類似臉書功能,但沒有演算法則的是telegram,是俄羅斯的open source團體,也有很多台灣的人在使用,不過最多人使用的是高度資訊控制的國家,如果排序會發現很多使用者來自俄羅斯、伊朗,以及近年的香港。Telegram的缺點是,因為沒有商業運作,服務較為陽春。不過,這類服務的問題是,如果不在原本的社交圈內,就不會看到新的訊息,也就是沒有開拓新朋友的功能。
在新聞的整合器部分,很多公司都在做,yahoo和google news也是新聞整合器,這會面臨剛剛提到的問題,如果平台願意更加公正,就可以廣收各式訊息內容,因此會蒐羅不同立場的新聞,但此時就面臨排序的問題。通常針對同一則新聞,一般使用者不會看二十次,所以排序的第一篇、第二篇決定了使用者會不會往下看。如果網軍或類似網軍的群體要形塑主流意見,這時演算法應該如何分辨這是同一個集團的新聞,把權重放低?如果A版本有多種相同的型態,但相同新聞的B論點只有兩個版本,此時演算法就會自動把A版本放在前面,因為A是主流訊息。這也是為什麼政治人物會花錢經營各式媒體,這是因為可以騙過新聞整合器,讓整合器播出自己的立場。從比重來看,A版本真的很多人看,B立場被打壓不是因為政治力量,而是演算法自動把B立場往下壓了。因此,這些演算法則一開始並沒特定意圖,卻會達成同溫層效應的效果。
李建良:
從報告人的角度來看,哪些部份需要法律管制?哪些部份要自由發展?
汪志堅:
有許多爭議問題都是可以討論的。例如是否應以法律要求平台適當保存或驗證使用者身分,這會直接影響網軍的經營方式,一般使用者會誤以為每個人只有一個帳號。下一個問題是,平台如果基於利益涉入協助網軍經營,例如三星網軍案,平台幫忙創造網軍訊息,基於商業利益考量收取費用,是否可以在法律上要求揭露?如果平台或使用者收費製造網軍訊息,可否要求這些人揭露?再退一步說,如果出資者是政府單位,可能有一些單位是接受贊助才有辦法長期性的在網路上試圖要操弄言論,那可否要求政府雇員發表攻擊性政治言論時,揭露這是政府出資的廣告?是否像這些事情變成網路上攻防的時候,我們也應該要設法去做這些規範?另外也有人討論到,當出資人是境外敵對勢力時需要揭露,那麼其他外部力量是否也要要求揭露呢?如果出資的單位是政府人員呢?這些問題大家都不敢去碰,實務上可能一碰就有很多人會符合條件。

吳俊穎/後疫情時代人工智慧醫療大數據與法律實證研究的發展
遠距醫療與智慧醫療的醫療樣態
智慧醫療運作的模式,首先IoT搜集來自健保資料庫、穿戴式裝置的數據後,將其大數據化成為Big Data,利用人工智慧進行分析之後,再透過其他實體Robot的運作繼續搜集更多IoT,形成一個良性的正向循環。AI現在發展的功能十分多樣且實務,且在醫療上也有非常廣泛的運用,例如可以透過AI進行篩檢是否有肝癌或胰臟癌等病灶的存在,為良性活惡性等等,過去腸胃息肉需做切片耗時且對於病患有相當的風險,但在2017年時,即可透過AI成功預測此時是否需要切片或僅透過追蹤即可,再接下來陸陸續續AI發展,甚至可以得出比專科醫師更加快速且準確的醫療判斷,也導致放射等科別面臨需求人數下降甚至失業的情況,日後也更有可能完全被AI所取代。
在瘟疫蔓延及戰爭時期,是新技術發展最迫切也最快速的時候,此次Covid19的事實讓非常多新技術,特別是5G技術快速落地,5G可以結合穿戴式偵測裝置並且已經在我國醫療院所適用,5G的突破性在於比起4G,擁有更大的頻寬,可以快速傳送大量的資續訊且幾乎不會有延遲;覆蓋範圍廣泛且節省能源。因著這些優點,可以應用在居家遠距的照護,甚至是急難救助等。
5G可以在以下五個角度改變醫療照護的模式:
- 提供穩定、實時的監控,可以使醫療人員在第一時間得知患者狀態。
- 節省能源,並可以快速的傳遞大型影像檔案。
- 優化AR、VR等的空間計算,可以做到過去無法的醫療行為例如遠距手術等。
- 結合AI,例如遠距醫療時robot會記錄各別醫師的處置並記憶供下次計算使用,並改變整個醫療照護系統。
- 使遠距醫療快速發展,2010年起臺灣已逐漸將遠距醫療納入健保給付範圍,2021年成為遠距醫療健保給付元年
遠距醫療與智慧醫療的醫師親自診療義務
依醫師法第11條,除偏遠地區或特殊急迫情形外,醫師應親自診療,但何謂「特殊、急迫」、情形,直至107年才透過通訊診察治療辦法進行明確規定,特殊情形包含急性住院病人術後的三個月追蹤、長照服務、有關家庭醫師整合性照護法令規定之病人、認可遠距照護者診療後三個月內之追蹤治療、境外病人等;急迫情形則指生命危急或有緊急情況,需立即接受醫療處置者。自從Covid19疫情爆發後,得遠距治療的初診病患,從原先通訊診察治療辦法僅限境外病人,擴張至如居家隔離不便出門者均得適用;開予給方劑的部分,也可以透過遠距進行。
美國在1996年就通過了跨州醫療行為模範法案,要求醫方務必先取得患者所在地公家核發之許可證照,否則不得從事遠距醫療之相關業務,並且透過許多詳盡的規定,確保遠距醫療提供之照護水準,無論如何應與傳統的當面診療一致;接著授權各州亦可訂立相關遠距醫療的規範,例如加州在2011年制定「遠距醫療促進法案」予以逐步鬆綁,後續結果不僅納入口頭同意、放寬適用對象(如自閉症專業服務人員或家庭治療師等),甚至將此項服務升格為私人健保之給付範圍,造福社會大眾。
世界醫師公會於2018年時亦發佈了遠距醫療倫理聲明,也被衛福部作為日後訂立相關遠距醫療規範時的重要參考,其中最重要的準則包括了1.醫師和病人之間的面對面諮詢,是臨床照護不變的黃金標準、2.提供遠距醫療服務需與醫師當面提供一致,並有證據支持、3.執行遠距醫療業務時,亦應遵從醫學領域須遵守的倫理原則。原則上,醫病關係應建立在當面診療,以及對病人的病史充分了解的基礎上;遠距醫療主要應在醫師無法在安全和可接受時段親自診療的情況下為之;它也可用於慢性病管理或已完成初步治療之後,確定安全有效的追蹤階段。遠距醫療應適時納入地方管理體系以保障病人最佳利益,包括遠距醫療平台許可執照的核發。世界醫師會與各國醫師會應在適當時機,鼓勵制定執行遠距醫療業務相關的道德準則、醫療指引、國內立法與國際協定,同時亦保護醫病關係、保密性與醫療品質。
病患隱私權及醫療品質保障
透過網路的遠距醫療為了避免資安危險,所有資料應經過加密,並依當地最先進的安全技術防止他人未經同意取得病人資料,傳輸上也應採取嚴密的保護措施,這是世界醫師會遠距醫療倫理聲明當中宣示的原則。德國2015年通過數位健康法,重在推展醫療保健系統加諸資訊安全之基礎設施,主要藉由存儲在數位健康卡(die elektronische Gesundheitskarte)內之醫用緊急資料,可供迅速獲悉有關患者之過敏症或既往病史等重要訊息,免於藥物交互作用之危險發生,卡內亦可輸入電子病歷(如出院摘要等)並得以協助診斷與治療,患者亦可自行決定何種臨床資訊納入卡片儲存,並予提取或授權他人查閱,反過來此處插卡之身分查驗、電磁紀錄等機制,更將成為數據安全的保護利器。
自2021年起,德國的健康保險業者須向被保險人(病人),提供電子病歷(ePA),自2022年起,病人有權要求醫生將病人相關資料記錄於電子病歷,而被保險人更換健康保險業者時,可要求移轉其電子病歷至新的健保公司。依照規劃,電子病歷的使用仍採自願性,病人可決定保存或刪除哪些資料,以及誰可以近用該文件。自2023年起,被保險人可自願提供電子病歷資料作為研究用途,而因上述研究可處理病人資料之醫師、診所和藥劑師等,有義務確保其資料安全。
歐盟也於2016年通過「一般性個資保護規則」,從中揭示國際公認個資保護之基本原則,諸如目的限制、資料使用最小化、透明性要求、問責制等等,凡此皆可納為機密安全保護之操作準則。
醫療的法律責任:醫師責任還是產品責任?
此處探討的問題是,假如AI做出了診斷,醫生是否應承擔最終的醫療責任?AI在智慧醫療所扮演的角色為何?美國FDA將類屬AI驅動之儀器設備定性為軟體醫材(Software as a Medical Device, SaMD),導入國際公認之SaMD風險分類架構,根據在臨床上的應用以及病患的嚴重程度分為四級:
- 僅是相關臨床資訊的告知,AI僅就一般相關處置考量個別病患的病史及特殊情形後給予建議,此部分重要性較低。
- 推動臨床管理,涉及醫院相關資訊系統的管理,影響病患手術安全及相關照護安全,具有較高的重要性。
- 涉及病患的診斷治療,影響後續臨床決策及處置方向,具有最高的重要性。

接下來,SaMD也有不同的產品效能(product performance),首先會搜集臨床相關資訊,進行關聯性的分析,例如IBM推出的doctor Watsons,告知病患在此一情形下,依據過去的臨床試驗、相關文獻、醫療學會臨床指引、二次數據分析等,建議使用何種藥物或治療方式:進一步可以進行分析/技術驗證,計算該診療及後續追蹤的準確性、可靠性、精密度等;最後仍要進行臨床驗證,檢驗該醫療設備後續臨床使用上的敏感度、特異性、優勢比為何。若要引進相關醫療器材,都應經過這樣的檢驗流程。
結論
在接下來的十年間,遠距及智慧醫療將大幅度進入醫療體系之中,不只是幫助醫師,對於病患的診療或是後續的追蹤皆可提供非常多的助益,尤其在少子化及高齡化的社會,這樣的醫療模式也會顯著地改變醫病關係,在此同時相關的法律規範也有助於引導及使智慧、遠距醫療的落實更加快速。
問題與討論(敬稱省略)
王震宇:
高齡者過去前往醫療院所可能行動不便或有較高風險,是否會因為疫情時期採用遠距及數位醫療而改變日後的醫病關係?或這樣的情形只是因為特殊緊急情況才例外採用?
吳俊穎:
臺灣在過去已透過遠距醫療提供許多國際醫療,但在國內推動時遇到的阻礙主要是因為若病人不實際到醫院診療,院方將喪失許多額外收入如停車、美食街等,且遠距醫療本身需求的設備及相關人力又高出傳統醫療行為;至於較偏鄉的基層醫師,亦會擔心病患透過遠距醫療尋求大醫院或醫學中心的協助,而因此喪失基礎病患。種種原因造成衛福部過去想推動遠距醫療卻遇到重重阻礙,直到疫情時期不得已有此需求,醫院不得不配合,也透過醫學中心跟診所的簽約,讓二者相輔相成,建立起彼此的連結及互信,而非互相競爭。至於疫情過後病患是否會回復實體醫療的習慣則有待觀察,但在高齡化社會的現狀下,遠距及智慧醫療絕對是不可避免的趨勢。
李建良:
遠距醫療如剛剛講者提及的,以遠距外科手術為例,並非可以任意開放,因為會受到各種醫生養成的影響,取得醫師資格後還要通過許多術科的測試才能進行手術,並且需要取得執照,想請問若開放遠距醫療手術,是否會對整個醫學教育、考試等體系產生根本性的影響?
吳俊穎:
這是一個非常根本性的影響,robot會記錄醫師過往的開刀手數,全世界累積經驗下來可以預期不用很久,robot即可以獨立進行開刀手術,反過來說應該要擔心的是病患是否可以接受robot幫自己開刀,中間若產生醫療糾紛,應該用產品責任解決,以後的一些同意書簽署等等,是否也應該使用AI等網路平台,可以透過平台對話回答手術相關的疑問。可以預期在十年內,包括手術前的同意及手術本身都由robot完成,這是即將快速來臨的時代。
黃相博:
想請問您以專業角度思考,若是自己或周遭親友有手術需求時,會傾向由AI為您進行還是可以由醫師面對面諮詢,您會如何評估?
吳俊穎:
如果是在近十年內有手術需求,我還是會選擇自己熟悉且技術精湛的醫師,以自駕車為例,可能過了五年十年之後車禍率會遠低於自行開車,且當車子都是自駕車時風險可能會更低,所以將來若AI學習足夠多樣本數且可以了解病患多樣性時,出錯的可能性會比人類還低,屆時可能是十年後,我可能會選擇AI醫生來開刀,不過僅為個人想法。