歐洲執委會發布針對生成式人工智慧的內部指引準則

◎ 高國祐

歐洲執委會(EU Commission)於2023年5月底針對執委會工作人員應如何使用線上生成式人工智慧模型發布了內部之指引準則。此一準則之目的旨在協助歐洲執委會之工作人員了解生成式人工智慧模型(諸如:ChatGPT)可能帶來的風險以及使用上應注意之事項。其建立之規則主要有五大要點:

首先,鑒於傳送給生成式人工智慧模型之資訊都會提供給該模型之供應者。而依照生成式人工智慧模型之運作模式,這些輸入的資訊隨後皆有可能反饋到未來所生成之輸出結果中。因此,於此必須注意的風險即是,應避免與人工智慧模型分享未經公開之機敏資訊或者個人資料。

其次,則與人工智慧模型潛在的缺陷有關。鑒於訓練資料及演算法本身之缺陷或者不足,其所產生的結果即有可能為錯誤或者帶有偏見。而如此問題在資料庫以及演算法不透明之情況下將變得更為嚴重。因此,準則即規定,工作人員應嚴格評估人工智慧模型所產生之回應是否帶有偏見或者與事實不符。

第三,在缺乏透明度的情況下,還可能存在侵害智慧財產權的風險。蓋因受智慧財產權保護的內容可能被用於訓練人工智慧模型,而在模型產製的輸出結果並未標明出處或作者的情況下,使用者幾乎不可能從智慧財產權權利人處獲得必要的授權。在此之下,準則即規定,工作人員應嚴格評估人工智慧模型所產生之回應是否侵害了智慧財產權。

第四,在人工智慧模型所產生之回應有侵害智慧財產權風險之情況下,準則亦進一步要求,工作人員不應直接將人工智慧模型之輸出結果直接複製到執委會的文件中,特別是具有法律拘束力的文件。

最後,鑒於生成式人工智慧模型並非隨時可用,因此要求工作人員不得在緊急重要的任務中依賴這些工具。

綜而言之,雖然此份準則僅是作為歐洲執委會針對職員的內部規範,然而其仍點出了生成式人工智慧目前所存在的風險及其限制,諸如:透明度和偏見問題,隱私侵害及智慧財產權侵害等風險。此外,需注意的是,亦如準則所述,生成式人工智慧技術的功能仍不斷在發展之中,因此其所可能存在的風險亦可能不斷變化,相關的監理與規制亦須不斷進行調整。

Photo by Google DeepMind on Unsplash

《線上生成式人工智慧工具使用準則》

  1. 目的

此一準則旨在幫助工作人員評估線上生成式人工智慧工具的風險及其限制,並且對於如何在執委會的工作活動中安全利用這些工具設立條件。本準則涵蓋於網路上所公開提供的第三方工具。本準則所討論的風險及其限制未必與執委會內部開發的生成式人工智慧工具相關。執委會內部所開發及/或控制的工具將按現有的資訊技術系統依個案進行評估。

隨著線上生成式人工智慧模型技術的發展,相關的風險、限制以及法律規範亦不斷變化。因此,本準則應被視為一份活的文件而依需要進行更新,特別是考慮到《人工智慧法(草案)》(COM/2021/206號規則草案)的協商結果。

  1. 什麼是生成式人工智慧工具?

生成式人工智慧工具模型作為新一代的線上人工智慧工具可能嚴重影響我們的工作方式。目前最著名的線上工具有ChatGPT、Dall-E、Midjourney、 Bard AI、LaMDA、Aleph Alpha、Bloom以及Stable diffusion。生成式人工智慧模型是一種電腦程式,其設計的目的是生產類似於人為產製之內容。任何人都可以利用此一模型,諸如:利用線上聊天機器人要求其撰寫或摘要一段文字、生成一張新圖片、將表格內容進行圖像化等等。

生成式人工智慧模型從大量的資料中學習其模式和特徵。當用戶向模型提出問題或者要求時,模型會生成一個盡可能符合其過去學習結果的回應。這個結果可能會讓人覺得模型具有類似於人類推理的能力。生成式人工智慧模型存在巨大的潛力以增進我們工作的效率及品質。諸如:協助製作簡報、開發新的軟體程式、進行摘要等。

雖然開發生成式人工智慧工具的潛在好處固然重要,但意識到其所伴隨而來的風險亦相當重要。正如同執委會工作人員所使用的其他資訊或溝通工具一樣,生成式人工智慧工具只能在適當且安全的情況下使用。

  1. 生成式人工智慧模型的風險及限制

首先,在執行任務時所收到的資訊可能並未經授權而得予以揭露。向線上生成式人工智慧聊天機器人所提供之資訊皆會傳送給聊天機器人的供應者,而其隨後可以利用這些資訊生成未來可能向大眾揭露的結果。透過使用生成式人工智慧工具,工作人員可能無意間公開原先僅供執委會使用之資訊、敏感的非機密資訊、機密資訊或個人資料。

規則一:工作人員不得與線上生成式人工智慧模型分享任何未公開之資訊或個人資料。

雖然生成式人工智慧模型的表現不斷進展,然而工作人員仍必須意識到,這些模型可能產生帶有偏見及錯誤的答案。這可能是肇因於訓練資料本身的不足或偏見,也可能是基於演算法故意設置的偏見。生成式人工智慧模型的開發者並不一定對於所使用的資料或者演算法完全透明。因此,很難評估此類模型生產的答案的可靠性。

規則二:工作人員應始終嚴格評估生成式人工智慧模型所生產的任何回覆,以發現潛在的偏見或者與事實不符之資訊。

用於訓練生成式人工智慧模型的資料來源缺乏透明度也會引發與智慧財產權,特別是版權有關的問題。受版權保護之資訊可能被用於訓練生成式人工智慧模型,而這可能構成對於版權擁有者的權利侵害。這些資訊最終可被逐字(或幾乎逐字)複製到對於用戶的回覆中,然並未註明或提及來源或作者。此外,生成式人工智慧模型目前還無法在其輸出的結果中正確列出所複製的資料並且註明出處,因此很難獲得來自版權擁有者的必要授權。然而,模型的擁有者往往忽略這方面的責任。

規則三:工作人員應始終嚴格評估線上人工智慧生成模型的輸出結果是否侵害了智慧財產權,特別是第三方的版權。

規則四:工作人員不得逕將生成式人工智慧模型的輸出結果複製到公開文件中,諸如:執委會的文件,尤其是具有法律拘束力的文件。

最後,如所周知,生成式人工智慧模型具有穩定性的問題,諸如回應時間過長或者服務無法被利用。

規則五:工作人員絕對不能依賴生成式人工智慧模型來處理重要或緊急的程序。

  1. 結論

綜而言之,雖然可以探索利用生成式人工智慧模型以提高執委會工作的效率和品質,然而工作人員絕不應向其揭露非公開之資訊或個人資料。此外,工作人員應時時刻刻對於生成式人工智慧模型的內在風險及其限制保持警覺,並且對於生成式人工智慧模型的輸出結果進行檢查,以避免可能的偏見、資訊不正確及對版權之侵害。


參考資料