撰文/詹婷怡律師(前國家通訊傳播委員會主任委員/財團法人人工智慧科技基金會常務董事)
生成式AI(Generative Artificial Intelligence)巨浪於2022年席捲全球,從生成圖像的Midjourney和Stable Diffusion,到迅速火紅的ChatGPT在短短兩個月使用者就突破全球一億人大關,遠快於先前紀錄保持者抖音的9個月與IG的2.5年,各種AI應用新生物種百花齊放,充滿魅力也暗藏危機,無論在個人生產力的定義與流程、企業科技應用能力與營運模式、以及產業跨域跨界及典範轉移等面向,都將全面被改寫翻新。
人工智慧AI的發展已有長遠的歷史,回溯到圖靈測試與人工智慧的誕生、從機器學習到強化學習再到深度學習、及GAN生成對抗網路等,可視為前生成式AI 時代的技術奠基階段,生成式AI指的是,能基於大量的數據訓練,通過學習現有的模式和特徵自行創建和合成資料,也就是說,它有所「生成」,而不只是進行分析判斷。生成式AI可使用圖像、聲音、文字或Code為基礎,輸出圖、文,甚至藝術作品,而其應用領域持續拓展中,除了能產出一些較為簡易的文書、充當初級工程師,更在教育、醫療、行銷、金融、通訊、遊戲等各種領域,有著持續發展的潛力,相關的應用從實驗室、大企業正式進入普羅大眾的生活與工作,如果將2022年視為 AI 產製內容(AI-Generated Content, AIGC)元年,2023年ChatGPT為我們帶來的則更像是AI應用的iPhone時刻大爆發,生成式AI代表著真正「知識生產自動化」時代來臨。
Open AI和ChatGPT是生成式AI領域的代表性企業與技術,Open AI是一家致力於研發和推動開源人工智慧技術的公司,而ChatGPT則是他們所開發的一種基於生成式AI的對話模型,ChatGPT的出現改變了人與電腦之間的互動方式,其核心技術價值是讓自然語言與人工智慧得以融合,開創了「模型」主導內容生成的時代,經由ChatGPT,人們可以與AI進行自然而流暢的對話,獲得有用的資料並回答問題,這種改變為全球帶來了對生成式AI應用新的期望和需求。
生成式AI的應用在各個領域皆呈現出快速增長的趨勢,包括藝術、文學、音樂、設計等都發揮著巨大的創造力,例如,在藝術領域,生成式AI可以根據大量的藝術品數據,創作出新的藝術作品,激發了藝術家的創作靈感,在文學領域,可以生成小說、詩歌和故事,豐富了文學創作的可能性,同樣地,在音樂創作和設計領域也發揮著重要的作用,幫助藝術家和設計師創造出更具創意和獨特性的作品。
生成式AI的應用還延伸到商業領域,許多企業開始運用生成式AI來創建個性化產品和服務,例如時尚品牌使用生成式AI設計出獨特時裝款式,以滿足消費者的個性化需求;在廣告和行銷領域,生成式AI可以幫助企業創建引人注目的廣告內容和品牌故事,提升品牌形象和吸引力,生成式AI的應用還可在各個領域提高工作效率,減少人力成本,創造更多價值。可預期生成式AI將催生全新的商業特徵與模式及產業體系,帶來新的社會影響、法制變革與監管議題,也將為Blockchain、NFT、Web3.0、及Metaverse 帶來深層變化,引領人類加速逼近「科技奇點」。
許多討論集中在人類工作可能被AI取代的問題,事實上,AI角色是在以賦能的功能落實任務的執行,並非工作的取代,運用AI的人類應思考如何進行轉型和升級,將注意力轉向需人類創造力、情感和專業知識的領域,學習如何訓練AI為我們所用,發展出能夠有效合作與互動的人工智慧系統,使其成為我們的助手和合作夥伴,共同推動工作和創意發展。
由於生成式AI的發展和應用,全球數位轉型變得更加迫切必要,在數位轉型的過程中,生成式AI被視為推動進階創新和增長的關鍵要素,並帶來系統、格局與生態、文明典範轉移,由於成式AI催生全新的商業特徵與模式及產業體系,無法迴避地,數位轉型和生成式AI的應用對政治、經濟、社會各層面帶來相當的挑戰。
首先,數位落差及包括地域、族群、性別、社會階層等各面向的不平衡,可能加劇社會中的不平等現象,部分人口可能因為缺乏數位技能和資源而被排除在數位轉型的發展之外,因此,加強數位教育和培訓,提高公眾對於人工智慧的理解和識別能力,提升資訊素養,確保人們具備適應數位時代的能力成為迫切的議題。
其次,AIGC預期也將帶來法律面如著作權與資料治理、學術倫理與深偽造假新聞氾濫等對現行社會規範的挑戰,最直觀也最常見的,生成式AI 著作人是誰? 著作財產權屬於誰? 著名的Stable Diffusion是根據文本產生圖像的生成模型,只要輸入文字就可以產生相應的圖片,實務上在對OpenAI、Microsoft和 GitHub的集體訴訟中,原告們認為GitHub的Code生成器Copilot侵犯了智慧財產權,因為它立基的資料庫,經過了全世界無數人的編寫與調整──儘管這些編寫者認同開源的理念,Copilot所生成的Code卻很可能運用於商業營利,但對原作者群卻沒有任何相應的承認或補償機制,資料來源的揭露及可能的利潤分享是否是解決方案的可能性被提出討論。
由於生成式AI的訓練與應用需要奠基於大量且健全的資料/數據基礎設施、搭配演算法與強大的計算能力,這可能涉及到隱私、數據安全與資料治理的議題,如何在提高數據分析應用及資料經濟效率的同時,也能維護保護個人資料和隱私的初衷,引發了諸多相應制度與法規方向發展的辯論與探討,形成了所謂「 資料治理」(Data Governance)研究風潮。
所謂資料治理是指與有效獲取、管理、利用資料相關的一組實踐方法、策略、角色,其目的是確保資料在組織內提供盡可能多的價值,既確保品質又避免偏見,甚至在各種演算法的運用上更應極力防止惡意或過失造成的歧視,更深入來說,資料治理是指在組織內管理資料的策略,確認資料的品質和安全性,決定誰可以使用什麼資料以及何時使用,由於資料不是存在於單一的時間點,它是由來源、清理、更新、儲存、分析、傳輸、備份、刪除等步驟所創造出來的;為整個資料生命週期每一階段設定政策和程序,才是真正資料治理,資料治理是一個使組織資料變得可靠的過程,它還確保在整個組織內都能獲得高品質的資訊,使每個部門都可以根據這些資料做出決策。
隨著生成式AI的應用範圍擴大,倫理和道德問題也變得更為重要。生成式AI可能產生偏見或歧視性的內容,引發倫理和社會爭議,而生成式AI的可解釋性也是一個重要的挑戰,生成式AI的工作原理往往是黑盒子,人們難以理解其內部的運作和決策過程,這可能導致對其應用的可信度和可靠性產生疑慮,故研究人員和技術專家需努力開發可解釋的生成式AI模型,使其決策過程更加透明和可理,AI應用還可能帶來包括物聯網安全與溯源管理、資料流通與資料近用、造成的損害如何認定及如何填補、是否引入保險配套措施等風險預測與控管措施等面向的討論。
正因為發展與應用可能帶來如上的風險與挑戰,因此有必要建立適當的法制(包括法律、標準、規範、自律原則等準則)和道德框架,且需包括數據科學家、AI工程師和法律與倫理專家等各領域專業人才共同合作,以確保AI的應用符合社會倫理和法律準則。
由於人工智慧相關技術急速發展,各國紛紛將人工智慧發展納入國家重大政策,預期帶動未來經濟發展,而相關法制層面的需求也日益增加, AI的監理與法制國際上早已關注,從學術組織如IEEE與各大科技公司自律規範、到歐盟、美國、日本等起步較早國家、OECD與G7/ G20等國際組織與平台,再到 GPAI的發展,因生成式AI的熱度更引發AI監理的加速發展。
歐盟執委會早於2018年6月即成立人工智慧高級專家組(The High-Level Expert Group on ArtificialIntelligence, AI HLEG),AI HLEG 2019年4月8日提出《可信賴的人工智慧倫理準則》(Ethics Guidelines for Trustworthy AI),同年6月公布《可信賴的AI政策及投資建議》(Policy and Investment Recommendations for Trustworthy ArtificialIntelligence),也建立了歐洲人工智慧聯盟(The European AI Alliance) 對話平台機制;歐盟執委會(European Commission)於2022年2月提出 White Paper — On Artificial Intelligence – A European approach to excellence and trust,再於2021年4月21日提出「人工智慧法律調和規則草案」(Proposal for a Regulation Laying Down Harmonised Rules on Artificial Intelligence (Artificial Intelligence Act) and Amending Certain Union Legislative Acts)(簡稱AI規則草案),一步一步形塑AI發展的監理環境與條件。
歐盟的目標是要透過可信賴的人工智慧建立對歐洲之正面影響,並促進歐洲公司各部門利用人工智慧及技術移轉,而公部門則扮演人工智慧增長及創新之催化劑,以確保歐洲具有世界一流之研究能力,同時影響歐洲各成員國建立可信賴之人工智慧,關於法規面的建議則是進一步制定政策和監管框架,確保人工智慧在尊重人權、民主及創新下發展,建立人工智慧政策制定者、開發者及用戶間的對話機制,若遇到將對社會或是人類產生重大影響之敏感性人工智慧系統,除透過歐洲人工智慧聯盟(The European AI Alliance)進行對話之外,也需要在尊重各成員國之語言及文化多樣性下展開協調機制。
另外,歐盟也特別提到,如果政府以「保護社會」為由建立一個普遍的人工智慧監督系統是非常危險的作法,政府應該承諾不對個人進行大規模監視,並在遵守法律及基本權利下進行人工智慧系統之發展。歐盟即將迎來全世界第一部AI監理規範,最新的的發展則是,對於歐盟正在擬議的AI法規,在美國政府內部引發如何監理的分裂式爭議與討論。
另一方面,於2022年東京⾼峰會部長發表宣⾔的全球⼈⼯智慧合作夥伴聯盟(Global Partnership on Artificial Intelligence, GPAI)則是全球就AI相關事務成立的國際平台,2018-19年之間,基於價值選擇的重要性,強調⺠主價值,主張應強化分析與討論⺠主正當性,法國與加拿⼤兩國即倡議成立⼀個具有獨立特質的國際性專家平台,主張各國政府在⿎勵AI科技的研發與應⽤之際,應該就諸如資料隱私的保護和演算法的公開透明度等AI必然涉及的價值與道德議題,進⾏兼具專業與⺠主考量的分析與討論,避免上述價值的詮釋與發展⽅向產⽣偏差,對⼈類社會造成負⾯影響。2020年6⽉G7科技部長會議,在美國主導下與會各國提出共同聲明──Joint Statement from Founding Members of the GlobalPartnership on Artificial Intelligence,參與⽅式:有「會員國」、「觀察員」或「專家」等三種參與⽅式。
GPAI是個包含國際性的多⽅利害關係⼈(multi stakeholders)的政府間合作倡議,其宗旨是以追求符合⼈權、基本⾃由及共同⺠主價值等基本原則可以落實在AI的發展與使⽤上為⽬的,同時也藉此呼應經濟合作暨發展組織(OECD)先前所提出的「OECD ⼈⼯智慧原則」(OECD Principles on Artificial Intelligence)。目前GPAI以「負責任的AI Responsible AI (RAI)」、「資料治理 Data Governance(DG)」、「勞動的未來 Future of Work(FoW)」、及「創新與商業化 Innovation & Commericialization(I&C)」等小組展開討論與工作。
生成式AI的趨勢發展帶來了無限的機會和挑戰,非僅改變人類與電腦的互動方式,並為各個領域帶來了創新的應用,然而,我們更需要正視相關的問題和風險,並採取適當的措施來確保生成式AI的安全、可靠和可控,這需要全球共同努力,以實現其可持續發展,並真正為人類帶來福祉。
@57期執編律師:張天界律師、郭怡青律師、蔡雅瀅律師