撰文/葉于甄
美國人工智慧研究室 OpenAI 所開發的生成式 AI 聊天機器人ChatGPT,除了能如真人般進行回答應對外,也具備編寫文章、程式語言等能力,自 2022 年 11 月起在各行各業中掀起一陣生成式AI浪潮。然而隨著AI人工智慧的普及,許多歐美國家開始意識資訊安全、營業秘密、個人隱私等問題,如義大利監管機構曾提到,ChatGPT 的使用者可能會在無意間透露了公司的商業機密而造成資料外洩,因此摩根大通等部分企業已限制員工使用該類型的 AI 工具。
「當AI進入、觸及人類生活的各項層面時,新的法律問題也就因此產生」,夏普股份有限公司國際總部法務長朱宸佐律師將AI科技如何對法律造成影響的層面,分為下列九大項:
一、人工智慧的倫理規範
如何制定一部世界各國共通之倫理規範,是目前各國發展AI的重要趨勢,如5月21日在日本廣島甫結束的G7會議,其中一項議程即為「AI的倫理規範與共同監管」。
二、資訊安全、個人隱私保護問題
AI需要透過大數據進行深度學習,因此收集數據是AI運作的基本條件,然而一個價值越高的數據,往往包含越多的個人資訊,換言之,收集價值愈高的數據,對個人隱私侵害愈是嚴重,因此在收集數據的同時,如何在去識別化及保護個人隱私間取得平衡,是目前個人資料保護法十分關鍵的問題。此外,資通安全管理法的等級分類也相當重要,如何針對不同數據架構、數據價值等透過分類並進行有效、針對個人資訊提供嚴密的保護,也預計透過修法將資料外洩罰則提高至新台幣1,500萬罰鍰,讓業者們針對資訊安全保護有更高的意識。
三、數據財產權
「數據是人工智慧時代的石油」,朱宸佐律師談到在發展AI的產業中,勢必會運用數據的理由有二,第一,任何系統、程式的驅動都需要有AI作為燃料;第二,數據本身具有非常高的財產價值,任何公司掌握了該領域的大數據,也就掌握了市場命脈。「數據財產權」是一個全新的法律概念,在目前民法規範下,數據財產權應歸類在物權、債權、或是智慧財產權,尚無法被精確定義,也因此未來法律適用者應如何界定「數據」之性質,在法律實務運作上十分重要,特別是當數據被侵權時,應該基於什麼樣的請求權基礎進行求償,都需要更加細緻的討論。
四、現行法律內容的更新
當新的工具、載具出現時,各項法規該如何因應預期可能的法律問題?舉例來說,當無人自動駕駛車發生車禍時,卻因為沒有自然人駕駛,而無法依現行法律由駕駛人承擔相關民刑事責任,此時誰應承擔民法上損害賠償責任或刑事責任,即會陷入曖昧不明的情形。由此可知,在新型態科技出現時,現行法規通常必須面臨更新及修正。
五、智慧財產權
目前此議題已發生以下的法律爭議,例如:AI就其創作之作品是否享有著作權?當自然人使用AI工具進行繪圖、撰寫一篇新聞報導時,相關著作權或所有權是否屬於OpenAI?還是ChatGPT中數據資料所有者?又或是可以宣稱是該創作者所有?雖然依目前各國法院一致見解,皆認為只有自然人創作出的作品才擁有著作權,但此部分著作權或所有權歸屬問題,值得法律人重新探討。
六、金融科技所帶來的金融風險問題
朱宸佐律師認為在金融科技領域中,其實更容易有相關法律爭議產生,例如運用區塊鏈技術架構所產生出的比特幣、以太幣等由AI底層技術產生出的虛擬貨幣,是否會構成洗錢防制法的標的?是否應以銀行法來規範?炒作比特幣是否可以用證券交易法進行規範?都是相關新興金融風險的法律問題。
七、出口管制
在中美國際貿易競爭背後,談的是科技競爭,因此AI相關產品在未來都可能變成出口貿易管制的中心,例如AI產品定義為何?進出口AI產品是否違反出口禁令的相關法令?此皆值得法律人重新探討。
八、競爭法
《競爭法》談的是在單一產業中,使用不公平的方式、排除其他業者進入,進而壟斷市場,在AI產業中裡,可能就會發生此類的情形。以ChatGPT為例,現在Open AI公司所擁有全世界至少1億5,000萬以上用戶,可能是目前生成式AI聊天機器人擁有最多數據的公司,這也變相排除其他競爭者進入該產業,而可能構成「數據壟斷」的情形。其中一項著名的案例是來自微軟旗下的專業人才社交網站LinkedIn,在2017年向提供人力資源資料科學服務hiQ Labs發出停終(Cease and Desist)信件,要求hiQ Labs不得再抓取公開的LinkedIn會員個人檔案資料,這使得hiQ一氣之下以數據壟斷告上法院,美國聯邦法院最終判決結果表示hiQ抓取網站的公開資料是合法的,判決書中提到:「LinkedIn好比是一家商店,你可以拒絕妳不喜歡的客人進店購買東西,但這些公開資料就好比放在透明櫥窗上的展品,不能阻止路過的路人查看你透明櫥窗上的商品。」
九、勞資問題
由於AI取代許多重複性、連續性的工作,這也導致原來的勞動需求下降,例如初階程式工程師、律師助理,甚至是部分媒體工作者,都可能被生成式AI取代。因此當AI發展越來越快時,政府是否能提前面對實現公平正義、保障人民工作權,如提供AI學習、輔助資源等,即為成為重要的議題。此外,大量的勞資爭議、協商問題也可能出現。
以ChatGPT為例的侵權與商業保護
「數據本身具有流通性,當數據來自世界各國,該如何去追蹤自己的資料是否被侵權?」就此問題,朱宸佐律師認為,應該先回歸ChatGPT的隱私權規範進行討論。ChatGPT官網上清楚寫著會搜集用戶資訊並儲存在Open AI的數據中心,此中心主要目的是訓練ChatGPT的演算法以改善服務品質。另一方面,在基於非商業目的之下,ChatGPT會分享用戶數據給第三方使用,這部分可能就有侵權的疑慮,但ChatGPT也規定會嚴格遵守歐盟的GDPR及美國加州消費者保護法CGPA之規定,更強調API是以通過第三方的安全認證,此外也提供用戶刪除權及拒絕權。
針對刪除權問題,朱宸佐律師提醒在ChatGPT規定協議中,員工如若不小心將公司營業秘密上傳至ChatGPT,可以寫信向Open AI提出申請,但在協議中所提及的是Open AI於30天內將資料刪除,在這30天之內,無法知悉相關資料是否已被他人拿去使用。朱宸佐律師認為,使用ChatGPT有個資侵害之風險,不小心將公司營業秘密或商業資訊上傳到ChatGPT中,一旦被洩露,可能就會違反契約上的保密義務。朱宸佐律師坦言,如若將層級拉至國家政府單位時,是否會進一步變成國家機密洩漏的國安事件?
今年4月初、5月時,韓國三星集團連續發生3起員工使用ChatGPT,導致三星內部資訊外洩,其中包含半導體設備測試資料庫、瑕疵軟體改善、以及會議記錄的重新編程。因此三星集團即禁止員工使用ChatGPT。回到企業內部如何做好營業秘密保護措施的議題,朱宸佐律師認為,這與ChatGPT或AI並沒有直接性的關係,而是企業本身如何防止資安外洩、營業秘密外洩的問題。從營業秘密三要件的價值性、秘密性與合理保護措施著手,都需要做到讓員工主觀上意識到「資料是營業秘密,我具有保護他的意識」,而客觀上也須做到一定程度的保護措施與機制。
盼人工智慧基本法草案擬定,因應快速變遷的社會環境
「我認為這是很重要的議題,從最一開始的科技倫理使用規範,到企業自行保護資料等,任何使用風險需要自負,但也需要有法律規範能夠遵守」,同時擔任財團法人人工智慧法律國際研究基金會秘書長朱宸佐律師表示,行政院已經召集NCC、數位發展部、國科會期望在9月推動台灣人工智慧基本法草案,作為台灣發展人工智慧科技的母法,透過法制化與法律效力的規範,才能防止AI產品在未來發展過程中失控。
除了歐盟的國際公約外,德國於2019年早已著手草擬人工智慧法案,目前仍在草擬過程中;由於碰到ChatGPT這類型的生成式AI機器人出現,讓原先基本法草案裡需重新定義生成式AI的監管。若台灣能公布人工智慧基本法案,更是領先大部分先進國家,作為引領人工智慧法的先行者。他強調,「訂定基本法,不等於約束科技、限制發展,反而是跟著科技發展的腳步一起前進」。
最後,回歸律師如何面對AI時代的法律問題,朱宸佐律師表示,「不論律師或其他行業,重點是預備好3個步驟,第一是發現問題、再來提出問題、最後解決問題」,可以解決問題的律師,透過法律結合社會、商業、政治情況抑或是人脈等,提出解決方式是永遠不會被取代,「這也是當代律師價值的所在,因為你不是一個只會使用工具的工具人」。
@57期執編律師:張天界律師、郭怡青律師、蔡雅瀅律師