十年網(wǎng)站開發(fā)經(jīng)驗(yàn) + 多家企業(yè)客戶 + 靠譜的建站團(tuán)隊(duì)
量身定制 + 運(yùn)營維護(hù)+專業(yè)推廣+無憂售后,網(wǎng)站問題一站解決
ChatGPT 的爆火在全球社會引發(fā)了一場研發(fā)大規(guī)模語言模型的熱潮。以生成式人工智能為代表的新一代人工智能不僅革命性地改變了人機(jī)交互的形式,提升了人機(jī)交互的體驗(yàn)效果,還對人工智能產(chǎn)業(yè)產(chǎn)生了深刻影響,加速了人工智能大模型技術(shù)的發(fā)展與進(jìn)步,帶來了全新的發(fā)展機(jī)遇。同時,該技術(shù)的快速發(fā)展也帶來了一系列新問題與挑戰(zhàn),包括數(shù)據(jù)安全、內(nèi)容安全、社會安全甚至國家安全?;诖?,各國紛紛開始推進(jìn)生成式人工智能的治理進(jìn)程。鑒于數(shù)據(jù)是人工智能發(fā)展的關(guān)鍵基礎(chǔ),數(shù)據(jù)安全又是人工智能內(nèi)生安全的重要組成部分,確保網(wǎng)絡(luò)數(shù)據(jù)安全是應(yīng)對新一代人工智能治理挑戰(zhàn)的關(guān)鍵。第二十屆中央國家安全委員會第一次會議也著重強(qiáng)調(diào)要提升網(wǎng)絡(luò)數(shù)據(jù)人工智能安全治理水平,確保以新安全格局保障人工智能創(chuàng)新與應(yīng)用帶來的新發(fā)展格局。
一、生成式人工智能安全問題亟待予以高度重視
隨著大模型技術(shù)水平不斷提高以及大模型用戶數(shù)量日益增多,其安全性問題也變得越來越嚴(yán)重。盡管與所有人工智能模型一樣,生成式人工智能模型也會犯錯誤,但是這些錯誤回答往往具有欺騙性的說服力,生動且真實(shí),并且具有擬人化的特點(diǎn)。例如,當(dāng)使用者要求其援引某篇名著中的內(nèi)容時,ChatGPT 可能會給一個有理有據(jù),但實(shí)際上并不屬于該書內(nèi)容的答案。因此,隨著生成式人工智能技術(shù)的持續(xù)更新與完善,人類可能會越來越難以識別由大模型生成的具有誤導(dǎo)性的文本、圖像以及視頻等虛假內(nèi)容的傳播。
由于大模型具備很強(qiáng)的數(shù)據(jù)記憶能力,即便用戶沒有直接輸入關(guān)鍵信息,大模型仍然可以通過算法抽取出重要數(shù)據(jù),從而造成個人隱私信息外泄、敏感數(shù)據(jù)外流等隱患。例如,當(dāng)員工將公司信息以提問的方式輸入 ChatGPT 后(如使用 ChatGPT 將會議錄屏內(nèi)容整理成為文字),可能會導(dǎo)致相關(guān)內(nèi)容進(jìn)入其學(xué)習(xí)數(shù)據(jù)庫,從而造成數(shù)據(jù)泄露的風(fēng)險。美國數(shù)據(jù)分析服務(wù)商 Cyberhaven 在其官網(wǎng)上披露了關(guān)于公司員工使用 ChatGPT 會給公司造成何種安全性風(fēng)險的研究結(jié)果。該廠商分析自 ChatGPT 公開推出以來使用其產(chǎn)品的各行業(yè)公司共計 160 萬名員工使用 ChatGPT 的情況并發(fā)現(xiàn),截至 2023 年 6 月 1 日,10.8% 的員工在工作場所使用過 ChatGPT,8.6% 的員工自 ChatGPT 推出以來將公司數(shù)據(jù)粘貼到其中,至少有 4.7% 的員工將敏感數(shù)據(jù)粘貼到 ChatGPT 中。此外,分析結(jié)果還顯示,員工輸入 ChatGPT 內(nèi)容的 11% 為敏感數(shù)據(jù)。
美國加州大學(xué)洛杉磯分校教授約翰·維拉塞納(John Villasenor)于 2023 年 5 月 8 日在美國智庫布魯金斯學(xué)會(Brookings Institution)官網(wǎng)發(fā)布了對 ChatGPT 的政治態(tài)度進(jìn)行分析的結(jié)果。該研究通過詢問 ChatGPT 一系列關(guān)于政治和社會的問題,讓 ChatGPT 僅使用“支持”或“不支持”進(jìn)行回答。這一研究發(fā)現(xiàn),ChatGPT 是存在政治偏見的,其回答通常具有明顯的“左傾”特征。由此可見,ChatGPT 等大模型勢必會受到其所處國家的文化背景、政治環(huán)境等價值觀的影響,而這些倫理道德觀念不僅呈現(xiàn)多元化的特點(diǎn),其是否符合產(chǎn)品使用者所在地的基本價值觀和原則也仍未可知。因此,大模型的輸出內(nèi)容所體現(xiàn)的意識形態(tài)和價值觀可能會產(chǎn)生認(rèn)知安全問題,甚至對下一代教育、社會公平與國家安全產(chǎn)生影響。
基于此,全球各國和地區(qū)普遍高度重視研究與規(guī)制生成式人工智能帶來的安全性問題,并對生成式人工智能帶來的風(fēng)險與挑戰(zhàn)進(jìn)行系統(tǒng)分析。例如,新加坡信息通信媒體發(fā)展局于2023年6月發(fā)布的《生成式人工智能:對信任和治理的影響》,將生成式人工智能存在的安全問題主要概括為涵蓋錯誤和幻象、隱私和機(jī)密性、虛假信息有害性和網(wǎng)絡(luò)威脅、版權(quán)挑戰(zhàn)、嵌入式偏見,以及價值觀和結(jié)盟六大方面。
二、以網(wǎng)絡(luò)數(shù)據(jù)安全為切入點(diǎn)推進(jìn)人工智能治理進(jìn)程
雖然發(fā)展與應(yīng)用生成式人工智能帶來的風(fēng)險涉及倫理道德、安全合規(guī)等多個方面,但是由于數(shù)據(jù)是人工智能發(fā)展與進(jìn)步的重要因素,因此,在應(yīng)對這些問題與挑戰(zhàn)時往往也都離不開數(shù)據(jù)這一關(guān)鍵要素。例如,為規(guī)避倫理道德風(fēng)險,在利用數(shù)據(jù)對模型進(jìn)行訓(xùn)練時,應(yīng)確保其與普世價值觀的一致性,而由于價值觀會隨著時代的變革而變化,因此,需要增強(qiáng)數(shù)據(jù)集的時效性。對此,可以采用檢索增強(qiáng)的方式提高數(shù)據(jù)的實(shí)時性和真實(shí)性,從而確保生成式人工智能系統(tǒng)可以隨之不斷變化和改進(jìn)。并且,由于大模型的發(fā)展與進(jìn)步依賴海量數(shù)據(jù),因此,數(shù)據(jù)集的規(guī)模、均衡程度以及標(biāo)注的準(zhǔn)確性都會影響其算法的執(zhí)行效果。低質(zhì)量的數(shù)據(jù)集可能會在算法執(zhí)行任務(wù)指令時產(chǎn)生不安全的結(jié)果,例如生成涵蓋錯誤信息、偏見觀點(diǎn)以及具有誘導(dǎo)傾向的內(nèi)容。
確保數(shù)據(jù)安全是全球社會推進(jìn)生成式人工智能安全和可信發(fā)展的普遍切入點(diǎn)和重點(diǎn)關(guān)切。意大利個人數(shù)據(jù)保護(hù)局此前曾以侵犯數(shù)據(jù)隱私為由將 ChatGPT 封禁了近一個月,成為首個封禁 ChatGPT 的國家。該國當(dāng)局還表示,只有在公開 ChatGPT 的數(shù)據(jù)處理邏輯且解決一系列數(shù)據(jù)安全擔(dān)憂后才可以重新在該國上線。德國和愛爾蘭等國也緊隨其后表示,將會重點(diǎn)關(guān)注大模型應(yīng)用帶來的數(shù)據(jù)安全問題。此外,根據(jù)美國云計算服務(wù)軟件提供商 Salesforce 在 2023年 3 月對 500 多名 IT 行業(yè)領(lǐng)導(dǎo)者進(jìn)行的一項(xiàng)調(diào)查顯示,安全性是受訪者最關(guān)心的關(guān)于 ChatGPT 等大模型的問題,71% 的受訪者認(rèn)為生成式人工智能會給企業(yè)的數(shù)據(jù)安全帶來新的風(fēng)險。為了防止敏感數(shù)據(jù)外流,微軟、亞馬遜等科技公司已相繼限制或禁止其員工使用生成式人工智能工具。
我國一直高度重視網(wǎng)絡(luò)與數(shù)據(jù)領(lǐng)域的法治建設(shè),近兩年陸續(xù)出臺了《中華人民共和國數(shù)據(jù)安全法》《網(wǎng)絡(luò)數(shù)據(jù)安全管理?xiàng)l例(征求意見稿)》等一系列關(guān)于數(shù)據(jù)安全的法律法規(guī)、部門規(guī)章、團(tuán)體標(biāo)準(zhǔn)和指引。為應(yīng)對生成式人工智能給數(shù)據(jù)安全帶來的新挑戰(zhàn),國家互聯(lián)網(wǎng)信息辦公室于 2023 年 4 月初起草并發(fā)布了《生成式人工智能服務(wù)管理辦法(征求意見稿)》。該辦法是全球范圍針對生成式人工智能的首個管理規(guī)定。征求意見稿不僅指出了生成式人工智能的定義,強(qiáng)調(diào)在提供生成式人工智能產(chǎn)品或服務(wù)時應(yīng)當(dāng)遵守法律法規(guī)的要求、尊重社會公德、公序良俗且符合社會主義核心價值觀,且需提前向國家網(wǎng)信部門進(jìn)行安全評估申報。該辦法還明確了生成式人工智能產(chǎn)品或服務(wù)的提供者應(yīng)當(dāng)對生成式人工智能產(chǎn)品的預(yù)訓(xùn)練數(shù)據(jù)、優(yōu)化訓(xùn)練數(shù)據(jù)來源的合法性負(fù)責(zé);在設(shè)計算法和訓(xùn)練數(shù)據(jù)集時應(yīng)采取措施防止歧視;對用戶的輸入信息和使用記錄承擔(dān)保護(hù)義務(wù);以及應(yīng)指導(dǎo)用戶合乎法律法規(guī)與公序良俗地使用其產(chǎn)品。
三、在構(gòu)建數(shù)據(jù)安全“監(jiān)管護(hù)欄”的基礎(chǔ)上推進(jìn)全球共識
鑒于生成式人工智能發(fā)展速度和顛覆性潛力,以及其在倫理道德、安全等方面存在的廣泛風(fēng)險與挑戰(zhàn),除了我國率先發(fā)布了旨在專門規(guī)制生成式人工智能的管理辦法外,相關(guān)國家和地區(qū)政府已將生成式人工智能的治理與規(guī)制問題列為優(yōu)先事項(xiàng)。在數(shù)據(jù)保護(hù)方面,英國信息專員辦公室已向科技公司發(fā)出警告,提醒他們在開發(fā)和部署生成式人工智能模型時要注重保護(hù)個人信息。日本個人信息保護(hù)委員會也于今年 6 月初發(fā)布公告,稱 ChatGPT 在未事先取得使用者的同意前,不能獲取使用者的個人敏感信息。
在立法規(guī)制方面,在歐洲議會于 6 月 14 日正式表決通過的《人工智能法案》授權(quán)草案中已涵蓋專門針對 ChatGPT 等生成式人工智能工具的規(guī)制內(nèi)容,增加了更多提升其安全性的措施,例如要求生成式人工智能的開發(fā)人員在其產(chǎn)品進(jìn)行商業(yè)發(fā)布之前提交他們的系統(tǒng)以供審查。該法案還對生成式人工智能提出了新的透明度要求,包括披露內(nèi)容是由人工智能生成的,幫助區(qū)分深度造假和真實(shí)圖像;應(yīng)確保設(shè)計模型時防止其生成非法內(nèi)容;并且還須公開用于培訓(xùn)的受版權(quán)保護(hù)的詳細(xì)數(shù)據(jù)摘要。此外,在該法案正式被批準(zhǔn)前,根據(jù)《人工智能法案》草案對人工智能進(jìn)行的風(fēng)險等級分類(不可接受的風(fēng)險、高風(fēng)險、有限風(fēng)險及最低風(fēng)險),曾有歐盟議員提議,應(yīng)考慮將任何未經(jīng)過人類審核的、生成的內(nèi)容可能對人類造成誤導(dǎo)的生成式人工智能應(yīng)用,以及任何非藝術(shù)作品且經(jīng)深度合成的圖片、聲音和視頻都應(yīng)該被列入高風(fēng)險類別,以便接受法律法規(guī)的監(jiān)管與約束。正式通過的授權(quán)草案內(nèi)容顯示,對人們的健康、安全、基本權(quán)利或環(huán)境產(chǎn)生負(fù)面影響的人工智能系統(tǒng),會被視為高風(fēng)險。雖然影響選民與選舉結(jié)果的人工智能系統(tǒng)和社交媒體平臺的推薦系統(tǒng)已被納入高風(fēng)險范疇,也提及用于教育和職業(yè)培訓(xùn)的人工智能系統(tǒng)屬于高風(fēng)險類別,但是,該法案尚未明確將生成式人工智能納入高風(fēng)險列表之中。
今年 4 月,美國國家電信和信息管理局也就監(jiān)管生成式人工智能發(fā)布了《人工智能問責(zé)政策征求意見》,旨在了解哪些政策可以支持人工智能審計、評估、認(rèn)證和其他機(jī)制的發(fā)展,從而確保人工智能系統(tǒng)合乎道德和安全,并增加對人工智能系統(tǒng)的信任。盡管中美兩國在貿(mào)易和技術(shù)問題上存在競爭與分歧,但是,毫無疑問的是,兩國對生成式人工智能的濫用和誤用等問題存在共同擔(dān)憂,并已意識到亟需出臺具體舉措進(jìn)行問責(zé)與規(guī)制。
事實(shí)上,生成式人工智能帶來的安全性問題是全球共同面臨的關(guān)鍵挑戰(zhàn),該領(lǐng)域勢必成為人工智能治理與監(jiān)管競賽的新角斗場。盡管各國和地區(qū)已競相監(jiān)管人工智能,努力填補(bǔ)法律法規(guī)的真空,但是求同存異、同向發(fā)力才是確保人工智能負(fù)責(zé)任地開發(fā)與應(yīng)用的主旋律。因此,國際社會還需加強(qiáng)治理框架之間的互操作性,深化共同合作,從而找到適合整個社會的人工智能治理機(jī)制。包括德拉格什·圖多拉凱(Dragos Tudorache)等在內(nèi)的多位歐洲議會議員在四月中旬發(fā)布的《歐盟議會就非常強(qiáng)大的人工智能發(fā)出的行動呼吁》(A call to action on very powerful AI from the EU Parliament)聯(lián)名公開信已明確表示,歐盟希望與美國在人工智能治理方面展開密切合作,同時還呼吁召開全球峰會,共同尋找規(guī)制生成式人工智能的方法,從而達(dá)成治理共識?;诖?,我國在繼續(xù)完善、細(xì)化針對生成式人工智能產(chǎn)生的個人信息安全、數(shù)據(jù)出境安全等問題的監(jiān)管條例,確保治理與規(guī)制舉措不會滯后于生成式人工智能的高速發(fā)展與應(yīng)用的同時,也應(yīng)該積極發(fā)揮大國的帶頭作用,加強(qiáng)人工智能治理政策方面的國際合作和信息交流,推進(jìn)全球社會就網(wǎng)絡(luò)數(shù)據(jù)安全和人工智能治理達(dá)成相關(guān)共識。