在本係列第一篇《生成式人工智能數據合規研究係列(一)——法律與監管概述篇》以及第二篇《生成式人工智能數據合規研究係列(二)——網絡安全篇》中,我們主要進行了關於國內外生成式人工智能(“生成式AI”)數據合規法律和監管環境的梳理,並分析了生成式AI服務提供者在網絡安全方麵可能麵臨的風險和防範。承接前兩篇內容,我們繼續推出本係列研究的第三篇“數據安全篇”。在本篇中,我們將為您梳理和分析企業在開發和運營生成式AI的過程中在數據安全方麵可能遇到的法律風險,包括算法風險、訓練數據來源風險、生成內容風險以及其他風險,並提出具有操作性的風險防範建議,供相關企業參考。
一、算法風險及防範[1]
在生成式AI的開發和運營階段,開發者設計和使用AI技術時,有產生算法偏見、歧視性傾向等不符合科技倫理的算法風險。
針對生成式AI的算法風險,我國在多部法律法規中對算法的設置及使用進行了明確規定。生成式AI技術與深度合成技術在本質上屬於同一類技術,在應用場景上存在諸多交叉地帶。[2]《互聯網信息服務深度合成管理規定》(“《深度合成規定》”)中指明,深度合成服務提供者應當落實信息安全主體責任,建立健全算法機製機理審核、科技倫理審查等管理製度,具有安全可控的技術保障措施。[3]《互聯網信息服務算法推薦管理規定》(“《算法推薦規定》”)中也有類似表述。《生成式人工智能服務管理暫行辦法》(“《生成式人工智能辦法》”)規定,在算法設計、訓練數據選擇、模型生成和優化、提供服務等過程中,要采取措施防止出現種族、民族、信仰、國別、地域、性別、年齡、職業、健康等歧視。[4]
我們建議通過以下幾種方式來保證生成式AI算法模型的安全性、透明性、可解釋性和可追責性,防範算法風險:
① 進行算法備案
針對算法可追責性的監管,我國主要采用算法備案的方式。根據《算法推薦規定》第24條 ,具有輿論屬性或者社會動員能力[5]的算法推薦服務提供者應當在提供服務之日起十個工作日內通過互聯網信息服務算法備案係統填報服務提供者的名稱、服務形式、應用領域、算法類型、算法自評估報告、擬公示內容等信息,履行備案手續。根據《深度合成規定》《生成式人工智能辦法》,對於涉及具有輿論屬性或者社會動員能力的深度合成服務、生成式人工智能服務的算法備案、變更和注銷備案的手續按照對算法推薦服務提供者的要求履行[6]。
通過以上規定可知,履行算法備案義務的前提是,需要涉及算法推薦、深度合成或生成式AI服務,還需要具有輿論屬性或社會動員能力。
rendingmouyileixingfuwuhuogaidengfuwudetigongzheshifoujuyouyulunshuxinghuozheshehuidongyuannengli,muqianshangweichutaimingquedeshicaozhiyin,yincicunzaiyidingdebuquedingxing。danjiehewomendeshiwujingyan,womenlijieduiyumianxianggongzhongtigongdeshengchengshiAIfuwu,youjiaodagailvbeijianguanbumenrendingweijuyouyulunshuxinghuozheshehuidongyuannengli,zuoweifuwutigongzhedeqiyeyingdanganzhaoyaoqiutongguohulianwangxinxifuwusuanfabeianxitong(https://beian.cac.gov.cn)及時進行備案。在監管實踐中,如我們在係列文章第一篇中的梳理,截至今年9月,包括百度、阿裏在內的多家頭部互聯網企業均已對其旗下的大模型產品進行了算法備案。
② 開展安全評估
除算法備案外,生成式AI服務提供者需要對符合監管要求的算法的安全性進行安全評估。
《深度合成規定》要求深度合成服務提供者和技術支持者提供具有以下功能的模型、模板等工具的,應當依法自行或者委托專業機構開展安全評估:
(一)生成或者編輯人臉、人聲等生物識別信息的;
(二)生成或者編輯可能涉及國家安全、國家形象、國家利益和社會公共利益的特殊物體、場景等非生物識別信息的。[7]
《算法推薦規定》要求算法推薦服務提供者應當定期審核、評估、驗證算法機製機理、模型、數據和應用結果等,不得設置誘導用戶沉迷、過度消費等違反法律法規或者違背倫理道德的算法模型。[8]《深度合成規定》《算法推薦規定》《生成式人工智能辦法》分別要求深度合成服務提供者開發上線具有輿論屬性或者社會動員能力的新產品、新應用、新(xin)功(gong)能(neng)的(de),具(ju)有(you)輿(yu)論(lun)屬(shu)性(xing)或(huo)者(zhe)社(she)會(hui)動(dong)員(yuan)能(neng)力(li)的(de)算(suan)法(fa)推(tui)薦(jian)服(fu)務(wu)提(ti)供(gong)者(zhe),提(ti)供(gong)具(ju)有(you)輿(yu)論(lun)屬(shu)性(xing)或(huo)者(zhe)社(she)會(hui)動(dong)員(yuan)能(neng)力(li)的(de)生(sheng)成(cheng)式(shi)人(ren)工(gong)智(zhi)能(neng)服(fu)務(wu)的(de),應(ying)當(dang)按(an)照(zhao)國(guo)家(jia)有(you)關(guan)規(gui)定(ding)開(kai)展(zhan)安(an)全(quan)評(ping)估(gu)。[9]在上述規定所列示的情形下,生成式AI服務提供者應當按照要求進行安全評估。
此外,鑒於上述規定列示的評估情形還包括“具有輿論屬性或者社會動員能力”的情形,一旦被認定具備輿論屬性或者社會動員能力,根據《具有輿論屬性或社會動員能力的互聯網信息服務安全評估規定》[10],安全評估應當重點關注的內容包括但不限於:確定與所提供服務相適應的安全管理負責人等的情況、用戶真實身份核驗、留存日誌信息、對違法有害信息的防範處置、個人信息保護、建立投訴舉報製度、協助有關部門調查等。
③ 添加內容標識
在算法設置中為用戶提供內容標識,可以減少用戶對於AI生成內容產生混淆的情況,符合算法透明性的監管要求。《深度合成規定》規定了兩種內容標識義務:
1)不影響用戶的標識:深度合成服務提供者對使用其服務生成或者編輯的信息內容,應當采取技術措施添加不影響用戶使用的標識,並依照法律、行政法規和國家有關規定保存日誌信息;
2)顯著標識:提供智能對話、合成人聲、人臉生成、沉浸式擬真場景等具有生成或者顯著改變信息內容功能服務的,應當在生成或者編輯的信息內容的合理位置、區域進行顯著標識,向公眾提示信息內容的合成情況,避免公眾混淆或者誤認。《生成式人工智能辦法》第12條也規定了對於生成內容按照《深度合成規定》進行標識的要求。
④ 進行算法優化
為提升算法的準確性、安全性和可解釋性,我們建議生成式AI服務提供者定期對算法進行審核、評估、驗證算法機製機理、模型、數據和應用結果等[11],並根據上述審核評估結果,及時更新、調整算法。另外,生成式AI服務提供者對算法進行更新後,需要在技術層麵保證算法的可解釋性,並通過在“使用說明”或“服務條款”等麵向用戶的文件中釋明算法運行的原理、更新後的應用結果等,以期讓用戶免受“算法黑箱”的困擾。
⑤ 配合監管部門檢查
《深度合成規定》第21條規定,網信部門和電信主管部門、公安部門依據職責對深度合成服務開展監督檢查。深度合成服務提供者和技術支持者應當依法予以配合,並提供必要的技術、數據等支持和協助。此外,《具有輿論屬性或社會動員能力的互聯網信息服務安全評估規定》和《算法推薦規定》中均對服務提供者提出了檢查工作中的配合要求。[12]具體而言,提供者應當依法予以配合,按要求對訓練數據來源、規模、類型、標注規則、算法機製機理等予以說明,並提供必要的技術、數據等支持和協助。
二、訓練數據來源的風險及防範
生成式AI以大型語言模型為基礎,需要大量數據才能運行和改進。根據《生成式人工智能辦法》中所體現的立法趨勢,在確保數據真實、準確、客觀、多樣的情況下,需要對生成式AI的預訓練數據、優化訓練數據來源的合法性問題進行評估和分析。
生成式AI的訓練數據來源通常包括:
基於合作方的數據集;
基於爬蟲的外采數據集;
人工標注數據集;
人機交互數據集[13]。
基ji於yu合he作zuo方fang的de數shu據ju集ji來lai源yuan主zhu要yao需xu要yao關guan注zhu合he作zuo方fang本ben身shen數shu據ju來lai源yuan的de合he法fa性xing,在zai風feng險xian控kong製zhi中zhong需xu要yao以yi合he同tong等deng形xing式shi約yue定ding雙shuang方fang的de權quan利li義yi務wu。人ren工gong標biao注zhu數shu據ju集ji是shi指zhi標biao注zhu人ren員yuan基ji於yu提ti示shi,對dui數shu據ju完wan成cheng不bu同tong類lei型xing的de標biao注zhu,然ran後hou上shang傳chuan到dao數shu據ju庫ku用yong於yu數shu據ju訓xun練lian。人ren機ji交jiao互hu數shu據ju集ji指zhi用yong戶hu輸shu入ru數shu據ju與yu生sheng成cheng式shiAI進行交互,並將輸入數據用於數據訓練。[14]
在zai這zhe四si類lei數shu據ju來lai源yuan中zhong,爬pa蟲chong是shi通tong過guo編bian程cheng來lai自zi動dong實shi現xian對dui目mu標biao站zhan點dian和he目mu標biao信xin息xi的de批pi量liang獲huo取qu。作zuo為wei一yi項xiang中zhong立li的de技ji術shu,爬pa蟲chong技ji術shu本ben身shen並bing不bu違wei法fa,但dan是shi利li用yong爬pa蟲chong技ji術shu爬pa取qu的de數shu據ju合he規gui風feng險xian較jiao高gao,還hai涉she及ji侵qin犯fan著zhu作zuo權quan、商業秘密等知識產權侵權風險以及構成不正當競爭的風險。
針對爬蟲技術的數據來源合法性的風險,生成式AI服務提供者可從以下方麵落實合規要求:
① 技術手段
在訓練生成式AI利li用yong爬pa蟲chong技ji術shu抓zhua取qu信xin息xi時shi,我wo們men建jian議yi在zai技ji術shu的de設she定ding上shang應ying當dang盡jin量liang抓zhua取qu公gong開kai數shu據ju,對dui於yu需xu要yao避bi開kai或huo突tu破po被bei訪fang問wen網wang站zhan的de技ji術shu防fang護hu措cuo施shi才cai能neng獲huo取qu的de非fei公gong開kai信xin息xi,則ze不bu應ying當dang抓zhua取qu,其qi中zhong要yao重zhong點dian防fang範fan抓zhua取qu相xiang似si經jing營ying主zhu體ti的de主zhu營ying業ye務wu數shu據ju,避bi免mian構gou成cheng不bu正zheng當dang競jing爭zheng的de風feng險xian。此ci外wai,建jian議yi提ti前qian為wei爬pa蟲chong技ji術shu設she置zhi抓zhua取qu的de範fan圍wei與yu抓zhua取qu限xian製zhi,避bi免mian構gou成cheng侵qin犯fan知zhi識shi產chan權quan、競爭權益、個人信息權益等民事權益或構成非法獲取計算機信息係統數據罪等網絡刑事犯罪。
② 綜合評估與定期檢查
為減少合規風險,在爬蟲技術投入使用前,我們建議生成式AI服務提供者從擬抓取數據的數量、質量、類型、是shi否fou具ju有you反fan爬pa取qu設she置zhi等deng方fang麵mian進jin行xing綜zong合he評ping估gu,對dui爬pa蟲chong收shou集ji的de相xiang關guan數shu據ju與yu對dui被bei爬pa取qu網wang站zhan帶dai來lai的de可ke能neng影ying響xiang進jin行xing分fen析xi與yu監jian測ce,定ding期qi檢jian查zha自zi身shen抓zhua取qu的de涉she嫌xian侵qin權quan的de數shu據ju,並bing對dui其qi采cai取qu停ting止zhi抓zhua取qu、刪除等措施。
③ 爬蟲協議(robots exclusion protocol)
爬蟲協議是指網站可建立一個robots.txt文件來告訴搜索引擎哪些頁麵可以抓取,哪些頁麵不能抓取,而搜索引擎則通過讀取robots.txtwenjianlaishibiezhegeyemianshifouyunxubeizhuaqu。muqianpachongxieyizaisousuoyinqingzhongyibeiguangfancaiyongbingzhujianchengweixingyegongshi,qiezaixiangguansifapanlizhongbeifayuanrenke。jianyipaqushujushiyingdangzunxunpachongxieyi,zunzhongwangzhanneirongtigongzheduiyuzishenwangzhanzhongshujubeipaqudexianzhi。ciwai,shujuquanlirenyekenengyihetongxingshiyuedingduishujufangwen、獲取的權限,如果數據抓取違背了合同約定(如爬取了未獲授權的數據),則可能承擔違約責任,因此也建議在不同的平台、網站爬取數據前,關注相關平台、網站上公開的與數據權利有關的聲明、服務條款或其他合同性文件中涉及數據獲取的相關條款,如該等條款中明確約定禁止使用平台、網站內相關數據,則不應爬取該等數據。
三、生成內容的風險及防範
生成式AI生成的文本內容連貫且上下文相關度高,但是由於訓練數據真實性不佳等問題,生成式AI在生成內容的真實性與生成內容的合法性上均存在挑戰,對生成內容審核工作要求較高。
① 生成內容的真實性
以OpenAI推出的ChatGPT和穀歌開發的的Bard等生成式AI為(wei)例(li),該(gai)類(lei)產(chan)品(pin)接(jie)受(shou)了(le)大(da)量(liang)的(de)文(wen)本(ben)語(yu)料(liao)庫(ku)的(de)訓(xun)練(lian),僅(jin)能(neng)通(tong)過(guo)已(yi)有(you)的(de)數(shu)據(ju)進(jin)行(xing)文(wen)本(ben)輸(shu)出(chu),並(bing)不(bu)具(ju)備(bei)辯(bian)別(bie)信(xin)息(xi)真(zhen)偽(wei)的(de)能(neng)力(li),因(yin)此(ci)可(ke)能(neng)在(zai)使(shi)用(yong)過(guo)程(cheng)中(zhong)“自信”地將不正確的信息陳述為事實,即所謂“產生幻覺”,編造虛假信息,具體表現為生成內容與引用內容衝突,產生增加、刪改、篡改原文的現象以及生成內容沒有事實依據。
生成式AI的開發和運營公司作為內容生產者[15],zaichanpinshengchengneirongzhunquexingbujiashi,yingdanglvxingjiupiandeyiwu。muqian,xingyeneidechubujiupianzuofaweipingtaishenheyuyonghufankuiliangdaojizhi。zaidangqianhailiangshujubuduanshurujishuchudeqingkuangxia,pingtaidadaoyidingtilianghou,jinyikaopingtaishenhecunzaisuanliherenlibuzudewenti。dangqianqiyeduiyushengchengneirongduozaishuru、輸(shu)出(chu)時(shi)分(fen)別(bie)設(she)置(zhi)兩(liang)道(dao)過(guo)濾(lv)機(ji)製(zhi),利(li)用(yong)算(suan)法(fa)技(ji)術(shu)提(ti)升(sheng)內(nei)容(rong)審(shen)核(he)的(de)效(xiao)率(lv),但(dan)是(shi)僅(jin)依(yi)靠(kao)算(suan)法(fa)過(guo)濾(lv),對(dui)錯(cuo)誤(wu)內(nei)容(rong)篩(shai)選(xuan)的(de)準(zhun)確(que)性(xing)欠(qian)佳(jia),容(rong)易(yi)造(zao)成(cheng)大(da)麵(mian)積(ji)誤(wu)傷(shang)。設(she)置(zhi)算(suan)法(fa)過(guo)濾(lv)機(ji)製(zhi),並(bing)建(jian)立(li)用(yong)戶(hu)投(tou)訴(su)渠(qu)道(dao)對(dui)內(nei)容(rong)加(jia)以(yi)人(ren)工(gong)審(shen)核(he)是(shi)算(suan)法(fa)相(xiang)關(guan)立(li)法(fa)[16]中體現出的合規方向,也是目前行業實踐的初步探索。例如,穀歌表示AI聊天機器人出現的事實錯誤凸顯了嚴格測試過程的重要性,並稱將通過 Trusted Tester 計劃啟動這一過程,會將外部反饋與自己的內部測試相結合,以確保 Bard 的回應在質量、安全性和現實世界信息的基礎性方麵達到高標準。[17]
② 生成內容的合法性
生成式AI所輸出的內容可能不符合人類價值觀,不良信息隨機出現和迅速傳播的風險增加。雖然生成式AIyouwenbenshuruyushuchushideguolvjizhi,danshijintongguominganguanjiancishezhideguolvxitongzhunqueduqianjiaqiewufashibiejiazhiqingxiang,kenengshengchengweifaneirong。liru,zaishoupiyonghuceshizhong,ChatGPT出現了辱罵用戶、表白用戶、誘導用戶離婚、監視開發人員等言論。
對於該類生成內容的糾偏,目前業界主要以標識、建立投訴機製、內嵌算法過濾防護機製、限製訪問次數、人工審核等方式進行。例如,在識別到ChatGPT給出的答複可能存在不合適的內容後,ChatGPT平台內有時會顯示“此內容可能違反我們的內容政策,如果你認為這是錯誤的,請提交你的反饋”。微軟必應AI聊天機器人限製用戶每日可訪問次數:2023年2月17日,微軟表示,將為必應人工智能聊天機器人設定每天50個問題的提問上限,每個人僅有五次問答機會。[18]微軟對準確性問題的修複方式表明:盡jin管guan已yi經jing投tou入ru使shi用yong,事shi實shi上shang人ren工gong智zhi能neng相xiang關guan服fu務wu的de提ti供gong方fang也ye無wu法fa完wan全quan掌zhang握wo並bing控kong製zhi這zhe些xie大da型xing語yu言yan模mo型xing的de具ju體ti運yun作zuo。此ci外wai,我wo們men注zhu意yi到dao,當dang前qian對dui於yu生sheng成cheng式shiAI的監管討論主要集中在以文字生成為主的大語言模型,對於圖片、視頻等生成內容的管理與糾偏,大多依靠人工審核,對該類生成內容的合規探討有待技術的升級與法律監管的跟進。
③ 生成內容的惡意使用
基於用戶不同的使用目的,生成式AI可能被使用在各式各樣的場景中,其中也包括惡意使用生成式AI生成的內容,包括但不限於虛假新聞、詐騙、損害他人名譽等違法犯罪或侵犯他人權益的情況。例如,我國監管部門在今年5月份查處了一起利用ChatGPT編造虛假新聞的案件,犯罪嫌疑人涉嫌構成尋釁滋事罪。
對於AI生成內容的惡意使用,應由實施惡意行為的用戶承擔法律責任,與此同時,在我國“一案雙查”[19]的背景下,如未盡到相應的網絡安全和數據安全保護義務,提供生成式AI服務的企業也可能被追究法律責任。為進一步避免相關風險,我們建議生成式AI服務提供者設置用戶協議或服務條款,通過協議的方式降低因用戶非法使用生成內容造成的法律風險;此外,我們也建議生成式AI服務提供者通過設置技術措施對惡意使用行為進行防範,例如,OpenAI為ChatGPT設置了一些內置防護機製旨在防止ChatGPT被用於犯罪活動,這些機製包括拒絕創建shell代碼或提供關於如何創建shell代碼及逆向shell的具體說明,並標記惡意關鍵字,以阻止網絡釣魚等非法請求。
四、其他風險及防範
在數據安全合規方麵,可能還存在著數據泄露隱患、數據跨境傳輸合規等風險。
① 數據泄露的風險及防範
一方麵,生成式AI的數據來源包含企業內部文件,一旦網絡安全遭到破壞,數據泄露風險極大。
另一方麵,如果用戶向生成式AI係xi統tong內nei發fa送song了le敏min感gan數shu據ju,那na麼me該gai數shu據ju也ye會hui被bei利li用yong為wei訓xun練lian數shu據ju,用yong戶hu提ti供gong的de信xin息xi極ji有you可ke能neng在zai其qi他ta場chang景jing下xia被bei披pi露lu,因yin此ci在zai數shu據ju安an全quan合he規gui方fang麵mian,生sheng成cheng式shiAI運營者需要履行安全管理義務。
建議企業按照法律法規的相關要求,對生成式AI進行相應的安全管理活動,包括但不限於:加強風險監測,發現數據安全缺陷、漏洞等風險時,應當立即采取補救措施;發生數據安全事件時,應當立即采取處置措施,按照規定及時告知用戶並向有關主管部門報告;[20]加強對用戶發布的信息的管理,發現法律、xingzhengfaguijinzhifabuhuozhechuanshudexinxide,yingdanglijitingzhichuanshugaixinxi,caiquxiaochudengchuzhicuoshi,fangzhixinxikuosan,baocunyouguanjilu,bingxiangyouguanzhuguanbumenbaogao[21]。
② 數據出境的風險及防範
如果生成式AI服務接入境外的生成式AI技術或將運算服務器設置在境外等,涉及到向境外提供訓練數據或用戶輸入的數據,則可能會涉及數據出境問題,在此情況下,生成式AI服務提供者應結合具體業務情況和相關法律規定,酌情選擇申報數據出境安全評估、與境外接收方簽訂標準合同、實施個人信息保護認證等方式保證數據出境的合法合規。
③ 訓練數據、用戶輸入數據涉及重要數據時的風險及防範
《數據安全法》第21條規定,“國家建立數據分類分級保護製度,根據數據在經濟社會發展中的重要程度,以及一旦遭到篡改、破壞、泄露或者非法獲取、非法利用,對國家安全、公共利益或者個人、組織合法權益造成的危害程度,對數據實行分類分級保護。”重要數據是指“一旦遭到篡改、破壞、泄露或者非法獲取、非法利用等,可能危害國家安全、經濟運行、社會穩定、公共健康和安全等的數據”。[22]
雖然重要數據的識別工作的具體方式仍在探索之中,目前相關行業、地區的目錄的製定工作也還在推進,考慮到生成式AI的訓練包含海量數據,麵向公眾開放的生成式AI服務也會涉及收集海量用戶輸入的數據,我們建議生成式AI服務提供者對重要數據識別的工作進行關注,一旦用於生成式AI訓練的訓練數據或用戶輸入的數據被識別或認定為重要數據,生成式AI服務提供者需要對該等重要數據進行重點保護,履行重要數據處理者的相關義務,包括但不限於:明確數據安全保護組織架構;對重要數據進行備份、加密;對生成式AI的數據處理活動定期開展風險評估;在特定情況下申報數據出境安全評估等。
除網絡安全、數據安全風險外,生成式AI服務提供者在數據合規方麵還將麵臨個人信息保護方麵的合規要求和法律風險,我們將在下期為您繼續呈現“個人信息保護篇”,嚐試探討提供生成式AI服務的企業作為個人信息處理者,在個人信息保護方麵的風險及應對策略,敬請期待。
注釋:
[1] 本研究中的“數據安全”指廣義上與數據處理活動有關的所有事項的安全問題,包括基於數據應用的技術相關問題,因此,將算法風險納入“數據安全風險”的範疇。
[2] 生成式AI技術是指具有文本、圖片、音頻、視頻等內容生成能力的模型及相關技術。深度合成技術,是指利用深度學習、虛擬現實等生成合成類算法製作文本、圖像、音頻、視頻、虛擬場景等網絡信息的技術。
[3] 《互聯網信息服務深度合成管理規定》第7條。
[4] 《生成式人工智能服務管理暫行辦法》第4條第(2)項。
[5] 《具有輿論屬性或社會動員能力的互聯網信息服務安全評估規定》第2條:本規定所稱具有輿論屬性或社會動員能力的互聯網信息服務,包括下列情形:(一)開辦論壇、博客、微博客、聊天室、通訊群組、公眾賬號、短視頻、網絡直播、信息分享、小程序等信息服務或者附設相應功能;(二)開辦提供公眾輿論表達渠道或者具有發動社會公眾從事特定活動能力的其他互聯網信息服務。
[6] 《互聯網信息服務深度合成管理規定》第19條、《生成式人工智能服務管理暫行辦法》第7條。
[7] 《互聯網服務深度合成管理規定》 第15條。
[8] 《互聯網信息服務算法推薦管理規定》第8條。
[9] 《互聯網服務深度合成管理規定》 第20條、《互聯網信息服務算法推薦管理規定》第27條、《生成式人工智能服務管理暫行辦法》第17條。
[10] 《具有輿論屬性或社會動員能力的互聯網信息服務安全評估規定》第5條:對互聯網信息服務提供者的安全評估應當重點關注以下內容:
(一)確定與所提供服務相適應的安全管理負責人、信息審核人員或者建立安全管理機構的情況;
(二)用戶真實身份核驗以及注冊信息留存措施;
(三)對用戶的賬號、操作時間、操作類型、網絡源地址和目標地址、網絡源端口、客戶端硬件特征等日誌信息,以及用戶發布信息記錄的留存措施;
(四)對用戶賬號和通訊群組名稱、昵稱、簡介、備注、標識,信息發布、轉發、評論和通訊群組等服務功能中違法有害信息的防範處置和有關記錄保存措施;
(五)個人信息保護以及防範違法有害信息傳播擴散、社會動員功能失控風險的技術措施;
(六)建立投訴、舉報製度,公布投訴、舉報方式等信息,及時受理並處理有關投訴和舉報的情況;
(七)建立為網信部門依法履行互聯網信息服務監督管理職責提供技術、數據支持和協助的工作機製的情況;
(八)建立為公安機關、國家安全機關依法維護國家安全和查處違法犯罪提供技術、數據支持和協助的工作機製的情況。
[11] 《互聯網信息服務算法推薦管理規定》第8條。
[12] 《具有輿論屬性或社會動員能力的互聯網信息服務安全評估規定》第9條:網wang信xin部bu門men和he公gong安an機ji關guan根gen據ju對dui安an全quan評ping估gu報bao告gao的de書shu麵mian審shen查zha情qing況kuang,認ren為wei有you必bi要yao的de,應ying當dang依yi據ju各ge自zi職zhi責ze對dui互hu聯lian網wang信xin息xi服fu務wu提ti供gong者zhe開kai展zhan現xian場chang檢jian查zha。網wang信xin部bu門men和he公gong安an機ji關guan開kai展zhan現xian場chang檢jian查zha原yuan則ze上shang應ying當dang聯lian合he實shi施shi,不bu得de幹gan擾rao互hu聯lian網wang信xin息xi服fu務wu提ti供gong者zhe正zheng常chang的de業ye務wu活huo動dong。
《互聯網信息服務算法推薦管理規定》第28條:網信部門會同電信、公安、shichangjianguandengyouguanbumenduisuanfatuijianfuwuyifakaizhananquanpingguhejiandujianzhagongzuo,duifaxiandewentijishitichuzhenggaiyijianbingxianqizhenggai。suanfatuijianfuwutigongzheyingdangyifaliucunwangluorizhi,peihewangxinbumenhedianxin、公安、市場監管等有關部門開展安全評估和監督檢查工作,並提供必要的技術、數據等支持和協助。
[13] 具體分析詳見後文第二部分 三、個人信息保護風險評估。
[14] 參見禹衛華:《生成式人工智能數據原生風險與媒介體係性規範》,載《中國出版》2023年第10期。
[15] 《生成式人工智能服務管理暫行辦法》第9條:tigongzheyingdangyifachengdanwangluoxinxineirongshengchanzhezeren,lvxingwangluoxinxianquanyiwu。shejigerenxinxide,yifachengdangerenxinxichulizhezeren,lvxinggerenxinxibaohuyiwu。
提供者應當與注冊其服務的生成式人工智能服務使用者(以下稱使用者)簽訂服務協議,明確雙方權利義務。
《網絡信息內容生態治理規定》第34條:網絡信息內容生產者違反本規定第六條規定的,網絡信息內容服務平台應當依法依約采取警示整改、限製功能、暫停更新、關閉賬號等處置措施,及時消除違法信息內容,保存記錄並向有關主管部門報告。
[16] 《互聯網信息服務深度合成管理規定》第12條:深度合成服務提供者應當設置便捷的用戶申訴和公眾投訴、舉報入口,公布處理流程和反饋時限,及時受理、處理和反饋處理結果。
[17] Section 508 Trusted Tester Conformance Test Process Version 5,https://www.dhs.gov/trusted-tester,2023-6-20 last visited.
[18] 參見和訊網:《新必應聊天事故頻出後 微軟發話:每個問題僅限5條回複!》,https://baijiahao.baidu.com/s?id=1758155518839103419&wfr=spider&for=pc,最後訪問時間:2023年11月15日。
[19] 2018年起,針對網絡亂象,公安機關開始實行“一案雙查”製度,即在對網絡違法犯罪案件開展偵查調查工作時,同步啟動對涉案網絡服務提供者法定網絡安全義務履行情況的監督檢查。
[20] 《數據安全法》第29條。
[21] 《網絡安全法》第47條。
[22] 《數據出境安全評估辦法》第19條。
聯係我們
關注公眾號
聯係我們