引言
回顧2020年,人工智能(“AI”)技術無疑是最熱的話題之一,關於AI技術的新聞和爭論從來沒有中斷過。國內“人臉識別第一案”一審判決宣判,原告雖然勝訴,但不滿一審法院對野生動物世界強製收集個人信息行為的認定結果,提出上訴;清華大學教授對人臉識別技術的過度應用發文表示擔憂;一些平台通過大數據算法殺熟……負麵消息頻出的同時,我們也看到疫情期間無接觸體溫檢測給人們帶來安全體驗、龍泉寺法師通過自主研發的AI標點技術提高古文研究效率、杭州推廣運用“非羈押碼”係統讓越來越多的非羈押人員開始“附條件”正常工作生活等等諸多令人感歎技術進步推動社會生活、文化和文明發展的正向新聞。
2020年是AI技術爆發式發展的一年,AI技術的迅猛發展給社會生活、政府監管帶來一係列挑戰。“野蠻”生長後,這一技術能否趨向於更加平衡的發展之路?我們僅以此文分享本團隊近期對AI技術的一些觀察和思考,以期拋磚引玉,與諸位共同探討。
AI技術的應用與問題
隨著深度學習的發展和海量數據的積累,AI技術在近幾年進入高速發展階段,機器學習、深度學習、自然語言處理、生物特征識別、智能語音等逐漸應用於生活的各個領域,人臉識別、無人駕駛汽車、機器翻譯、可穿戴式設備、個性化推薦都是觸手可及的AI技術應用。不可否認,從某種角度而言,AI技術是人類社會科技進步的體現,也推動了社會經濟的發展。但同時,我們必須看到,由於涉及大量敏感乃至道德倫理問題,AI技術的發展和應用必然會帶來各種爭議甚至衝突。
從AI技術發展的當前階段來看,AI技術應用本身存在的數據和算法模型的安全隱患已成為目前的爭議焦點。以相對成熟的人臉識別技術為例(這也是目前應用最為普遍、產生問題也最多的AI技術應用之一),人臉識別技術由於在這次新冠疫情期間被大量應用,今年甚至出現“普及”式的發展趨勢,目前出現在日常支付、交通安檢、門禁考勤、校園、在線教育、公共安全監管等廣泛應用場景中,在促進相關部門管理、企業經營、公民生活的便利性的同時,也帶來了個人信息強製收集、過度收集、違法使用等問題:交(jiao)管(guan)部(bu)門(men)利(li)用(yong)人(ren)臉(lian)識(shi)別(bie)技(ji)術(shu)識(shi)別(bie)違(wei)規(gui)者(zhe),可(ke)以(yi)有(you)效(xiao)減(jian)少(shao)交(jiao)通(tong)事(shi)故(gu)的(de)發(fa)生(sheng),但(dan)卻(que)將(jiang)違(wei)規(gui)者(zhe)個(ge)人(ren)信(xin)息(xi),甚(shen)至(zhi)未(wei)經(jing)隱(yin)私(si)處(chu)理(li)的(de)麵(mian)部(bu)照(zhao)片(pian)展(zhan)示(shi)在(zai)公(gong)共(gong)大(da)屏(ping)幕(mu)上(shang),對(dui)違(wei)規(gui)者(zhe)的(de)個(ge)人(ren)隱(yin)私(si)造(zao)成(cheng)侵(qin)犯(fan);學校在公共場所安裝攝像頭,通過“監控”學生行為提高了學生上課打卡的頻率和效率,但卻未經學生和家長同意,隨意收集和使用未成年人的人臉識別信息;售樓處利用人臉識別技術對客戶和渠道分類管理,並基於此進行價格歧視,“嚇”得客戶帶頭盔看房;公園景點、居ju民min小xiao區qu以yi進jin出chu便bian利li和he安an全quan為wei由you,強qiang製zhi要yao求qiu必bi須xu且qie隻zhi能neng使shi用yong人ren臉lian識shi別bie核he驗yan,而er收shou集ji到dao的de敏min感gan個ge人ren信xin息xi如ru何he保bao存cun,卻que無wu人ren知zhi曉xiao。除chu了le這zhe類lei強qiang製zhi收shou集ji個ge人ren信xin息xi、不當使用個人信息的問題外,人臉識別技術的應用過程中,如果對數據存儲、共享、傳輸不當還可能帶來大規模數據泄漏:2019年,國內某科技公司就因未對數據庫進行密碼保護,造成超過250萬人的人臉識別信息泄漏。與此同時,算法模型的偏差和隱藏歧視則很可能帶來相同平台對不同用戶就同一商品、服務提供不同的價格的“大數據殺熟”、信用貸款評估歧視等問題,甚至在國外,我們還看到因為引入智能司法係統導致案例錯判這樣的極端事件發生。
AI技術帶來的影響
從上麵所舉的一些例子已經可以看出,如果對AI技術的不當應用缺乏規製,將會造成諸多現實問題,對公民個人、政府部門、公共機構甚至社會、經濟和國家安全都造成一定不利影響,主要體現在以下三個方麵:
其一,公民個人信息權益、隱私權、財產權被侵害,公民安全感下降,帶來社會的不穩定性;
其二,公權力、具備社會管理職能的公共機構隨意使用AI技術,導致政府和公共機構公信力下降,對營商環境亦造成一定負麵影響;
其三,海量數據的安全性會對社會經濟安全、社會安全甚至國家安全造成重要影響。
而且,可以看到,AI和大數據的發展近些年來很大程度上是以公民讓渡了相當的權利為代價獲得的,但這樣的讓渡是在特定的經濟發展階段、特殊的事件背景(如新冠疫情)下的階段性現象,不能常態化。從長遠來看,技術和經濟的發展與公民個人權利需要平衡,技術的應用需要有邊界、有尺度,公民個人權利的讓渡應當有對價、有回報。
一些思考和建議
基於以上的觀察和分析,我們認為,在鼓勵AI技術發展的同時,有必要通過階段性的規製和引導措施來促進和保障AI技術和社會經濟的良性發展:
首先,在AI技術開發層麵,應當設置必要的準入門檻,涉及倫理道德的特殊產品、特殊技術的開發應當有嚴格標準,什麼課題什麼人可以做,什麼課題任何人都不可以做,需要在國家層麵展開論證、劃出紅線。
同時,在AI技術應用層麵,一方麵,政府技術賦能不能脫離依法行政原則。目前,很多法律法規已經無法體現和有效規製最新的科技、jingjixingtaiheshehuiguanxi,jixugengxinhefazhan,weiruci,cainengranggongquanlijigouzhenzhengyoufakeyi,rangjubeishehuiguanlizhinengdejigouyoufakeyi。lingyifangmian,zaiAI技術投入商業化應用前應當進行必要的合法性論證、技術安全性論證、數據安全性論證等評估、論證程序。今年發布的《個人信息保護法(草案)》也專門規定了,個人信息處理者應當就對個人有重大影響的個人信息處理活動在事前進行風險評估。但是,評估主體、評估的內容和流程等具體事項,仍有待進一步研究,特別是,在“放管服”和優化營商環境的政策和趨勢下,如何劃清行政監管和企業自主管理的邊界,如何激發AI技術開發方、應用方主動評估、自主約束的內在驅動力,值得各界探討和摸索。
聯係我們
關注公眾號
聯係我們