中新社北京4月20日電 題:人工智能的已知人權(quán)風(fēng)險及其法治化應(yīng)對
作者 肖君擁 北京理工大學(xué)法學(xué)院教授、科技人權(quán)研究中心執(zhí)行主任
人工智能時代,人機(jī)交互模式正在各領(lǐng)域中深度融合。例如在交通領(lǐng)域,智能車憑借多個傳感器與技術(shù),為駕駛者提供諸如變道、泊車等高水準(zhǔn)輔助;教育領(lǐng)域,智能輔導(dǎo)系統(tǒng)能通過自然語言處理技術(shù)理解學(xué)生問題,提供解答和指導(dǎo);醫(yī)療領(lǐng)域,借助人工智能影像輔助篩查功能,醫(yī)生能從海量影像中精準(zhǔn)找出微小病灶,提升影像輔助診斷的精準(zhǔn)度。
人工智能技術(shù)對人類工作和生活的影響愈發(fā)深刻,對人權(quán)的保障有諸多的積極意義。但是,隨著人工智能技術(shù)在各個領(lǐng)域不斷推廣,其應(yīng)用也面臨著或現(xiàn)實(shí)或潛在的人權(quán)風(fēng)險,我們必須予以正視。如何通過法治化路徑應(yīng)對人權(quán)風(fēng)險,是人工智能發(fā)展過程中的一道必答題。
人工智能應(yīng)用中的人權(quán)風(fēng)險
人工智能可能在數(shù)據(jù)、算法等方面形成人權(quán)風(fēng)險,侵害人的生命權(quán)、健康權(quán)、財產(chǎn)權(quán)、隱私權(quán)、人身自由等權(quán)益。
一是與數(shù)據(jù)有關(guān)的人權(quán)風(fēng)險,包括數(shù)據(jù)過度收集、數(shù)據(jù)濫用、數(shù)據(jù)跨境傳輸?shù),都可能帶來侵犯人?quán)的問題。
數(shù)據(jù)過度收集和濫用方面,一些企業(yè)在用戶不知情的情況下收集位置信息、瀏覽記錄等個人數(shù)據(jù),或在未獲得同意情況下將用戶數(shù)據(jù)擅自出售給其他公司或機(jī)構(gòu),用于廣告投放、市場調(diào)研等商業(yè)活動,侵犯用戶的知情權(quán)和隱私權(quán)。若被不法分子用于詐騙、惡意騷擾等非法目的,將給用戶帶來精神困擾、財產(chǎn)損失,侵害其人身權(quán)利和財產(chǎn)權(quán)。
數(shù)據(jù)跨境傳輸方面,由于不同國家間數(shù)據(jù)保護(hù)法規(guī)存在顯著差異,數(shù)據(jù)在跨境流動期間面臨保護(hù)缺失的困境。此外,某些國家出于特定目的,可能會借數(shù)據(jù)跨境傳輸之機(jī),實(shí)施情報收集活動,進(jìn)而對其他國家公民的隱私權(quán)構(gòu)成侵犯。
二是與算法有關(guān)的人權(quán)風(fēng)險,包括數(shù)據(jù)偏差、算法邏輯錯誤、算法黑箱問題。
數(shù)據(jù)偏差方面,訓(xùn)練人工智能算法的數(shù)據(jù)集可能存在偏差,導(dǎo)致分析結(jié)果失真,進(jìn)而在決策中延續(xù)或放大現(xiàn)有不平等,影響某些群體權(quán)利實(shí)現(xiàn),如招聘算法中的性別或年齡歧視。
算法邏輯錯誤方面,在設(shè)計(jì)或?qū)崿F(xiàn)過程中,邏輯錯誤會導(dǎo)致非預(yù)期行為或錯誤結(jié)果產(chǎn)生,進(jìn)而侵害人權(quán)。如自動駕駛場景中的算法缺陷,導(dǎo)致車輛未正確處理道路突發(fā)狀況(如行人突然出現(xiàn)),引起事故,直接影響他人的生命權(quán)和健康權(quán)。
算法黑箱問題方面,由于人工智能或大數(shù)據(jù)分析中,算法的輸入、輸出及運(yùn)行過程不透明、不可知、不可解釋,一些算法壟斷行為會對消費(fèi)者權(quán)益帶來損害,用戶的知情權(quán)、決策自主權(quán)面臨被剝奪的風(fēng)險。
三是人類決策被取代所導(dǎo)致的人權(quán)問題。
智能推薦系統(tǒng)通過算法架構(gòu),重塑用戶的信息獲取路徑,使用戶選擇權(quán)被剝奪。例如,視頻網(wǎng)站基于用戶歷史行為推薦相關(guān)內(nèi)容,電商平臺將高利潤商品置于前列,一些社交平臺的“關(guān)閉推薦”功能需經(jīng)過多步操作,這些都導(dǎo)致用戶信息接觸范圍逐漸收窄、選擇權(quán)降低。
此外,人工智能工具在提升效率的同時,可能導(dǎo)致人類決策者成為“技術(shù)附庸”,削弱專業(yè)人士的批判性思維,使決策過程從“人機(jī)協(xié)同”異化為“機(jī)器主導(dǎo)”,如醫(yī)療領(lǐng)域的“雙重誤診風(fēng)險”(人工智能誤診+醫(yī)生盲從)等。
人類的就業(yè)權(quán)也面臨風(fēng)險。世界經(jīng)濟(jì)論壇發(fā)布的《2025年未來就業(yè)報告》預(yù)測,到2030年全球?qū)⒂?200萬個崗位被人工智能取代,同期可能創(chuàng)造1.7億個新崗位,形成顯著的“崗位替代潮”。此外,由于就業(yè)門檻提高,低技能勞動者將難以適應(yīng)新的就業(yè)市場,人工智能的數(shù)字鴻溝致使發(fā)展中國家崗位流失風(fēng)險比發(fā)達(dá)國家高,易造成不同國家貧富差距擴(kuò)大等問題。
溯源人工智能應(yīng)用的人權(quán)風(fēng)險
人工智能的人權(quán)風(fēng)險,既來源于技術(shù)本身,也受到社會偏見、法律監(jiān)管缺失等影響,主要可分為以下四個方面。
一是算法黑箱問題。由于人工智能系統(tǒng)依賴于深度神經(jīng)網(wǎng)絡(luò)等復(fù)雜模型,其內(nèi)部參數(shù)和計(jì)算流程常被視為“黑箱”,缺乏可解釋性和透明度,嚴(yán)重削弱了對其決策的追責(zé)能力,也讓個人權(quán)利保護(hù)面臨巨大挑戰(zhàn)。
二是人為偏見的工具性放大。算法訓(xùn)練依賴歷史數(shù)據(jù),而歷史數(shù)據(jù)常常蘊(yùn)含歧視性偏見,這導(dǎo)致人工智能系統(tǒng)在性別、種族、殘疾等維度上做出不公決策,弱勢群體更易成為監(jiān)控和錯誤風(fēng)險評估對象,挑戰(zhàn)了平等權(quán)和非歧視原則。
三是商事策略與盈利動機(jī)。制造人工智能產(chǎn)品的私營企業(yè),在追求商業(yè)利益過程中常以數(shù)據(jù)作為核心資產(chǎn),產(chǎn)品在部署后難以從外部及時發(fā)現(xiàn)潛在人權(quán)侵害,也缺乏有效渠道進(jìn)行糾正。
四是法律缺失。當(dāng)前,人工智能方面的法律和監(jiān)管體系相對滯后,并缺乏統(tǒng)一的國際標(biāo)準(zhǔn)與強(qiáng)制性約束機(jī)制,這讓企業(yè)在人工智能治理方面往往“無意識睡著”,或難以在不同司法轄區(qū)承擔(dān)一致的人權(quán)責(zé)任。
應(yīng)對人權(quán)風(fēng)險的法治化路徑
首先,加強(qiáng)人工智能人權(quán)風(fēng)險的立法保障。一方面要進(jìn)行頂層設(shè)計(jì),例如中國于2023年10月發(fā)布的《全球人工智能治理倡議》,圍繞人工智能發(fā)展、安全、治理系統(tǒng)闡述了人工智能治理的中國方案。另一方面要提升立法保障,包括國內(nèi)立法中的民事法律和國家安全法律,信息合成規(guī)定、算法備案等行政法規(guī),國家標(biāo)準(zhǔn)技術(shù)等。
其次,加強(qiáng)人工智能人權(quán)風(fēng)險的社會防控。為此,既要加強(qiáng)教育與普及,提高民眾對人工智能技術(shù)的認(rèn)知與應(yīng)用能力,也要培養(yǎng)兼具技術(shù)理解、倫理意識、政策把握、國際視野的復(fù)合型人才,推動人工智能安全研究、人才培養(yǎng)和產(chǎn)學(xué)研合作。
再次,加強(qiáng)人工智能人權(quán)風(fēng)險的技術(shù)防控。針對數(shù)據(jù)安全,應(yīng)繼續(xù)落實(shí)《中華人民共和國個人信息保護(hù)法》第二十四條規(guī)定的自動化決策需透明化;針對算法歧視,監(jiān)管機(jī)構(gòu)應(yīng)進(jìn)一步落實(shí)《中華人民共和國數(shù)據(jù)安全法》第二十七條關(guān)于信息安全的要求,驗(yàn)證算法偏見或歧視現(xiàn)象;針對網(wǎng)絡(luò)犯罪,應(yīng)支持《中華人民共和國刑事訴訟法》中電子數(shù)據(jù)等證據(jù)的合法性認(rèn)定,搭建國際聯(lián)合取證平臺,支持多國司法機(jī)構(gòu)通過安全多方計(jì)算共享案件關(guān)鍵數(shù)據(jù)。針對企業(yè)監(jiān)管,應(yīng)要求企業(yè)建立數(shù)據(jù)防泄漏系統(tǒng),提升自身系統(tǒng)防護(hù)能力,必要時與企業(yè)共同進(jìn)行網(wǎng)絡(luò)安全實(shí)戰(zhàn)演練。
最后,促進(jìn)人工智能人權(quán)風(fēng)險防控的國際合作。在國際規(guī)則制定方面,應(yīng)防范單一國家或企業(yè)壟斷關(guān)鍵算法技術(shù),提升發(fā)展中國家的話語權(quán);在加強(qiáng)國際合作方面,需繼續(xù)強(qiáng)化聯(lián)合國核心平臺作用,推動《人工智能框架公約》等硬法建設(shè),通過“技術(shù)—倫理—法律”三位一體的協(xié)作機(jī)制實(shí)現(xiàn)治理包容性。(完)
受訪者簡介:
肖君擁,北京理工大學(xué)法學(xué)院教授、博士生導(dǎo)師,國家人權(quán)教育培訓(xùn)基地北京理工大學(xué)科技人權(quán)研究中心執(zhí)行主任。中國人權(quán)研究會理事、中國法學(xué)會法理學(xué)研究會和憲法學(xué)研究會理事。著有《人民主權(quán)論》《國際人權(quán)法講義》《人權(quán)的道德維度》等。主講《國際人權(quán)法》獲北京市高校優(yōu)質(zhì)本科課程。曾數(shù)次參加聯(lián)合國人權(quán)理事會大會和邊會發(fā)言,多次赴美國、歐洲等地參加國際人權(quán)對話交流。