《電子技術(shù)應(yīng)用》
您所在的位置:首頁 > 通信與網(wǎng)絡(luò) > 業(yè)界動態(tài) > 張凌寒:《個人信息保護(hù)法(草案)》中的平臺算法問責(zé)制及其完善

張凌寒:《個人信息保護(hù)法(草案)》中的平臺算法問責(zé)制及其完善

2021-08-29
來源:數(shù)字科技說
關(guān)鍵詞: 個人信息保護(hù)法

  2020年9月,為征求意見而公布的《中華人民共和國個人信息保護(hù)法(草案)》(下稱《草案》)確立了我國算法自動化決策治理的基本框架,為自動化決策嵌入平臺經(jīng)濟(jì)、數(shù)字政府運(yùn)行劃定了合法邊界。算法是數(shù)字平臺處理海量用戶數(shù)據(jù)、繪制用戶畫像、精準(zhǔn)定價與個性化推送的“生產(chǎn)工具”,已經(jīng)成為平臺運(yùn)行的核心動力。聯(lián)合國教科文組織于2018年發(fā)布的《重塑文化政策報告》指出,算法既是平臺的支配力量,也是文化表達(dá)和獲取的變革力量?!恫莅浮穼λ惴ㄗ詣踊瘺Q策的相關(guān)規(guī)定,即增加平臺義務(wù)、設(shè)置監(jiān)管框架、強(qiáng)化平臺責(zé)任等,勢必將深度影響數(shù)字經(jīng)濟(jì)產(chǎn)業(yè)發(fā)展。筆者從《草案》中有關(guān)平臺算法自動化決策治理的基本框架展開,探討《草案》給平臺責(zé)任帶來的變化。平臺算法治理已經(jīng)基本建立了算法問責(zé)制框架,一定程度上擺脫了傳統(tǒng)平臺責(zé)任的認(rèn)定困境,走向了“技術(shù)之治”,但仍須對制度進(jìn)行一定細(xì)化,建立完善的平臺算法問責(zé)體系。

  一 《草案》確立的平臺自動化決策治理框架

  《草案》給出了算法自動化決策治理的中國方案,從事前設(shè)計部署、事中運(yùn)行與事后結(jié)果輸出的自動化決策全生命周期為平臺的算法自動化決策設(shè)置了義務(wù)框架。

 ?。ㄒ唬┧惴ㄓ绊懺u估:平臺自動化決策治理時點前移

  《草案》第54條確立了自動化決策的事前評估制度,其第1款規(guī)定“個人信息處理者應(yīng)當(dāng)對下列個人信息處理活動在事前進(jìn)行風(fēng)險評估……(二)利用個人信息進(jìn)行自動化決策……”。其第2、3款規(guī)定:風(fēng)險評估的內(nèi)容應(yīng)當(dāng)包括:(一)個人信息的處理目的、處理方法等是否合法、正當(dāng)、必要;(二)對個人的影響及風(fēng)險程度;(三)所采取的安全保護(hù)措施是否合法、有效并與風(fēng)險程度相適應(yīng)。風(fēng)險評估報告和處理情況記錄應(yīng)當(dāng)至少保存三年?!?/p>

  根據(jù)《草案》第54條的規(guī)定,平臺須在算法自動化決策上線前進(jìn)行事前評估。風(fēng)險評估的內(nèi)容既包括算法自動化決策的合法性與必要性,也包括其影響及風(fēng)險。隨著十余年平臺經(jīng)濟(jì)的高速發(fā)展,算法自動化決策的濫用與倫理缺失的累積危害已經(jīng)進(jìn)入了顯現(xiàn)期。為避免平臺部署缺陷性算法自動化決策可能對公民財產(chǎn)和人身權(quán)利,以及對公共利益和國家安全帶來的危害,建立平臺算法事前評估制度已時機(jī)成熟。

  要求平臺在事前對自動化決策進(jìn)行評估,是將平臺治理時點前移的重要標(biāo)志。近年來,網(wǎng)絡(luò)平臺治理的逐漸前移由以下原因驅(qū)動:其一,事后追責(zé)機(jī)制已經(jīng)不能滿足網(wǎng)絡(luò)平臺算法自動化決策的治理需求。平臺算法的計算對象是數(shù)以萬計的平臺用戶數(shù)據(jù),其一旦發(fā)生價值觀偏差,對社會的不利影響會具有延展性與持續(xù)性。事后對平臺的追責(zé)機(jī)制不能有效應(yīng)對,各種補(bǔ)償制度難以從根本上解決問題。其二,平臺責(zé)任事后如何確定和劃分成為新的挑戰(zhàn),具體業(yè)務(wù)的平臺規(guī)范適用出現(xiàn)空白。2019年以來興起的平臺新業(yè)態(tài),如直播帶貨、人臉識別等新型業(yè)務(wù)并無具體的法律對其規(guī)制,法律責(zé)任很難確定。算法自動化決策的風(fēng)險是平臺內(nèi)生的,伴隨著平臺作為設(shè)計者的決策與行為,依賴事后追責(zé)機(jī)制,可能會造成未來不斷出現(xiàn)平臺新的算法自動化決策治理缺位。

  《草案》首次在法律層面從個人信息保護(hù)的角度確立了算法自動化決策風(fēng)險評估制度。法律層面對于平臺算法自動化決策的事前評估不再僅僅指向網(wǎng)絡(luò)安全與數(shù)據(jù)安全,此前”四部委“及行業(yè)協(xié)會組織的隱私與個人信息保護(hù)評估有了法律層面的依據(jù)。

 ?。ǘ┧惴▽徲嬛贫龋浩脚_自動化決策治理手段升級

  《草案》第53條確立了事中的算法審計制度。其規(guī)定:”個人信息處理者應(yīng)當(dāng)定期對其個人信息處理活動、采取的保護(hù)措施等是否符合法律、行政法規(guī)的規(guī)定進(jìn)行審計。履行個人信息保護(hù)職責(zé)的部門有權(quán)要求個人信息處理者委托專業(yè)機(jī)構(gòu)進(jìn)行審計?!案鶕?jù)第53條的規(guī)定,監(jiān)管部門的監(jiān)管對象從外部直接”穿透“至平臺內(nèi)部的算法運(yùn)行層面?!恫莅浮芬笃脚_應(yīng)對其算法自動化決策等信息處理活動定期進(jìn)行審計,必要時監(jiān)管部門有權(quán)啟動對平臺的第三方外部算法審計。

  算法審計制度的確立體現(xiàn)了平臺自動化決策治理手段的升級:其一,監(jiān)管部門直接將算法作為監(jiān)管的對象。這一監(jiān)管手段在近年來成為各國平臺治理的常用手段,如2019年澳大利亞競爭與消費者委員會(ACCC)宣布計劃設(shè)立專門分支機(jī)構(gòu)”主動監(jiān)視“平臺算法運(yùn)行,賦予其要求披露算法詳細(xì)信息的權(quán)限。其二,監(jiān)管部門的活動直接指向平臺內(nèi)部日常運(yùn)營活動,穿透了平臺法人的外殼。我國算法審計制度規(guī)定監(jiān)管部門有權(quán)啟動外部審計,體現(xiàn)了在事態(tài)嚴(yán)重時監(jiān)管部門可直接對企業(yè)組織內(nèi)部結(jié)構(gòu)與事務(wù)進(jìn)行干預(yù)監(jiān)管。無獨有偶,在”劍橋分析“事件后,美國聯(lián)邦貿(mào)易委員會(Federal Trade Commission,F(xiàn)TC)在 Facebook 設(shè)立三個委員會,其工作人員不由企業(yè)任免并可向 FTC 直接匯報工作。其三,平臺的算法治理引入了多方主體參與。在算法審計制度中,企業(yè)自律與第三方機(jī)構(gòu)扮演了重要角色。一方面,平臺要定期進(jìn)行自我審計。這也成了世界各大平臺公司的日常實踐,如微軟設(shè)立人工智能倫理委員會,聯(lián)邦政府與亞馬遜合作并與企業(yè)合作開發(fā)促進(jìn)算法公平性的項目。另一方面,第三方機(jī)構(gòu)在平臺多元治理中扮演越來越重要的作用。如為了人民組織(ProPublica)即通過算法審計發(fā)現(xiàn)量刑算法存在的種族歧視問題,紐約大學(xué)的 AI Now 研究院則專門針對紐約市算法監(jiān)管行動發(fā)布報告,評價政府監(jiān)管行動的得失并提出建議。我國現(xiàn)有的第三方機(jī)構(gòu)發(fā)揮作用不足,預(yù)計在出臺后的《個人信息保護(hù)法》相關(guān)制度的推動下將有所發(fā)展。

  要求平臺進(jìn)行定期算法審計已經(jīng)成為世界各國的通行做法。以印度《個人數(shù)據(jù)保護(hù)法案》為例,其要求數(shù)據(jù)控制者聘請獨立的數(shù)據(jù)審計方對算法的數(shù)據(jù)處理行為進(jìn)行一年一度的審計,審計的內(nèi)容包括算法的透明度、企業(yè)的相關(guān)保障措施等,審計結(jié)果體現(xiàn)為對數(shù)據(jù)控制者的信用評級打分。此外,當(dāng)監(jiān)管部門認(rèn)為數(shù)據(jù)控制者有可能造成算法的損害結(jié)果時,也可啟動算法審計。

  平臺算法審計制度的確立,既體現(xiàn)了監(jiān)管部門直接穿透平臺法人的外殼干預(yù)平臺日常運(yùn)營,又初步建立了企業(yè)自律與第三方共同參與的算法多元治理框架。《草案》不僅建立了算法影響評估的事前監(jiān)管制度,也對事中算法運(yùn)營進(jìn)行日常監(jiān)管。

 ?。ㄈ┫嚓P(guān)用戶權(quán)利:平臺自動化決策義務(wù)增加

  《草案》第25條確立了平臺對算法自動化決策結(jié)果事后的相關(guān)義務(wù)。其規(guī)定:”利用個人信息進(jìn)行自動化決策,應(yīng)當(dāng)保證決策的透明度和處理結(jié)果的公平合理。個人認(rèn)為自動化決策對其權(quán)益造成重大影響的,有權(quán)要求個人信息處理者予以說明,并有權(quán)拒絕個人信息處理者僅通過自動化決策的方式作出決定。通過自動化決策方式進(jìn)行商業(yè)營銷、信息推送,應(yīng)當(dāng)同時提供不針對其個人特征的選項?!?/p>

  根據(jù)《草案》第25條的規(guī)定,平臺須對自動化決策的結(jié)果承擔(dān)如下義務(wù):第一,保證自動化決策過程的透明和結(jié)果的公平合理。這一條款針對一直以來被詬病的對特定人群的算法歧視、大數(shù)據(jù)殺熟等問題。根據(jù)平臺對算法應(yīng)用的場景,算法透明度的要求可能涉及代碼、邏輯、模型、目標(biāo)、決策等多個方面,而結(jié)果的公平合理可能涉及機(jī)會平等或結(jié)果平等,以避免平臺利用算法處理海量個人數(shù)據(jù)可能造成系統(tǒng)性地使某些社會群體處于不利地位。第二,對決策結(jié)果予以說明。這一條款與歐盟《通用數(shù)據(jù)保護(hù)條例》(GDPR)第22條類似,個人有權(quán)要求平臺對其造成”重大影響“的自動化決策作出說明,但”重大影響“尚未有明確規(guī)定。第三,平臺須對用戶提供不針對個人特征的自動化決策選項。這一規(guī)定是對《中華人民共和國電子商務(wù)法》第18條第1款的再次強(qiáng)調(diào),即”電子商務(wù)經(jīng)營者根據(jù)消費者的興趣愛好、消費習(xí)慣等特征向其提供商品或者服務(wù)的搜索結(jié)果的,應(yīng)當(dāng)同時向該消費者提供不針對其個人特征的選項,尊重和平等保護(hù)消費者合法權(quán)益“。

  《草案》第25條直接為平臺的自動化決策結(jié)果設(shè)定了相關(guān)義務(wù),并作出了如下突破:第一,突破平臺一直以來采用的”技術(shù)中立“抗辯,要求平臺為算法自動化決策結(jié)果承擔(dān)責(zé)任,須保證算法自動化決策結(jié)果的公平合理。第二,擴(kuò)張平臺用戶的知情權(quán),確立了有限制的”算法解釋權(quán)“,用戶既可以要求自動化決策結(jié)果的透明,也可以在涉及”重大影響“時獲得平臺說明。這一制度致力于打破用戶與平臺之間的信息不對稱,為平臺施加了信息披露的義務(wù)。第三,要求平臺打破算法個性化推薦給用戶打造的”信息繭房“,要求平臺保障用戶的知情權(quán)。推薦算法的個性化推送、個性化定價,是當(dāng)前各大互聯(lián)網(wǎng)平臺普遍使用的增加利潤的武器。研究顯示,算法根據(jù)用戶個人信息定制的結(jié)果排名總是高于其他任何因素。2015年優(yōu)步僅根據(jù)動態(tài)定價算法就創(chuàng)造了68億美元的利潤。此條要求網(wǎng)絡(luò)平臺不得以此損害消費者利益,不得利用個性化推薦損害用戶的知情權(quán)以及對用戶進(jìn)行價格歧視。

  總體而言,《草案》設(shè)定了平臺算法自動化決策事前、事中與事后的全生命周期的監(jiān)管框架,既借鑒了近三年來世界各國立法的相關(guān)制度,也沿襲了我國既有的相關(guān)實踐。

  二 揭開平臺技術(shù)面紗:平臺算法問責(zé)制的初步確立

  《草案》將平臺監(jiān)管對象深入至平臺的底層技術(shù)邏輯——算法層面,為平臺的算法自動化決策的設(shè)計部署、運(yùn)行與結(jié)果輸出等設(shè)置了注意義務(wù),并以此作為平臺責(zé)任的承擔(dān)依據(jù)。《草案》初步確立了我國的平臺算法問責(zé)制和以平臺治理為核心的算法自動化決策治理框架。

  (一)平臺追責(zé)的直接指向:平臺的算法自動化決策

  《草案》確立的平臺自動化決策治理框架,體現(xiàn)立法者將”主體—行為—責(zé)任“的傳統(tǒng)法律追責(zé)思路更新為技術(shù)治理思路。立法者充分認(rèn)識到算法在平臺日常運(yùn)行中的核心作用,因此對于平臺責(zé)任不再糾結(jié)于主觀過錯與違法結(jié)果等傳統(tǒng)法律責(zé)任的認(rèn)知體系,而是直接將平臺算法作為法律監(jiān)管的對象。

  監(jiān)管部門將平臺責(zé)任追究指向算法層面,解決了法律面臨的如何認(rèn)定平臺”行為“的理論問題。平臺的運(yùn)作功能和盈利模式,或者學(xué)界提出的”架構(gòu)“等,均關(guān)系到平臺的法律定性以及功能描述。然而,”平臺“一詞至今尚無標(biāo)準(zhǔn)定義。根據(jù)現(xiàn)有研究,平臺的雙邊市場效應(yīng)特征十分突出。平臺的功能已經(jīng)超越市場主體,實際上已通過算法架構(gòu)建立了基于數(shù)據(jù)挖掘與分析的數(shù)據(jù)服務(wù)市場,并且在此市場中,糅合了多向度和多方面的法律關(guān)系。平臺算法的計算結(jié)果來源于用戶提供的原始數(shù)據(jù),而數(shù)據(jù)提供者并非僅有用戶,還包括交易產(chǎn)生的數(shù)據(jù),甚至包含政府提供的公共數(shù)據(jù)。因此,平臺盡管是”數(shù)據(jù)控制者“,但平臺通過算法收集、抓取和分析數(shù)據(jù),并提供大數(shù)據(jù)產(chǎn)品(如用戶畫像),同時通過與其他市場主體簽訂服務(wù)協(xié)議,構(gòu)建平等主體間的民事法律關(guān)系。在這樣一個紛繁復(fù)雜的多邊市場中,可落入傳統(tǒng)法律規(guī)制對象的既包括平臺用戶協(xié)議的解釋規(guī)則、平臺對所呈現(xiàn)內(nèi)容的事前審查,也包括對所提供服務(wù)的質(zhì)量保障義務(wù)與相關(guān)事后義務(wù),以及基于算法自動化決策所產(chǎn)生的個性化推送等。

  由于平臺作為多邊市場存在多重法律關(guān)系,因此長期以來在平臺責(zé)任的追究問題上一直存在著”平臺責(zé)任中行為人與責(zé)任人相分離“”平臺本應(yīng)技術(shù)中立所以承擔(dān)的是無過錯責(zé)任“的理論困境,甚至在刑事責(zé)任的追究上也存在”幫助犯正犯化“的爭議。《草案》中平臺作為個人信息的處理者,平臺要為算法加工個人數(shù)據(jù)產(chǎn)生的數(shù)據(jù)質(zhì)量承擔(dān)具體的法律義務(wù)。因此,算法自動化決策乃至平臺架構(gòu)均被納入”行為“的范圍,平臺的算法自動化決策無法逃脫過錯責(zé)任的承擔(dān),技術(shù)中立與無差別技術(shù)抗辯已經(jīng)無法產(chǎn)生責(zé)任規(guī)避的效果。

  平臺責(zé)任中個人信息的使用原則和行為邊界,終仍須著落于平臺處理個人信息的工具——算法的設(shè)計部署、運(yùn)行的控制上。根據(jù)平臺處理個人信息的正當(dāng)性與合理性原則,平臺還須對算法自動化決策結(jié)果的輸出承擔(dān)一定的注意義務(wù),保證”自動化決策結(jié)果的公平合理“。至此,平臺責(zé)任追究的對象已穿透平臺的技術(shù)面紗,直抵平臺技術(shù)的底層邏輯——算法。

 ?。ǘ┢脚_注意義務(wù)的擴(kuò)張:從算法設(shè)計到結(jié)果輸出

  平臺責(zé)任的認(rèn)定機(jī)制中,平臺注意義務(wù)從簡單的”明知應(yīng)知“被擴(kuò)張至算法設(shè)計、算法運(yùn)行直到結(jié)果輸出的全過程。平臺這一注意義務(wù)的擴(kuò)張趨勢有學(xué)者在理論上早有提及,并于2018年以來逐步被各國立法實踐所采納。

  美國法學(xué)家萊斯格早在《代碼2.0》中即指出,代碼(算法)搭建了網(wǎng)絡(luò)空間架構(gòu),建構(gòu)和引導(dǎo)了用戶行為。萊斯格首次將架構(gòu)納入法律社會學(xué)分析,提升到與法律、市場、社會規(guī)范平行的高度,并系統(tǒng)地說明(甚至預(yù)言)架構(gòu)如何”規(guī)制“社會主體的在線行為,影響諸如版權(quán)、隱私、言論這樣的法律制度,進(jìn)而提出賽博空間的根本問題:誰終控制架構(gòu)的生產(chǎn)和運(yùn)作。2011年,Cavoukian 提出”設(shè)計隱私“的理念,主張平臺在算法設(shè)計時就有責(zé)任考慮用戶的隱私保護(hù)。學(xué)界主張基于平臺算法(架構(gòu))對平臺運(yùn)行與用戶權(quán)利的影響,平臺算法設(shè)計階段即應(yīng)負(fù)起相應(yīng)注意義務(wù)。

  平臺算法運(yùn)行中的注意義務(wù)也在各國司法實踐中獲得實質(zhì)性推進(jìn)。GDPR 建立了算法數(shù)據(jù)處理評估制度、算法認(rèn)證制度,官方于2019年發(fā)布了”行為指引與認(rèn)證標(biāo)準(zhǔn)“。歐盟議會的《算法責(zé)任與透明治理框架》提出建立”算法影響評估“(AIA)機(jī)制,歐盟部長委員會向成員國提出立法建議,應(yīng)對算法對內(nèi)容與用戶行為的”過程操縱“能力。GDPR 的風(fēng)險預(yù)防型立法逐漸獲得各國立法者的青睞,美國、加拿大和德國也逐漸重視算法系統(tǒng)的事前風(fēng)險防范制度,要求企業(yè)承擔(dān)更多的信息披露義務(wù),以減少監(jiān)管機(jī)構(gòu)的負(fù)擔(dān)。無論是 GDPR 的算法專條還是美國的《算法問責(zé)法案》(Algorithmic Accountability Act of 2019),其中的算法透明度、可見性、評估、認(rèn)證等制度均充分體現(xiàn)了算法風(fēng)險預(yù)防型流程監(jiān)管的加強(qiáng)趨勢。實踐中,”西班牙谷歌案“”武爾夫夫人訴谷歌案“等一系列司法判例,以及行政機(jī)關(guān)的一些行政處罰案都表明了對平臺算法有從設(shè)計階段問責(zé)的傾向。

  同時,各國也加強(qiáng)了算法造成危害結(jié)果后對平臺的問責(zé)。平臺作為算法的使用者與控制者,有義務(wù)在不利后果發(fā)生后報告并證明算法系統(tǒng)設(shè)計和決策應(yīng)用的合理性,并有義務(wù)減輕算法可能帶來的任何負(fù)面影響或者潛在危害。

 ?。ㄈ┢脚_算法治理的目標(biāo):平臺的算法問責(zé)

  平臺算法治理的核心目標(biāo)是厘清平臺責(zé)任的認(rèn)定與分配,具體而言是解決”誰負(fù)責(zé)、怎么負(fù)責(zé)、負(fù)什么責(zé)“的問題。平臺算法治理必須既符合技術(shù)邏輯,也符合法律責(zé)任主客觀相一致的法律原理,打造”負(fù)責(zé)任“的平臺算法責(zé)任體系。

  技術(shù)一旦應(yīng)用,則需要對來自人類社會的各種倫理訴求作出負(fù)責(zé)任的回應(yīng)。算法問責(zé)制有確保平臺負(fù)責(zé)任地開發(fā)和使用算法系統(tǒng),從而改善人類福利并造福社會的功能。在諸多算法治理手段中,算法透明度和算法問責(zé)制之間既有區(qū)別又有聯(lián)系。其中一個重要區(qū)別是,問責(zé)制主要是個人或組織的一項法律和道德義務(wù),即對其活動進(jìn)行說明,承擔(dān)責(zé)任;而算法透明度可作為實現(xiàn)這一目標(biāo)的工具,要求平臺以透明的方式披露算法運(yùn)行過程與結(jié)果,算法的結(jié)果透明度、目標(biāo)透明度和影響透明度比算法本身的透明度對算法問責(zé)更有意義。歸根結(jié)底,透明度、數(shù)據(jù)出處日志、代碼更改和其他記錄保存都是重要的技術(shù)治理工具,平臺責(zé)任制度設(shè)計的根本目標(biāo)是建立明確的法律責(zé)任鏈。

  平臺算法治理以平臺算法問責(zé)制作為目標(biāo),相比其他治理目標(biāo)具有優(yōu)勢。個人數(shù)據(jù)保護(hù)進(jìn)路的算法治理存在重大局限,強(qiáng)調(diào)權(quán)利保護(hù)而不明確算法責(zé)任的歸責(zé)主體、歸責(zé)條件和規(guī)則事由,使得個人權(quán)利保護(hù)進(jìn)路的算法監(jiān)管無法落地。歐盟提倡的”設(shè)計隱私“理念過于狹隘,無法涵蓋算法治理的公平、安全等重要價值。美國的事后監(jiān)管模式事實上是”一事一理“,難以被他國學(xué)習(xí)、復(fù)制。FTC 調(diào)查程序漫長、反應(yīng)滯后,事后監(jiān)管也未形成令人信服的可供對標(biāo)的佳實踐,盲目借鑒將會造成司法管轄的低效能,并使得行政監(jiān)管權(quán)限與邊界模糊化。現(xiàn)有《草案》中應(yīng)以行政賦能作為主要手段,以平衡用戶與科技巨頭”算法權(quán)力“的不對等現(xiàn)狀,來滿足未來算法問責(zé)制的需求。

  平臺從提供”連接“服務(wù)走向智能化與自動化后,網(wǎng)絡(luò)平臺應(yīng)當(dāng)基于”算法責(zé)任“的主觀過錯,將”客觀損害結(jié)果“和之前已經(jīng)事先存在的”算法責(zé)任“相結(jié)合,建立權(quán)責(zé)一致、責(zé)罰相當(dāng)?shù)谋O(jiān)管框架與法律責(zé)任體系。

  三 平臺算法問責(zé)制的框架完善與制度細(xì)化

  我國平臺責(zé)任存在監(jiān)管時點滯后、責(zé)任機(jī)理模糊、調(diào)整對象過淺的情況,因此常被詬病為”事故型問責(zé)“或”按需求處罰“,導(dǎo)致問責(zé)的必要性、合理性存疑?!恫莅浮反_立了算法問責(zé)制的基本框架,但遺憾的是,對于平臺算法責(zé)任的機(jī)理與層次尚不明晰。因此,應(yīng)以符合法理和技術(shù)邏輯的科學(xué)問責(zé)思路來校正監(jiān)管部門與生俱來的”越早越好“和”越嚴(yán)越好“的擴(kuò)張邏輯,使平臺責(zé)任設(shè)置和追究走向科學(xué)化、體系化,監(jiān)管力度與平臺過錯相適應(yīng)。

 ?。ㄒ唬┢脚_算法注意義務(wù)的適度擴(kuò)張

  為了避免事后僅根據(jù)損害結(jié)果客觀歸責(zé),必須通過制度在事前進(jìn)行算法設(shè)計部署的相關(guān)信息披露以確定事后的問責(zé)點。對平臺責(zé)任中平臺是否盡到注意義務(wù)的考察應(yīng)在事前進(jìn)行,并以某種形式將事后的問責(zé)點固定下來。這樣既能夠避免事后平臺隱瞞與錯誤披露的可能,也可以預(yù)防風(fēng)險,避免錯誤的算法計算反復(fù)被適用于海量主體,從而導(dǎo)致?lián)p害彌散化。

  算法評估標(biāo)準(zhǔn)應(yīng)當(dāng)適度擴(kuò)張。遺憾的是,《草案》對于平臺自動化決策的評估基于其立法目的限于”對個人的影響及風(fēng)險“,而平臺的自動化決策遠(yuǎn)不止于此。例如,平臺匹配工作任務(wù)與勞動者的算法,影響就業(yè)的薪酬與機(jī)會,事關(guān)就業(yè)公平;平臺對商戶的信用評分算法,對商戶獲得流量與業(yè)務(wù)至關(guān)重要;甚至互聯(lián)網(wǎng)保險公司采用的算法決定是否允許用戶投保以及保費高低,已具有了一定的公共服務(wù)色彩。平臺是數(shù)字經(jīng)濟(jì)中組織社會生產(chǎn)的核心組織,其算法設(shè)計直接關(guān)系到社會經(jīng)濟(jì)運(yùn)行,對參與生產(chǎn)與資源分配的社會主體具有深遠(yuǎn)影響。

  2018年以來,立法者逐漸認(rèn)識到數(shù)據(jù)保護(hù)制度偏重私權(quán)與合規(guī),無法顧及公共利益與網(wǎng)絡(luò)治理,因此算法規(guī)制成為網(wǎng)絡(luò)治理的新抓手。目前,歐盟及各成員國呈現(xiàn)算法立法與數(shù)據(jù)立法分立且并重的態(tài)勢。例如,GDPR 的數(shù)據(jù)處理評估制度(DPIA)即是針對高風(fēng)險數(shù)據(jù)處理活動對數(shù)據(jù)控制者設(shè)置的預(yù)警自查義務(wù)。AI Now 研究院也提出了類似的”算法影響評估“制度,要求在重要的公共部門使用算法前,應(yīng)采取關(guān)鍵步驟來確定何時以及如何產(chǎn)生潛在危害的,包括增加其專業(yè)知識和能力以有效評估算法系統(tǒng),并允許第三方審計公共部門的算法。由于近三年英國脫歐事件與歐洲各國大選,算法對網(wǎng)絡(luò)信息內(nèi)容的決定性作用與社會動員力量引起了立法者的關(guān)注。歐盟議會指導(dǎo)意見要求在線平臺確保政治廣告透明性、闡述算法推薦內(nèi)容機(jī)制并允許第三方驗證,以應(yīng)對算法操縱新聞議程。

  《草案》的算法事前評估制度可類比建設(shè)項目的環(huán)境影響評估制度。算法可能產(chǎn)生的公共利益、公民權(quán)利等風(fēng)險的評估,包括風(fēng)險的來源、性質(zhì)、特殊性和嚴(yán)重性等。在數(shù)據(jù)實踐中,個人信息的隱私與數(shù)據(jù)安全并不可截然分開,如許多個人信息泄露是由于未能有效維護(hù)信息安全而導(dǎo)致的。有他國實踐主張,算法的設(shè)計部署者應(yīng)提供更為廣泛的評估,包括算法應(yīng)用對人權(quán)、隱私和數(shù)據(jù)保護(hù)的影響等;有的學(xué)者主張,算法設(shè)計部署應(yīng)著重提供”社會影響聲明“”歧視影響評估“,甚至”人類影響聲明“等。我國未來應(yīng)以行政法規(guī)或規(guī)章對《草案》確立的算法評估制度具化細(xì)化,依據(jù)算法應(yīng)用場景、算法處理數(shù)據(jù)風(fēng)險、算法使用部門、算法的法律后果等多種風(fēng)險評估標(biāo)準(zhǔn),采取不同的算法監(jiān)管強(qiáng)度。

 ?。ǘ┢脚_算法問責(zé)制度的細(xì)化

  第一,應(yīng)明確平臺啟動算法評估的條件。我國并未明確平臺對算法自動化決策進(jìn)行評估的啟動標(biāo)準(zhǔn),應(yīng)在未來實施細(xì)則中具體明確以方便今后平臺的合規(guī)工作。我國的《信息安全技術(shù)個人信息安全規(guī)范》將”處理超過100萬人的個人信息“作為評估啟動的標(biāo)準(zhǔn),但對于《草案》中的算法評估在何種條件下啟動并未明確。將算法應(yīng)用涉及的用戶數(shù)量作為高風(fēng)險標(biāo)準(zhǔn)是為了避免算法造成的系統(tǒng)性風(fēng)險。這種適用范圍的確定以美國《算法問責(zé)法案》為代表,針對有權(quán)訪問大量信息的大型公司,適用于年收入超過5000萬美元,擁有至少100萬人或設(shè)備的信息或主要充當(dāng)買賣消費者數(shù)據(jù)的數(shù)據(jù)經(jīng)紀(jì)人的公司。法國也將當(dāng)前(或?qū)恚┙佑|軟件應(yīng)用程序的用戶數(shù)量構(gòu)成了確定監(jiān)管措施是否適當(dāng)?shù)闹匾鶞?zhǔn),認(rèn)定每月連接數(shù)超過500萬的平臺比連接數(shù)較少的平臺受到更嚴(yán)格的監(jiān)管。可以預(yù)見,我國未來可能建立以用戶數(shù)、企業(yè)規(guī)?;蛩惴ǚ旨墳榍爸脳l件的評估啟動條件。

  第二,應(yīng)明確平臺啟動算法評估的后果。算法評估報告是否應(yīng)公布,并在何種范圍內(nèi)公布?對公眾披露的大風(fēng)險在于算法的設(shè)計信息可能會被競爭對手獲取,或被用戶不當(dāng)使用。例如,網(wǎng)絡(luò)用戶在掌握搜索引擎排名權(quán)重等信息后,通過搜索引擎優(yōu)化(SEO)技術(shù)對排名和搜索建議進(jìn)行操縱。這些風(fēng)險可通過將披露對象限定于監(jiān)管部門而得以避免。在各國制度中,美國的《算法問責(zé)法案》擬要求平臺對監(jiān)管部門(FTC)披露信息,澳大利亞反壟斷部門的平臺算法監(jiān)管措施也僅限于對監(jiān)管部門的披露,而在英國數(shù)據(jù)保護(hù)機(jī)關(guān) ICO 的調(diào)查報告中建議數(shù)據(jù)處理評估的結(jié)果應(yīng)該公開。數(shù)據(jù)處理評估在實踐當(dāng)中已經(jīng)逐漸開始發(fā)揮作用。曾供職荷蘭數(shù)據(jù)保護(hù)機(jī)關(guān)的 Sjoera Nas 在 EDPL 撰文披露了微軟公司 Office ProPlus 軟件的影響評估報告。這份報告由荷蘭政府中央采購部門披露。報告披露,微軟在未經(jīng)用戶同意的情況下,對用戶使用 Word、Excel、PowerPoint 以及 Outlook 等常用軟件進(jìn)行數(shù)據(jù)收集。微軟隱私和法規(guī)事務(wù)副總顧問事后予以回應(yīng),稱相關(guān)軟件已經(jīng)升級,并對算法進(jìn)行數(shù)據(jù)收集的問題進(jìn)行了修繕。《草案》應(yīng)在未來的具體制度設(shè)計中明確算法評估報告的公布范圍。

 ?。ㄈ┢脚_多元治理體系的完善

  平臺運(yùn)行過程中的算法審計是針對算法運(yùn)行過程進(jìn)行問責(zé)的主要依據(jù)。應(yīng)鼓勵建立多元主體的平臺問責(zé)體系,由平臺對算法進(jìn)行自我審計與評估,以幫助提前識別和減輕算法可能帶來的風(fēng)險,這既有助于為日后的問責(zé)提供充分有效的信息,又符合鼓勵行業(yè)自律的自證合規(guī)原則。

  平臺的自我審計與評估應(yīng)包括對算法與使用數(shù)據(jù)在運(yùn)行階段的頻繁評估,以檢查是否有任何偏見(例如,錯誤的分類、不準(zhǔn)確的預(yù)測、對個人的負(fù)面影響),并制定解決任何偏見因素的方法。算法審計系統(tǒng)應(yīng)構(gòu)建為自動決策的準(zhǔn)確性和相關(guān)性進(jìn)行的定期審查,并應(yīng)包括周期性地防止基于敏感數(shù)據(jù)的錯誤和不準(zhǔn)確而發(fā)生歧視的程序和措施。政府對平臺的算法監(jiān)管需要把握侵入平臺內(nèi)部運(yùn)行的限度,盡量形成合作規(guī)制,通過低成本”輕推“的監(jiān)管方式調(diào)動平臺的技術(shù)力量自我規(guī)制。如 Facebook 自2018年起就遭到其偏愛左傾新聞來源的批評,盡管美國并未展開相關(guān)調(diào)查,F(xiàn)acebook 還是對其算法的政治偏見進(jìn)行了內(nèi)部審計。

  從技術(shù)的角度來看,對測試結(jié)果的正確解釋可能受到技術(shù)能力的限制,尤其是對于機(jī)器學(xué)習(xí)的算法內(nèi)部如何達(dá)成結(jié)果可能無法進(jìn)行有效解釋。這限制了監(jiān)管部門提供證據(jù)確認(rèn)平臺算法設(shè)計和運(yùn)行中的過錯。因此,還需要事前就設(shè)立不同算法的技術(shù)標(biāo)準(zhǔn)、測試程序,審核算法設(shè)計運(yùn)行是否達(dá)到了相關(guān)標(biāo)準(zhǔn)。政府部門應(yīng)制定測試程序和審計統(tǒng)計技術(shù)標(biāo)準(zhǔn)的計劃,并在必要時根據(jù)應(yīng)用領(lǐng)域進(jìn)行區(qū)分。專業(yè)技術(shù)支持部門應(yīng)在算法測試中發(fā)揮主導(dǎo)作用。

 ?。ㄋ模┢脚_算法責(zé)任的體系化設(shè)置

  《草案》確立了平臺數(shù)據(jù)活動造成的損害的過錯責(zé)任原則(過錯推定原則)?!恫莅浮返?5條規(guī)定:”因個人信息處理活動侵害個人信息權(quán)益的,按照個人因此受到的損失或者個人信息處理者因此獲得的利益承擔(dān)賠償責(zé)任……個人信息處理者能夠證明自己沒有過錯的,可以減輕或者免除責(zé)任?!坝纱丝梢酝茢?,平臺算法自動化決策(數(shù)據(jù)活動)造成損害的歸責(zé)原則也應(yīng)為過錯責(zé)任原則,那么,如何根據(jù)不同的過錯程度設(shè)計體系化的平臺算法責(zé)任,仍有待未來法律與實踐的回答。

  首先,平臺算法問責(zé)應(yīng)對不同類型風(fēng)險設(shè)置不同層次的法律責(zé)任。對”高風(fēng)險“的應(yīng)用場景可采取風(fēng)險規(guī)制思路,強(qiáng)化事前監(jiān)管,對應(yīng)用準(zhǔn)入設(shè)置必要的評估等要求,完善相應(yīng)責(zé)任立法體系。對于高風(fēng)險的”關(guān)鍵算法系統(tǒng)“可適當(dāng)采取嚴(yán)格責(zé)任或無過錯責(zé)任,對于風(fēng)險適中的算法則采取過錯責(zé)任原則。

  其次,平臺對算法的評估與審計不符合標(biāo)準(zhǔn),或進(jìn)行虛假評估與審計時,監(jiān)管部門可以強(qiáng)制要求披露或介入平臺運(yùn)營。例如,法國2019年《反網(wǎng)絡(luò)仇恨法案》提出提高數(shù)據(jù)處理透明度,接受技術(shù)資源高級視聽委員會的監(jiān)督,并向后者上報所收到問題的處理情況和必要數(shù)據(jù);加強(qiáng)與法國司法系統(tǒng)的合作,取消違法用戶的匿名權(quán)利并提交用戶信息,接受獨立檢察官的依法審核及必要介入。

  最后,我國可以在復(fù)雜領(lǐng)域通過司法審判對具體案件進(jìn)行平臺算法責(zé)任的探索,通過個案析理提升立法清晰度。《草案》中的平臺算法問責(zé)制多為統(tǒng)籌性、原則性立法,在具體案件適用過程中存在清晰性不足的問題。

  結(jié)語 人工智能時代,法律的重要任務(wù)是保障自動化決策公平的核心公共利益。《草案》中的平臺算法治理框架以保障用戶的個人信息與財產(chǎn)權(quán)益為目標(biāo),應(yīng)積極發(fā)揮促進(jìn)公平、發(fā)展等民眾福祉的作用。隨著風(fēng)險社會的來臨,以及平臺權(quán)力和算法權(quán)力的崛起,法律與監(jiān)管部門應(yīng)主動防治風(fēng)險,建立完善的平臺算法問責(zé)制度,形成符合法理和技術(shù)邏輯的科學(xué)問責(zé)思路和監(jiān)管思路,以促進(jìn)”負(fù)責(zé)任“的平臺算法設(shè)計與運(yùn)行體系。




電子技術(shù)圖片.png

本站內(nèi)容除特別聲明的原創(chuàng)文章之外,轉(zhuǎn)載內(nèi)容只為傳遞更多信息,并不代表本網(wǎng)站贊同其觀點。轉(zhuǎn)載的所有的文章、圖片、音/視頻文件等資料的版權(quán)歸版權(quán)所有權(quán)人所有。本站采用的非本站原創(chuàng)文章及圖片等內(nèi)容無法一一聯(lián)系確認(rèn)版權(quán)者。如涉及作品內(nèi)容、版權(quán)和其它問題,請及時通過電子郵件或電話通知我們,以便迅速采取適當(dāng)措施,避免給雙方造成不必要的經(jīng)濟(jì)損失。聯(lián)系電話:010-82306118;郵箱:aet@chinaaet.com。