<nobr id="hlbhj"></nobr>
    <em id="hlbhj"></em>

    <form id="hlbhj"><form id="hlbhj"><sub id="hlbhj"></sub></form></form>

      <ins id="hlbhj"><sub id="hlbhj"><p id="hlbhj"></p></sub></ins>

          人臉識別技術應用的利益權衡與合法性認定
          發布日期:2024-01-29 來源:《法律科學》 作者:趙精武


          【中文摘要】人臉識別技術雖可提升服務質量,但也產生了技術濫用風險,部分公共場所、經營場所的管理者出于節省成本等方面的考量,在未經告知或獲得同意的情況下采用人臉識別技術,對個人權益產生了不利影響。然而,在立法層面,完全禁止或完全允許技術應用均是不可取的,如何兼顧此中的個體、產業、社會公眾等多方利益成為現實難題。對法律價值位階層面的公共利益與個人利益比較與平衡并不足以為實踐指明人臉識別技術應用的合法性邊界,并且,以公共安全為目的在公共場所采用人臉識別技術也不能當然確認其合法性。為了彌補過往二元利益平衡的弊端,更適宜以整體性利益架構為基礎進行動態權衡,剖析人臉識別技術應用對個體利益、產業利益、使用者利益以及社會公眾利益的影響。尤其在《人臉識別技術應用安全管理規定(試行)(征求意見稿)》的背景下,可以將利益權衡的結果與作為立法目的的制度利益予以比較確定人臉識別技術應用的合法性,以便為司法實踐提供更為明確的判斷標準。


          【全文】  
           

            一、問題的提出

            人臉識別技術應用的監管問題持續受到學界關注,其核心在于該項技術在具體的應用場景中如何平衡安全和效率兩種不同的法律價值。一方面,人臉識別技術的廣泛應用縮短了身份驗證的繁冗環節,可方便高效率地完成批量身份驗證;另一方面,人臉識別信息作為《個人信息保護法》所規定的敏感個人信息,理應采取更嚴格的保護措施,但實踐中仍出現違法收集人臉識別信息的現象,甚至將人臉識別信息與其他信息相結合,用于辦公場所監控員工是否認真工作、線上消費者對于特定商品的面部表情變化等場景,嚴重侵害了自然人的人格尊嚴。然而,規范人臉識別應用行為的問題并不是簡簡單單通過強化執法就可以實現;網絡空間治理的基本思路并不是限制技術應用,而是促進技術創新安全應用與數字經濟發展?陀^而言,人臉識別技術在公共安全保障、身份核驗安全等領域確實具有增效作用,且相較于人工審核而言,甚至還能夠避免內部員工消極怠工、違規核驗等風險。因此,為了進一步平衡安全和效率,國家互聯網信息辦公室在2023年8月發布了《人臉識別技術應用安全管理規定(試行)(征求意見稿)》(以下簡稱《征求意見稿》),對該技術應用作出更為詳細的體系化規定。不過,《征求意見稿》在明確技術應用的合法性邊界時,仍然存在部分爭議:《征求意見稿》第4條提及將“只有特定目的和充分必要性”以及“嚴格保護措施”作為采用人臉識別技術處理人臉信息的法定條件,其中的“特定目的”和“充分必要性”究竟如何理解?是否存在過度限縮人臉識別技術應用范圍的風險?此外,《征求意見稿》還將公共場所使用人臉識別技術作為一類特殊情形予以規范,但是并沒有對“公共場所”的概念和范圍作出相關解釋。事實上,這些爭議在學理層面可以歸結為同一個問題,即按照何種標準判斷人臉識別技術應用具有合法性和正當性?所謂的“特定的目的”和“充分的必要性”本質上仍屬于價值判斷的范疇,故而需要進一步回答兩個關鍵問題:一是按照何種法益平衡范式判斷是否具有采用人臉識別技術的必要性,二是如何在實踐中解釋“特定的目的”與“充分的必要性”的具體判斷標準。

            二、人臉識別技術應用監管的學說現狀與研究疏漏

           。ㄒ唬┤四樧R別技術應用監管的學說現狀與研究不足

            學界目前有關人臉識別技術應用的討論已經相當充分,從人臉識別信息的保護到技術濫用對人格尊嚴的侵害均有提及,論證模式大抵可以歸結為根據具體的技術風險類型確定相應的治理模式以及義務履行標準,F階段,人臉識別技術應用監管的學說主要包括個人信息保護論、多元協同治理論兩類觀點。個人信息保護論主要是從個人信息保護的視角解釋人臉識別技術的規制模式,人臉識別信息作為《個人信息保護法》的敏感個人信息,理應遵循更為嚴格的個人信息保護規則。人臉識別技術濫用構成侵害自然人的個人信息自決權,因為在大多數情況下自然人并不知曉自己的人臉識別信息何時以及如何被收集。因此,相關的治理主張也大多表現為通過“分級分類保護”“知情同意原則”等機制限制個人信息處理者收集人臉識別信息的行為。此外,該類學說中還存在同意規則改良論,即認為同意規則在治理人臉識別技術濫用領域存在失靈問題,尤其在公共場所領域存在大量未能獲得公眾同意的情形,主張按照使用目的等要素細化自然人單獨同意的方式和內容。

            多元協同治理理論則認為現有的立法體系并不足以全方位預防和控制技術濫用風險,而應通過“動態治理”“協同治理”“場景化治理”“多元主體共治”等治理架構從法律、技術、市場、倫理等方面規范人臉識別技術應用。該類學說的支持者通常以歐美生物識別信息保護和人臉識別技術應用限制的監管模式為例,如“基于使用目的和風險預防限制或禁用該技術”和“基于使用主體區分公私不同機構的使用規則”。此外,部分支持者還認為僅明確人臉識別技術提供者、使用者的法定義務并不足以解決技術濫用風險,而應當從企業社會責任、行業自律以及公眾個人信息保護意識等角度提升實際的治理效果,推進“多元主體協同共治”。

            人臉識別技術的不當使用可能導致三類風險:第一,技術安全風險。任何信息技術均不可能達到絕對安全可靠的技術水平,人臉識別技術在身份核驗層面的高效性和準確性也不意味著能夠達到核驗的絕對準確性。第二,個人信息和個人隱私泄漏風險。這類風險常表現為個人信息處理者在未告知或未獲得同意的情形下,擅自采集人臉識別信息,并且,由于技術使用者事前未能確認相關設備和信息系統的安全性,在面對外部網絡攻擊或者內部員工私自攜帶人臉識別數據時未能采取及時有效措施,導致所采集的人臉識別信息外泄。第三,科技倫理風險。隨著數據分析處理技術的強化,人臉識別技術識別的對象不單單是面部信息本身,還包括面部的動態信息,即根據面部的表情變化判斷個人的情緒變化,部分企業甚至將該技術用于辦公場所,監督員工是否認真工作。這些應用模式除了侵害個人隱私之外,顯然也極易引發人類成為機器監管對象等主客體倒置的科技倫理問題。至于相應的治理策略,盡管部分學者強調通過算法治理規則解決潛在的科技倫理風險,但問題在于,算法安全問題并非人臉識別技術濫用的特殊問題。人臉識別技術的核心之一是算法模型,相應地,人臉識別技術應用的安全問題在某種程度上也可以歸結為算法安全,因為不可靠的算法模型同樣可能引發數據泄漏、算法不公等問題。算法安全導致數據泄漏、算法不公等問題普遍存在于所有使用算法的信息系統,故而與其說其是人臉識別技術應用的監管重心之一,倒不如說其是算法安全治理需要解決的現實問題。此外,學者們還提出了“技術優化路徑”“風險探析路徑”“法律規制路徑”“應用場景分類治理路徑”等主張,但本質上還是在“具體問題具體分析”層面提出方向性治理建議,而非具體的解決方案。

           。ǘ┤四樧R別技術應用監管的研究疏漏:合法性邊界

            時至今日,我國個人信息保護、數據安全、算法治理等領域相關的法律法規相繼出臺,這些規定均能適用于人臉識別技術應用領域,解決個人信息保護、算法公正、技術安全風險等問題,國內相關研究討論已經相當充分。如此看來,似乎并沒有再行討論人臉識別技術監管的必要。然而,現階段的人臉識別技術監管重心早已不是個人信息保護等問題,而是進入到該技術應用實踐的合法性監管領域。

            《征求意見稿》和《關于審理使用人臉識別技術處理個人信息相關民事案件適用法律若干問題的規定》(以下簡稱“司法解釋”)在內容上似乎存在重疊。但從立法目的和立法背景來看,司法解釋發布于《個人信息保護法》之前,主要是為了填補人臉識別技術應用監管的規則空白以及推進《民法典》等法律的適用。而作為人臉識別信息保護規則的《征求意見稿》,則是在《個人信息保護法》的基礎上對人臉識別技術應用具體要求的細化,更確切地說,征求意見稿的目的是為實踐中如何判斷人臉識別技術應用的合法性邊界提供依據。這種立法趨勢的變化在學理層面則表現為研究議題從風險預防、風險治理到具體應用監管的轉變。風險預防、風險治理理論是為了解決應當以何種方式監管人臉識別技術應用,不僅包括立法,還包括科技倫理審查、公民意識提升、行業自律等機制。而具體應用監管則是在保障技術安全的基礎上,兼顧市場的技術應用需求!耙坏肚惺健钡匾笃髽I優先采用具有相同技術效果的身份驗證技術可能會實質性限縮人臉識別技術的可用范圍,但若允許企業自行選擇身份驗證技術,則難以排除技術濫用的風險。因此,在學理層面,將問題總結為“人臉識別技術應用的必要性如何確定”并不準確,應當總結為“人臉識別技術應用方式能否確保利益權衡”。因為狹義的技術應用必要性認定往往局限于數據處理目的與相關服務之間的關聯程度,且其結論也會導向人臉識別信息收集行為是否必要,而非人臉識別技術應用是否必要。相對地,“利益權衡”問題雖然屬于抽象層面的價值判斷問題,但是“利益權衡”的一般范式和具體標準直接關系到人臉識別技術應用的合法性認定。在人臉識別技術尚未出現時,公共場所的公共安全保障程度并沒有發生顯著變化,如果嚴格按照必要性要求,出于公共安全目的的技術應用似乎也不具備“必要性”,也即必要程度并未超過個人權益,那么,立法層面的“公共安全”之必要性則需要通過利益權衡方式予以解釋,因為公共場所的安全采用普通的視頻監控即可達到公共安全保障的目的,涉及不特定多數人,雖然普通的視頻監控同樣能夠解決安全問題,但是從安全效果和安全成本來看,配置人臉識別功能,能夠在安全事件發生之初最大程度控制損害程度。尤其是在發生犯罪活動后,公安機關通過人臉識別技術能夠盡早識別犯罪嫌疑人,既能避免犯罪活動的再次發生,也與個體性的安全法益相匹配?偨Y而言,現階段的人臉識別技術監管更需要在學理層面提供相應的利益權衡范式,以便在實踐活動中具體判斷技術應用的必要性和合法性。

            三、人臉識別技術應用的利益權衡理論

           。ㄒ唬┤四樧R別技術應用的利益平衡理論

            人臉識別技術應用的利益平衡問題早有學者關注,但大多還是以“安全與效率兼顧”“成本效益分析”等價值評價為主,鮮有涉及體系性利益權衡理論的分析,且對應的結論多是強調應用方式應當符合公開、透明、民主參與等基本原則。在具體分析利益平衡問題上,現有研究主要進行有限類別的法律價值比較:一是公共安全保障與個人信息保護的利益比較;二是人臉識別技術應用的成本效益分析;三是企業與用戶的利益沖突與平衡。(1)公共安全保障與個人信息保護的利益平衡討論常見于公共場所人臉識別技術應用的必要性分析,強調應當兼顧公共安全利益與個人信息利益。一方面,基于風險社會理論,人臉識別技術應用是為了最大程度地預防新型社會風險,具有顯著的公共利益導向;另一方面,公共場所應用人臉識別技術是以公權力依法行使為前提,公權力不能以公共安全為由侵蝕個人信息權益。有學者就此提出了人臉識別信息的共享性和有序性特征,前者是指為了維護公共安全應當允許應用人臉識別技術,后者則是指人臉識別技術在公共場所大規模應用應當受到限制,這也是公共安全與人臉識別信息保護之間利益平衡的一致性要素。這種利益平衡分析并未脫離公共利益與個體利益的討論范疇,亦是信息安全與信息使用平衡問題的另一種表述形式,其引申而出的結論也必然無法脫離多元協同治理論的范疇。這種分析模式固然可以解釋人臉識別技術應用的治理框架應當如何設計,但還是側重風險預防與風險治理,而不是在執法或司法實踐中如何判斷人臉識別技術應用的合法性。(2)收益與風險的比較是為了在法律層面確定數據利用與數據安全何者優先的問題。如果“收益>風險”,則數據利用優先;如果“收益≤風險”,則數據安全優先。這里的“收益”主要是指經濟價值,即人臉識別技術本身的市場經濟價值早已得到肯定,無論是在輔助企業進行內部管理或服務優化,還是支撐社會治安,均展現出廣闊的市場應用前景。同時,該項技術在身份核驗領域的效率是人工核驗、證件核驗等傳統方式無法相提并論的。但由于技術應用方式的不同,其潛在的風險程度和風險類型也不同,且任何技術均存在相應的技術風險,故而收益與風險的比較成為判斷技術應用合法性的關鍵環節。也有學者提出“效益平衡原則”,即在人臉識別技術應用之前,除了需要評估技術安全風險之外,還需要進行成本和效益的核算,量化比較技術應用可能造成的負面損失與通過技術應用能夠獲得的經濟利潤。這類利益平衡觀點雖是主張量化評估“成本—收益”的核算,但結論還是側重應用結果正面效益與負面效益的匹配性,將量化評估作為企業業務合規的內容之一。(3)至于常見的用戶與企業利益平衡比較與第一種利益平衡模式較為相似,只不過比較的對象從“公私主體”轉變為私法層面的“用戶與企業”。在該利益平衡模式下,與個人信息權益沖突的是企業的商業利益。雖然用戶在刷臉時,享受了信息服務的便捷性和高效性,但是人臉識別信息一旦被泄露或被濫用,大概率會導致相關的個人信息泄露。因為常見的個人信息泄露并非一次性泄露所有的信息,而是某個網絡節點的部分個人信息泄露,進而導致其他網絡節點的相關個人信息泄露,最常見的形式便是“撞庫”。在價值平衡層面,企業的數據使用需求與個人信息保護需求發生沖突,常見的利益平衡理論便是“兼顧安全與使用”,安全是使用的前提,使用與安全并不存在根本性的沖突對立。人臉識別技術應用的合法性表現在,在保障人臉識別信息依法收集和處理的前提下,可最大范圍地實現企業業務模式的優化。

           。ǘ┤四樧R別技術應用利益平衡的理論不足及其成因

            前述三類利益平衡論均存在不同程度的理論局限,主要表現為利益類型與利益標準的不匹配。其一,在公共安全保障與個人信息保護的利益平衡中,兩種利益未能置于同一時空下予以比較,既沒有提及處于室內的公共場所與室外的公共場所之間的差異性,也沒有比較其他公共安全保障措施的實施效果。其二,在收益與風險的利益平衡中,經濟學意義上的成本效益分析模式與法律層面的利益權衡分析并不完全相同。前者以效率優化為目的,后者則是以判斷利益架構是否正當為目的。并且,抽象價值層面的收益與風險均存在未來發生的不確定性特征,將兩個不確定的利益概念進行比較,其平衡方案顯然難以確定。其三,在用戶與企業的利益平衡分析中,忽視了人臉識別技術應用的社會效應,僅僅注重技術使用者與技術服務接受者之間的權益平衡,這種利益平衡實際上是具體法律關系的權利義務分析,并沒有涉及技術應用行為的合法性標準。

            這些利益平衡分析多采用了“二元利益比較”模式,主張多元協同治理。這種“二元”對“多元”的論證過程忽視了對人臉識別技術應用法律關系的考察,忽視了利益平衡的起點應當是以整體利益結構為基礎,然后分析利益沖突的關鍵節點并判斷何種利益應當優先得到保護。換言之,此時的“利益平衡”表述為“利益權衡”更為恰當,因為不可能存在一種方案滿足所有的利益訴求的情形,所以需要通過權衡利弊的方式實現整體利益結構的最大化!袄嫫胶狻笔且环N最終的利益分配方案,其目的是為了使得各方主體的利益訴求都能得到一定程度的滿足;而“利益權衡”則是一種動態的利益分配調整過程,其目的是為了使得整體利益狀態符合社會治理目標。最常被提及的一種利益是“公共利益”,但該項利益自身固有的模糊性、動態性等特征,使得大部分利益平衡方案始終停留于基本原則或法律價值層面的粗略比較,與之相對應的個體利益(如個人信息權益等)則具有具體性、特殊性。對于“公共利益”內涵的詮釋,難以達成共通性的解釋結論,但這并不等于僅能在抽象層面探討公共利益與個體利益孰者優先的問題。在具體應用場景中,公共利益的平衡問題應當轉化為基本原則的適用問題,而非例外情形予以討論。

            利益權衡的基本邏輯不應當是“為了A利益而犧牲B利益”,而是“在保障A利益的前提下怎么協調B利益”。諸如公序良俗、誠實信用等基本原則具有典型的“公共利益”屬性,但是在判斷特定技術應用的合法性時,這些基本原則應為所有技術應用普遍遵循,而不是作為例外情形免責的依據。例如,出于公共安全目的采用人臉識別技術時,其內在的利益權衡過程可以總結為:首先,人臉識別技術應用方式是否遵守了公序良俗等基本原則;其次,如果遵守了,那么按照該原則,其中的核心利益是個人利益還是企業利益;最后,因為出于公共安全目的采集人臉識別信息本質上還是為了個人安全,無論是個人信息權益,還是個人安全權益,均屬于個人利益,因而利益權衡的方式應當在保障人臉識別信息安全風險不變的情況下,為了確保公共場所設置的人臉識別系統和裝置不損害個人信息安全狀態,進而衍生出“顯著標識提醒義務”“敏感個人信息嚴格保護義務”等義務內容,用以沖抵可能增加的技術濫用風險。

           。ㄈ├鏅嗪饫碚摰囊肱c再審視

            利益權衡與行政法領域的比例原則較為相似,后者主要是指行政機關在實施具體行政行為時應確保行政目標實現和行政相對人權益保護;比例原則不僅適用于行政法領域,且可適用于民法、刑法領域。當然,比例原則也存在自身的局限性,如在復雜的實踐場景中,作為行政相對人的利益群體不同、可供選擇的行政手段不同等往往可能導致該原則在具體適用過程中利益權衡標準不統一。并且,在必要性審查環節,“最小損害”的判斷模式容易陷入純粹的數量比較,進而引發濫訴問題。盡管存在這些局限性,但比例原則的確體現了利益權衡的預設前提——整體性利益框架。

            需要注意的是,利益、法益與權益三個詞常被混同替換使用,但嚴格來說,三者之間仍然具有一定的差異性。相較于其余兩個概念,“利益”一詞強調的是一種人與人之間就某種特定需求所形成的利害關系,在具體的法律關系中,利益則表現為相應的權益。而學界關于“法益”概念的理解存在分歧,刑法學界的主流觀點則將法益概念與權益概念混同,其根源是受到日本學者對法益概念的推崇。對于利益權衡所涉及的“利益”,有學者將之劃分為當事人的具體利益、群體利益、制度利益和社會公共利益,分別對應“雙方當事人之間的各種利益”“案件判決結果對類似群體的利益”“法律制度中的利益”和“涉及經濟秩序和社會公德的利益”。這種利益架構的優點在于將制度利益、社會公共利益設置為參照物,在制度利益無法反映社會公共利益時,相應的制度利益就應當被突破,形成新型的利益權衡方案。以“人臉識別第一案”為例,假設杭州動物園采用的人臉識別技術不會造成個人信息泄露,且不采用人臉識別技術可能導致公共安全無法保障,那么動物園使用刷臉設備就是合法的、正當的。此時選擇“保護動物園”能夠實現利益的最大化,選擇“不保護動物園”則會導致諸多其他利益的失衡。然而,在司法實踐中,動物園既無法確保人臉識別技術的安全性足以控制個人信息泄漏風險,也無法確保不采用人臉識別技術就不能保障相同水平的公共安全保障目標,法院也不出意外地沒有認定動物園采用刷臉設備的合法性。由于“社會公共利益”的界定模式過于龐雜,且具體利益、群體利益、制度利益以及社會公共利益的實際主體具有重疊性,存在“主體標準與價值位序標準混同”的問題,因此,有必要重新對人臉識別技術應用領域的利益層次架構進行調整,從利益主體、利益保護目標明確權衡的統一標準。

            四、人臉識別技術應用的合法性邊界認定:以利益權衡理論為基礎

           。ㄒ唬┤脚袛

            在人臉識別技術應用的利益權衡中,公私利益二元平衡模式忽視了人臉識別技術行業的產業利益與人臉識別技術使用者的利益。在具體的法律關系中,相應的法律主體也涉及研發者、使用者、用戶與社會公眾等多方主體。故而在利益權衡過程中,不能僅僅以公共利益與個體利益劃分方式進行區隔,否則只會陷入一般性的法律價值位階比較的理論困局,且無法關注到微觀層面的利益差別。

            第一步,利益權衡的前提條件預設。不同的應用場景往往意味著不同的技術應用需求,其所對應的合法性判斷標準也會有所不同。通常而言,人臉識別技術的應用目的包括“安全保障”和“經營性活動”兩種,前者是指通過該項技術實現高效的身份核驗和可疑行為監控,后者則是指通過該項技術實現業務模式優化、內部管理效率提升等目的。在“安全保障”層面,首先需要判斷的要素是人臉識別技術能夠達到什么程度的安全保障水平、潛在的技術安全風險以及是否存在多個可替代的技術方案。這是因為一旦人臉識別技術存在顯著的安全風險或諸多可以替代的技術方案,那么就沒有利益權衡的需要。僅僅在社會公共利益層面,采用一種技術方案提升安全狀態,然后又減損其他領域的更多的安全利益,只會使社會公共利益的整體性減損。在“經營性活動”層面,首先需要判斷的要素則是技術應用可能涉及自然人的何種利益。不同于前一種情形,“經營性活動”的技術應用通常屬于人臉識別技術的后續利用,如工作狀態監控、身體狀態健康監控等情形,涉及除個人信息之外的利益權衡問題。

            第二步,基于預設條件的不同主體利益權衡。將利益分為個體利益、產業利益、使用者利益以及社會公共利益,并與先前的預設條件結合,具體判斷承認人臉識別技術應用合法性后對這些利益的影響。如假設在公園進出口采用人臉識別技術的目的是“公共安全保障”,且公園管理方的管理能力與管理資源有限,人工審核進出可能會增加游客進出時間,同時人臉識別技術的產品提供方能夠確保刷臉設備符合技術安全標準,此時,如果認可人臉識別技術具備合法性,雖然進出公園的游客個人利益可能受到一定限度的減損,但是使用者(公園管理方)的利益、社會公共利益(如公共安全等)均能夠得到保護。相應地,人工智能應用產業的相關商業利益也能得到法律認可,因為這類技術應用模式并不會造成利益失衡的不利結果。進出公園的游客群體雖然需要提交人臉識別信息,但是可以享受更為便捷的進出服務,且園內社會治安秩序也能夠得到保障。

            第三步,利益權衡的判斷不僅是數量層面的權衡,還包括內容層面的權衡。前述第一步判斷是為了限縮有必要進行利益權衡的場景范圍,第二步則是為了在數量層面判斷人臉識別技術應用是否可能造成“多數人”的利益減損。為了避免第二步可能導致的非理性利益數量平衡偏差,此時就需要將第二步的利益平衡結果與包含了社會治理目的的制度利益進行比較。在《征求意見稿》中,制度利益表現為第1條所提及的立法目的,即“規范人臉識別技術應用,保護個人信息權益及其他人身和財產權益,維護社會秩序和公共安全”。在具體的技術應用場景中,這種制度利益可以解釋為“技術應用不應當違背禁止性規定,保護個體利益的同時,也能夠實現社會公共利益的保護”。結合第二步的利益影響結果,雖然游客的個體利益受到部分減損,但這種減損僅僅在發生實質性的安全風險事件時才會存在。因此,可以認定該類人臉識別技術應用的合法性與制度利益具有一致性。

           。ǘ├鏅嗪饫碚摰摹疤囟ǖ哪康摹焙汀俺浞值谋匾浴敝忉

            《征求意見稿》第4條提及的“特定的目的”和“充分的必要性”之要件可以視為利益權衡的直接法律依據。(1)從文義解釋來說,所謂的“特定的目的”通常對應的是目的明確性要求,這里的“特定”不僅是指個人信息處理者應當明確告知自然人收集人臉識別信息的目的,還強調告知的目的內容應當明確具體。在利益權衡過程中,這也是第一步所需要明確的前提預設條件,因為模糊不清的處理目的難以明確人臉識別技術應用對個體利益、產業利益、使用者利益、社會公共利益的影響。如果僅僅以公共安全、身份核驗等籠統性表述作為處理目的,不僅不能完成一般性應用模式的合法性判斷,而且會構成利益權衡第三步所涉及的個人利益減損問題。因為此時的處理目的并不足以支撐個人對其人臉識別信息處理方式作出充分自主的決定,減損的是個人的知情權,因此難以證成相關技術應用具有合法性。(2)所謂的“充分的必要性”通常對應的是最小必要原則。在特定場景下,人臉識別技術的應用屬于“沒有可替代的其他技術方案”,即“不得不采用”之情形。一方面,“充分的必要性”與“特定的目的”相關聯。為了實現特定的目的,只有采用人臉識別技術,即“目的和手段的一致性”符合“充分的必要性”之要求。另一方面,“充分的必要性”也是補充利益權衡的另一個環節。合法性與必要性屬于兩個不同的判斷環節。在完成利益權衡之后,如果不存在“充分的必要性”,亦即在利益權衡的第三步中,對個人利益的影響能夠控制到更低程度時,則需要對可替代的技術方案再進行一次利益權衡。

            假設刷卡進出能夠發揮與人臉識別技術相同的安全保障效果,在進行相同的應用目的確認的第一步權衡后,第二步的利益平衡則轉變為采用刷卡技術方案對個體利益、產業利益、使用者利益以及社會公共利益的影響。此時,刷卡進出技術方案具有合法性,由于此時所需要的信息從原本的敏感個人信息轉變為一般個人信息,個體利益、使用者利益以及社會公共利益都能夠得到保護。因為進出公園所需要的一般個人信息是進出公園所必需,并不等于個體利益無法得到保護。而使用者(公園管理方)可以采取成本更低廉的技術方案實現相同的技術效果,其實際利益反而能得到更大保護。刷卡進出同樣能夠保證園區的公共安全和進出秩序,社會公共利益的保護亦能得到落實。在第三步中,制度利益則轉變為《個人信息保護法》第1條提及的“保護個人信息權益,規范個人信息處理活動,促進個人信息合理利用”。前述的利益權衡以更低的泄漏風險、更少的敏感個人信息保護了自然人的個人信息權益,且刷卡所需錄入的個人信息也符合“促進個人信息合理利用”這一制度利益內容,故而刷卡技術應用具有合法性,而且無直接涉及減損個體權益的風險,也滿足了必要性要求,故公園管理方更應當采用刷卡進出的方式。

           。ㄈ├鏅嗪饫碚摰闹贫然绞剑簜人信息保護影響評估

            學理層面的利益權衡方式表現為《個人信息保護法》與征求意見稿中所提及的個人信息保護影響評估機制。具體評估事項包括“處理人臉信息是否具有特定的目的和充分的必要性”“采取的保護措施是否合法有效并與風險程度相適應”“可能對個人權益帶來的損害和影響,以及降低不利影響的措施是否有效”等內容。所謂的個人信息保護影響評估本質上是對采用新興信息技術可能產生的不利影響進行事前評估和衡量,以此督促個人信息處理者選擇更為穩妥的技術應用方案。誠然,個人信息保護評估機制的創設目的并不是為了實現利益權衡,而是以事前的自評估或他評估方式實現自我管理、自我約束的治理效果,并不涉及企業對自己所處的整體性利益層次結構進行權衡,且其制度功能多被理解為“檢驗個人信息處理是否合規、降低個人信息安全風險、減輕或免除個人信息處理責任”。但是,利益權衡范式的實際功能在于提供一種技術應用合法性的評估路徑,避免諸如“公共安全”“公共利益”“公共場所”等較為籠統的概念成為技術應用者、監管機構等判斷和預測人臉識別技術應用法律效果的障礙,過度限制或放寬人臉識別技術的應用范圍。

            現行立法并未對個人信息保護影響的評估流程、標準以及結果作出明確規定,但《信息安全技術個人信息安全影響評估指南(GB/T 39335-2020)》則將評估實施流程明確為評估必要性分析、評估準備工作、數據映射分析、風險源識別、個人權益影響分析、安全風險綜合分析、評估報告、風險處置和持續改進、制定報告發布策略等環節。其中,個人權益影響分析則涉及個人信息敏感程度分析、個人信息處理活動特點分析、個人信息處理活動問題分析以及影響程度四個部分。在人臉識別技術應用領域,評估環節則表現為:首先,個體利益是自然人對其敏感個人信息的特殊權益;其次,人臉識別信息處理活動如果以“經營性活動”為使用目的,那么該類個人信息處理活動可能涉及差別性待遇等問題;再次,判斷采用的人臉識別技術是否存在顯著的安全漏洞風險以及實際的風險級別;最后,結合前述結果判斷流程,綜合分析可能對個人權益產生的負面影響及其影響程度。與利益權衡范式相比,個人信息保護影響評估將“利益”轉變為“風險”進行衡量和評估,合法性的技術應用除了需要滿足“風險可控”“風險可接受”等標準之外,還需要滿足“增加的個人權益負面影響風險”小于“降低的其他安全風險”。

            現行法律規范未明確個人信息保護影響評估所采用的評估標準,有學者主張相關評估標準可通過“安全事件可能性分析”“個人權益影響分析”和“綜合分析”三個層面予以明確,或采用《信息安全技術個人信息安全影響評估指南(GB/T 39335-2020)》所列舉的嚴重、高、中、低四個等級,或者企業自行設置的風險級別進行細化。從利益權衡范式來看,與利益相對應的“風險”評估過程并不是一個精準量化過程,且《征求意見稿》第15條所提及的評估事項多是以“程度”“所必需”等為限定詞,個人信息保護影響評估并沒有強制設置具體的評估標準,而是由評估主體自行選擇參照物進行風險程度的比對,由此確定風險級別。個人信息保護影響評估的目的在于個人信息處理者在技術應用前評估技術手段與技術目標之間的必要性以及合法性,其與數據安全風險評估不同的是,該評估機制更側重對個體利益影響的評估,而不是單純的安全風險量化評估。相應地,其評估邏輯可以理解為權衡該技術應用對個體利益的影響程度以及這種影響程度是否與合法狀態下的利益權衡架構有區別,倘若存在顯著區別,則可以認定其技術應用將對個人權益產生較大負面影響。

            五、利益權衡理論對人臉識別應用場景的限縮功能:以公共場所為例

           。ㄒ唬⿵囊话愕骄唧w:應用場景范圍的限縮邏輯

            既有學說普遍認為,非基于公共安全或個人財產安全目的的人臉識別技術應用需要以自然人的明確同意為前提,因為信息技術的便捷性不能作為自然人有義務接受該類信息技術服務的正當性基礎,考慮到存在特殊人群的“數字鴻溝”,刷臉認證往往也不是最佳的技術優化方案。因此,在人臉識別技術應用合法性討論中,最核心的問題是“公共場所”內安裝人臉識別設備和信息系統是否合法,且這種安裝行為是否以公共安全保障為前提。在此基礎上進而延伸出兩個子問題:其一,“公共場所”的范圍如何劃定,F行立法常將“公共場所”與“經營場所”并列,并且大多也采取列舉的方式將車站、碼頭、機場、醫院、商場、公園、影劇院、展覽會、運動場、銀行、學校、游泳館、車站、兒童游樂場、學生集體宿舍、港口等作為“公共場所”。這些公共場所彼此之間的開放程度、活動屬性存在較大差異,顯然無法一并作為人臉識別技術應用的合法例外情形。其二,從“公共安全”這一目的出發可否推導出技術應用存在法律意義上的“必要性”。誠然,對于部分自然人而言,接受公共場所的人像采集并不會讓自己發生“實際的經濟損失”,且能夠有助于公共場所的安全保障,這種“必要性”屬于自然人能夠接受的范圍。但是這種“必要性”程度可能導致公權力擴張的偏差結論,即在任何公共場所都可以免責性地安裝人臉識別設備和信息系統。由此可見,即便是基于公共安全目的進行人臉識別,也不完全屬于《征求意見稿》第10條規定的情形,故而有必要首先基于人臉識別技術應用場景的法律性質對公共安全進行層次性限縮。在前述的三步利益權衡范式中,第一步的“前提條件預設”恰是為了區分不同目的、不同場景中人臉識別技術應用的正當性基礎,這是因為目的、場景的不同會導致相應的整體性利益架構不同,也意味著會形成不同的利益權衡方案。

            其一,應用場景的公共性與私人性影響人臉識別技術應用的合法性,私人性場所通常具有封閉性、人員有限性、活動內容私人社交性等特征,此時是否接受人臉圖像采集和識別完全屬于意思自治的范疇。需要澄清的是,鑒于《個人信息保護法》規定了有關個人信息處理的“知情同意規則”,學者們習慣性地將“同意”理解為公法領域個人信息處理者的強制性義務,人臉識別信息收集也應當以“同意”為前提。但實際上,即便沒有《個人信息保護法》的相關規定,從民法視角來看,個人信息處理者與自然人之間的信息服務合同關系也決定了人臉識別信息的處理活動需要以合意為基礎,亦即自然人同意!秱人信息保護法》之所以對相關內容作出細致規定,除了為確保條款內容的體系性完整之外,還是為了通過公法的介入化解個人信息處理者與自然人之間的實際地位不平等問題,避免自然人因信息不對稱等問題做出錯誤的意思表示。這種私法性特征所表現的整體性利益架構僅以自然人和個人信息處理者雙方的個體利益為限,其應用場景大多是封閉式的私人空間,并不會涉及產業利益等,故而沒有必要進行利益權衡范式中的第二步利益權衡,僅以合同雙方之間的權利義務平衡即可。換言之,有必要進行利益權衡的應用場景主要還應以“公共場所”為限。

            其二,即便在公共場所設置人臉識別設備和信息系統也不當然具有正當性基礎。舉例來說,商場出于挖掘潛在客戶、識別老客戶等經營性目的而采用人臉識別技術,即便其兼具保障商場公共安全的目的,也無法使其合法化。因為不僅其技術應用方式與技術應用目的不匹配,而且其技術應用效果與權益損害風險也不匹配。在實踐中,絕大部分商場所采用的人臉識別設備與信息系統往往是以外包服務的形式交由第三方技術公司處理,人臉識別數據的安全性難以得到保障。此外,倘若商場僅以公共安全的目的采用人臉識別技術,雖然在利益權衡的第二步中能夠得出“個體利益存在減損風險,使用者利益、產業利益和社會公共利益得到保護”的理想結論,但這種結論無法當然滿足利益權衡第三步所提及的“制度利益”。因為此時的“制度利益”內容之一是保障個人信息安全,一旦商場所采用的人臉識別技術不具有可靠性或超目的處理人臉識別信息,商場顧客的個人信息顯然面臨極大的安全風險,也就不符合理想化的利益權衡效果。因此,還有必要在應用目的層面對“公共場所”范圍進行限縮。執法機構采用人臉識別技術雖然也是以公共安全為目的,但由于其公共職能屬性,相應的整體性利益框架只有個體利益和社會公共利益兩類,這兩類利益的權衡重心則轉至第三步,即執法機構采用人臉識別技術是否具有實現國家安全、公共安全以及公民安全的必要性,采用比例原則進行判斷即可。

           。ǘ⿵木唧w到特定:公共場所概念范圍的限縮依據

            在對人臉識別技術應用的“公共場所”進行范圍限縮之前,有必要對“公共場所”的概念予以明確解釋。征求意見稿以及人臉識別技術應用相關的法律法規,均提及了公共場所應用的特殊情形,但是對于什么是“公共場所”以及其包含的具體類型并沒有明確規定,而且公共場所與經營場所等概念并列出現,導致公共場所的實踐認定標準模糊。審視現行立法體系,除了《民法典》第1198條提及經營場所、公共場所的類型,有關“公共場所”的概念界定或范圍列舉常見于刑法、行政法等公法領域,且多是以具體場所類型的方式予以列舉。而在司法實踐中,法官一般認為公共場所具有“公共秩序”和“人口密集”兩種屬性。如在“張某訴上海地鐵某運營有限公司、淮安市某保安服務公司健康權糾紛案”中,法院認為“公共場所合理安全保障規則”具有公共秩序屬性;在“王某妨害傳染病防治案”中,法院則將市場、飯店、藥店、政務大廳等均認定為“公共場所”。學界主流觀點認為公共場所應當滿足“公眾可以自由出入”和“供社會公眾從事社會生活”兩個要件,既與公共利益、社會公德相關,也允許公權力介入。有學者將民事立法過程中的“公共場所”爭議總結為兩類。一是原《侵權責任法》第37條的“公共場所”實際是指“向社會公眾提供服務的經營場所”,并非真正意義上的公共場所,故而賓館、商場、銀行、飯店等不屬于民法意義上“公共場所”;二是公共場所應當是指公共服務性場所,包括機場、碼頭、公園、餐廳等。不過,也有學者認為公共場所的概念界定難以統一,但是從特征方面卻可以總結為具有開放性、公共性、多元性和不確定性;對于存在爭議的特定場所,則可以根據開放程度予以解釋,如公園、廣場屬于完全開放的公共場所,學校屬于半開放公共場所,賓館、民宿屬于封閉公共場所。公共場所還可以分為“完全性的公共空間”和“半公共空間”。除此之外,從私密性的角度反面解釋公共場所概念也較為常見。因為公共場所對應的概念是私密場所,故而公共場所也被部分學者解釋為“公眾可以任意逗留、集會、游覽或利用的場所”,具有開放、共享、自由的特性。由此可見,對于公共場所的概念界定,實際上聚焦于開放性與公眾活動性。為此也有學者將“公眾場所”界定的概念學說總結為“開放說”與“用途說”,前者強調公共場所允許社會公眾隨意進出;后者則強調公共場所應當用于開展公眾活動。

            客觀而言,公共場所的核心特征在于其公共性,既包括對不特定人開放,也包括不特定人能夠在該場所從事不特定的活動。這里的不特定人并不僅僅局限于主體身份的不特定性,還指向主體人數的不特定性,因為在實踐層面,公共場所應允許社會公眾進出和從事相關活動。雖然并不以特定人數為量化標準,但能夠進出的人群應當符合一般認知的“多數人”。并且,公共場所也不以是否有償或有條件進出作為核心認定標準,諸如收費進出的游泳館、僅限師生進出的學校校園等場所雖然進出存在條件,但不能否認其具有一定程度的社會開放性。在認定公共場所的過程中,最常遇到的問題便是特定場所僅限多數的特定個人或特定人群進出,尤其是絕大多數經營場所均具有這個特點。需要強調的是,公共場所的認定標準通常是多元化的,其核心要素應當是與私密性相對應,故而需要判斷場所內的人員之間是否存在社會交往互動。倘若彼此之間均屬于親朋好友,特定場所的社會交往活動也是以私密信息為主,那么顯然就不屬于公共場所范疇。

           。ㄈ⿵睦碚摰綄嵺`:公共場所范圍的限縮

            第一,具體用途層面的范圍限縮。在公共場所設置人臉識別技術需要根據具體用途和設置場地予以進一步明確:在進出口安裝刷臉門禁設備和在公共場所內安裝人臉識別設備其必要性并不等同。一方面,在進出口安裝刷臉門禁設備時,其目的是高效率完成身份核驗,避免可疑人員進出公共場所造成混亂,此時的人臉識別技術應用顯然需要限于人口流動量較大的公共場所及其特定區域,這與實踐中賓館、酒店等公共場所要求強制實名身份登記具有相似性。另一方面,在特定場所內部安裝人臉識別設備時,由于涉及對不特定個人的人臉識別信息采集、跟蹤和處理,對個人權益的影響更為顯著,故而需要明確設置的區域、方式以及技術是否會造成個體利益的實際減損,亦即相應的利益權衡結果是否與制度利益相符合。

            第二,具體環境層面的范圍限縮!秱人信息保護法》所強調的制度利益是“非必要不收集人臉識別信息”和“最大程度保護人臉識別信息”,故而在公共場所設置人臉識別設備同樣需要根據設置場所和位置評估其合法性。結合利益權衡所涉及的個體利益、產業利益、使用者利益以及社會公共利益來看,公共場所設置人臉識別設備應當滿足三個條件:一是公共場所存在預防公共安全風險的必要。若無公共安全目的,雖然使用者利益和產業利益能得到保護,但個體利益和社會公共利益卻未能保護,所以大范圍采集人臉識別信息和監控社會公眾顯然侵害了個人隱私、個人信息權益以及社會公眾的人格尊嚴。二是公共場所具有人口密集的特點。因為在人流量較少的區域公共安全事件發生概率較低,且即使發生公共安全事件,當事人也能夠在第一時間盡可能躲避危險,所以并沒有進行人臉識別的必要性。三是“公共場所”不涉及個人活動的特定區域。雖然酒店、賓館等屬于公共場所,但其內的客房顯然屬于私密的空間,因此不應設置人臉識別設備。

            第三,公共場所活動層面的范圍限縮。游泳館和車站均屬于公共場所,但是在這兩個場所采用人臉識別技術的合法性判斷卻有所不同:在游泳館內,基于公共安全目的安裝人臉識別設備和系統,僅在前提預設條件層面就無法滿足合法性要求。因為游泳館所發生的公共安全事件大多與溺水相關,設置安全員等傳統措施完全能夠作為人臉識別技術的替代方案,傳統的視頻監控錄像等技術方案能夠發揮相同作用,專門采集人臉識別信息沒有必要。不過,如果選擇設置刷臉進出門禁時,其前提應當是除了刷臉進出技術方案之外,不存在相似效果的替代方案。如車站的人流量顯著高于游泳館,無論是車站進出口還是車站內部設置人臉識別設備和系統,都能更好地保障公共安全。

            第四,場所安全性層面的范圍限縮。盡管《征求意見稿》第14條禁止物業公司將人臉識別技術作為唯一的身份驗證方式,但并沒有否定物業公司可以采用刷臉進出的模式,只不過從利益權衡的角度來看,刷臉進出需要滿足“技術安全可靠”“應用目的僅以小區安全為限”“小區所存在的安全風險確實需要通過刷臉技術予以有效控制”等目的。這里需要強調的是,倘若小區近期存在盜竊案頻發且采用的身份驗證方式難以有效排除可疑人員時,在進出口采用人臉識別技術則符合相應的合法性要求。

            六、結語

            我國人臉識別技術應用治理已經進入到全新階段,細化和判斷人臉識別技術應用的合法性成為執法和司法的關鍵。一概否定經營性場所采用人臉識別技術提升業務能力的合法性,或者一概承認公共場所采用人臉識別技術保障公共安全的合法性,均不可取。不同于大數據、人工智能、區塊鏈等信息技術,人臉識別技術作為應用導向的新興技術,決定了其治理邏輯應當以具體場景作為合法性判斷的前提條件。根據人臉識別技術應用的安全性、必要性和可靠性進行利益權衡時,不能單單進行法律價值位階的分析,而更應當關注技術應用對整個利益的影響,并以制度利益作為參照物,判斷人臉識別技術應用的合法性。


          責任編輯:譚則章
          本站系非盈利性學術網站,所有文章均為學術研究用途,如有任何權利問題請與我們聯系。
          ^

            <nobr id="hlbhj"></nobr>
            <em id="hlbhj"></em>

            <form id="hlbhj"><form id="hlbhj"><sub id="hlbhj"></sub></form></form>

              <ins id="hlbhj"><sub id="hlbhj"><p id="hlbhj"></p></sub></ins>

                  操逼视屏