<nobr id="hlbhj"></nobr>
    <em id="hlbhj"></em>

    <form id="hlbhj"><form id="hlbhj"><sub id="hlbhj"></sub></form></form>

      <ins id="hlbhj"><sub id="hlbhj"><p id="hlbhj"></p></sub></ins>

          生成式人工智能應用的倫理立場與治理之道:以ChatGPT為例
          發布日期:2024-03-18 來源:華東政法大學學報


          □ 馮子軒 (西南政法大學教授)

          倫理問題關乎人工智能未來技術走向、規則制定、接受程度等,是生成式人工智能發展過程中需要解決的首要問題。以ChatGPT為代表的生成式人工智能擁有強大的語言理解和文本生成能力,但其僅是吸納虛擬世界中的數字代碼集成,與客觀世界交互仍有遙遠距離。應當警惕其撼動人類主體地位的倫理困境,明確生成式人工智能應用中的人本主義立場,建構生成式人工智能治理的倫理規則,從人工智能倫理治理組織機制、人工智能倫理規范機制入手,為人機共存社會尋求妥善的倫理解決方案。

          當前,國際組織層面主要以倫理倡導性規范為主,旨在為人工智能倫理凝聚共識,宣示意義較強。隨著引領生成式人工智能技術實現突破后,美國對其倫理問題的重視程度明顯超越以往,多份文件提出確保人工智能的合倫理性、可信賴性以及對公民個人信息、隱私、公平、自由等基本權利的保障,并在聯邦政策與法律框架制定中有所表達,正在形成一種倡導與監管并行的倫理治理模式。英國在生成式人工智能監管中注重維護市場秩序、保障相關消費者合法權益等,強調基本倫理秩序維護與基本權利保護。我國正處于人工智能倫理規范建設初期,正在探尋安全發展、協同參與的平衡方案!渡墒饺斯ぶ悄芊⻊展芾頃盒修k法》《深圳經濟特區人工智能產業促進條例》等立法對人工智能應尊重社會公德與倫理道德,堅持社會主義核心價值觀、防止歧視,尊重他人合法權益等提出明確要求,未來還需在組織架構、程序設計、標準統一和責任承擔等方面予以完善。

          生成式人工智能應用的多重倫理困境

          第一,削弱人類主體價值。人類被賦予了某種固有價值或價值優先,倫理秩序圍繞著人類展開,倫理建構以“人類塑造世界”為核心。但在人機共存社會中,人工智能正在成為具有一定自主行動能力的實施者,并且人工智能極易通過結論的輸出去分析、識別和塑造人的觀念和認知體系,引發“人工智能塑造人類”的結果,人類主體性將會遭受挫折。再者,由于個體能力有差別,“人工智能鴻溝”的出現或將加劇社群內部分化,弱勢群體將面臨淘汰或成為算法霸凌受害者,動搖普遍意義上的人本主義立場。

          第二,加劇算法偏見與歧視。一是作為與人類社會同構的大數據,包含著根深蒂固的偏見。人工智能可從數據中學到刻板聯想,也會從訓練數據集中繼承偏見,使部分人群遭受不公正待遇。二是生成式人工智能可以在人機交互過程中獲取并分析人類回應,反饋自我強化學習,提高準確性。若使用者傳播虛假或不實數據,或回復本身存有偏見、歧視等個人價值觀因素,則會生成有害輸出。

          第三,過度依賴擬態環境輸出結果。生成式人工智能使人們習慣依賴其輸出結果來認識周圍事物,并對其結果產生信任。這時,傳來經驗代替實踐經驗,擬態環境就成了人與世界的一種中介性存在。因此,機器最終向大眾呈現的并非全然是真實世界中的客觀事實,其存有產生“象征性現實”這一擬態情況的可能。使用者接收到擬態事實并經大眾傳播渠道輸出后,便會變成普遍社會現實存在,成為人類行動的標準和認識世界的依據。

          第四,價值對齊困難。如果人工智能不能理解人類的意圖,在為其設定多種目標時,機器可能會作出錯誤的選擇,輸出結果可能不符合人類意圖。人機價值無法對齊,機器會選擇執行人類不需要的目標,如果不能堅守人的價值立場,我們可能會失去對它的控制,使機器應用最終凌駕于人類之上。

          生成式人工智能應用的人本主義倫理立場

          聚焦于人機共存關系,我們亟須秉持人本主義立場來定位兩者在社會譜系中的相對位置。第一,明確人類較之機器所具有的優先性,也兼顧人機交互的優勢。第二,明確機器的從屬性和次要性,始終把人工智能視作實現人類目標的工具,其任務是協助而不是取代人類,更不能操縱和支配人類,使人類異化為工具。第三,無論是傳統工具,還是人工智能,都是人類創造的具有價值的社會實踐物或社會實踐活動,都要遵循“人是目的”的倫理立場,不能改變其“屬人性”特征。

          筆者認為,立足人本主義倫理立場,應堅持福祉、尊嚴和責任原則。福祉原則是以人為本的根本目標,尊嚴原則是實現以人為本的前提和必然要求,責任原則是實現以人為本的重要保障。上述原則旨在確保生成式人工智能發展和應用為人類社會帶來正面倫理影響。

          生成式人工智能應用的人本主義倫理治理機制

          法律具有滯后性,科技創新要考慮倫理先行。在人工智能未來風險處于不可完全認知、風險評估及成本效益分析等規制手段不完全有效的情況下,我國應秉持人本主義立場,探尋符合中國實際的科技向善之道。

          第一,建構人本面向的人工智能倫理治理組織機構。我國人工智能倫理治理組織機構應當立足人本主義立場,重視常態化、場景化評估生成式人工智能引用的倫理風險與影響,制定倫理安全標準、技術規范、風險防控與應對策略。倫理機構應協同發揮作用,相互協調、信息互通、分工明確,搭建倫理監督的協同治理組織框架。應秉持預防原則,對生成式人工智能的倫理風險及時干預,對其發展方向、發展戰略作出規劃,制定安全標準與規范,提升管理風險的能力。倫理機構也應關注生成式人工智能應用中公民基本權利如何得到有效保護。

          第二,完善人本面向的人工智能倫理規范機制。一是明晰技術應用的公平機制。關注生成式人工智能應用中所產生的歧視偏見等,完善公平保障機制。解決設計道德問題,擴大技術系統質量的評價標準,開發符合應用者價值傾向的算法。形成生成式人工智能應用真實性的規范制度,促成生成式人工智能應用過程可解釋性實現。二是完善倫理風險的預警機制。加強人工智能技術安全保障,建立倫理風險智能監測、預警及管控機制,提升生成式人工智能的安全透明度。三是補足倫理審查的追責機制。生成式人工智能輸出的問答與信息,其倫理責任最終應指向各環節承擔實際角色的主體。生成式人工智能仍然是一種“非人化”擬合工具,是基于對參數與數據的分析,其本身不具有主體自覺和情感,嚴格來講不具有倫理意識與責任。故就現階段而言,應基于人本主義立場,明確提供者、使用者、設計者等各方主體倫理責任,落實倫理責任承擔機制,完善責任體系。還應建立監測生成式人工智能系統全生命周期的機制,針對算法、數據與系統運行流程進行監測與審計,關注生成式人工智能應用可追溯性和可審計性的實現。



          責任編輯:譚則章
          本站系非盈利性學術網站,所有文章均為學術研究用途,如有任何權利問題請與我們聯系。
          ^

            <nobr id="hlbhj"></nobr>
            <em id="hlbhj"></em>

            <form id="hlbhj"><form id="hlbhj"><sub id="hlbhj"></sub></form></form>

              <ins id="hlbhj"><sub id="hlbhj"><p id="hlbhj"></p></sub></ins>

                  操逼视屏