首頁 >> 法學 >> 法理學
【網絡文選】破解刑事司法人工智能應用的法理難題
2021年06月15日 17:01 來源:《中國社會科學》2021年第2期 作者:李訓虎 字號
2021年06月15日 17:01
來源:《中國社會科學》2021年第2期 作者:李訓虎

內容摘要:

關鍵詞:

作者簡介:

  我國刑事司法人工智能應用走在世界前列。目前已經落地的刑事司法人工智能應用已經達到數百個之多。

  各級各地司法實務機關積極研發、應用刑事司法人工智能,涵蓋刑事審前程序、定罪程序及量刑程序,幾乎實現對刑事訴訟流程的全覆蓋,逐漸發展出四種類型的刑事司法人工智能應用:(1)智能輔助決策應用系統;(2)智能輔助支持系統;(3)案件管理應用系統;(4)訴訟服務應用系統。迅速發展的刑事司法人工智能應用,也逐漸暴露出數據壟斷、算法黑箱以及場景設置隨意等問題。實證調研亦充分顯示,刑事案件智能輔助辦案系統作為刑事司法人工智能的集大成者,在推廣、試點過程中運行并不盡如人意。

  刑事司法人工智能應用過程中存在的問題表明,其只是現代科技融入刑事司法的一種技術進步力量,應當以促進司法正義實現的工具或輔助手段形式存在,其背后的價值基礎是司法正義。為此,刑事司法人工智能應用不僅需要具備法律層面的合法性,更需要法理層面的正當性,以克服潛在的倫理風險。從刑事訴訟法律規范層面對刑事司法人工智能應用進行合法性檢驗,從刑事訴訟法理層面進行正當性評析,從刑事司法正義結構層面進行整體性評估,方可發展出契合中國刑事司法正義目標的人工智能應用。

  (一)面臨的合法性挑戰

  首先,事實認定領域的刑事司法人工智能應用會侵犯事實認定者的法定權力。根據刑事訴訟法相關條文,特別是第3條、第183條、第184條、第185條、第198條、第200條及第203條的規定,審判權由人民法院行使,事實認定者只能為法官和人民陪審員。在既往刑事司法實踐中,庭審虛化現象嚴重,以審判為中心的刑事訴訟制度改革著力推進庭審實質化,力圖真正實現“讓審理者裁判、由裁判者負責”,法官和人民陪審員作為事實認定者的身份更加凸顯。在這一背景下,應用于事實認定領域,特別是具備“證據標準指引、單一證據校驗、證據鏈和全案證據審查判斷”功能的刑事司法人工智能應用,是否會侵犯法律規定的事實認定者權力,是否會導致庭審空心化,阻礙庭審實質化改革目標順利實現,值得深入反思。

  有論者認為,刑事司法人工智能只是輔助工具,有助于準確認定事實、能夠促進法律統一適用?,F實的問題在于,通過證據數據化、法律規則代碼化對審判人員進行裁判指引,無異于通過層層嵌套的技術實現對司法人員裁判權力的削弱,一定程度上會產生決策讓渡現象。并且,在案件數量劇增、審理時間嚴格受限的壓力之下,加之刑事司法人工智能具備判斷效率上的比較優勢,運用人工智能的法官難免會形成依賴慣性甚至惰性,長此以往勢必會形成過度依賴人工智能的現象。如此一來,司法實踐中的事實認定者將不再只有法律規定的法官,而演變為數據分析師、人工智能工程師、軟件工程師與法官的集合體,裁判權也將異化為計算能力和裁判能力的融合運用,這無疑會侵蝕現行法律授予法官的事實認定權,亦會侵犯法律賦予人民法院獨享的審判權。

  其次,刑事司法人工智能應用的引入可能會侵犯被追訴人的諸多法定權利。預測性警務等犯罪預測工具的引入,不僅會使得追訴活動開始于正式的刑事立案之前,而且人工智能加持下的海量信息匯總、分析產生的犯罪畫像,會加劇偵查人員形成有罪推定的判斷,并使得這一判斷通過互聯互通的刑事案件智能輔助辦案平臺傳遞至法官,導致法官形成未審先判的預斷,庭審實質化流于形式,構成對被追訴人無罪推定權利的實質侵犯。根據刑事訴訟法規定,當事人有知悉訴訟進程、參與訴訟過程、參與舉證、質證以及法庭辯論的一系列訴訟權利,但刑事案件智能輔助辦案系統的引入,使得原先當事人具有的針對審判人員或者對方當事人的訴訟權利都難以適用于人工智能裁決系統,導致當事人訴訟權利的實質受損。

  再次,風險評估類刑事案件智能輔助辦案系統可能會加劇已有的偏見。在刑事司法領域引入人工智能對被追訴人的社會危險性、再次犯罪的可能性進行風險評估,以準確作出是否逮捕、是否繼續羈押的決定時,看似只是所運用技術的迭代升級,但域外實踐已充分證明,風險評估工具的運用會造成對特定群體的歧視,導致其被羈押、被從重量刑的概率顯著增加。進而言之,刑事司法人工智能應用存在加劇或者強化已有偏見、歧視的副作用。刑事司法人工智能的研發需要依托司法大數據,但當底層數據存在問題或偏見時,據此研發的刑事司法人工智能應用便會放大這一效應。

  最后,刑事案件智能輔助辦案系統可能會對審級制度形成嚴重沖擊,損害當事人的上訴權。審級制度存在的重要價值在于賦予當事人救濟機會,通過程序吸收當事人的不滿,達到消弭糾紛的目的。但刑事案件智能輔助辦案系統被應用于上訴機制后,無論上下級法院對刑事司法人工智能的輔助工具屬性如何強調,只要上下級法院運用相同的刑事司法人工智能應用處理同一案件,就會出現完全相同的事實認定或者法律適用結論,這無疑會削弱審級制度的意義和價值。

  (二)存在的正當性隱憂

  在刑事司法人工智能的基本要素中,數據壟斷、黑箱算法及應用場景缺乏規制,充分表明,我們的刑事司法人工智能基礎薄弱。當上述不足集合于具體的刑事司法人工智能應用時,會對既有的刑事訴訟法律關系、刑事訴訟結構、刑事訴訟原則造成沖擊。

  首先,刑事案件智能輔助辦案系統的應用將強化公檢法三機關之間“配合有余,制約不足”的關系。憲法、刑事訴訟法確立了公檢法三機關“分工負責、互相配合、互相制約”原則,但實踐中存在“配合有余,制約不足”現象。如果運用相同的刑事司法人工智能系統辦理案件,可能會使偵控審更加流水線化。既有的刑事案件智能輔助辦案系統以統一證據標準為主軸進行建構,力圖通過引入人工智能,實現對刑事證據的統一指引、校驗、提示、把關和監督。這種思路無疑會提高辦案效率,但會引發刑事訴訟流程異化,強化后續刑事訴訟流程對前續階段的機械性認同,使三機關辦案思路同質化,分工、制約關系進一步受阻。

  其次,刑事案件智能輔助辦案系統的應用可能會加劇本已失衡的控辯關系、辯審關系。實現控辯平衡是訴訟現代化的一項重要指標,但囿于種種限制,控辯力量對比很難達致平衡。在人工智能加持下,本已處于優勢地位的偵控機關在數據獲取方面天然優位,如其繼續不加限制地利用數據優勢和黑箱算法,將使得本已處于弱勢地位的辯方更難進行有效抗辯。另外,將刑事案件智能輔助辦案系統應用于事實認定階段和量刑階段,會導致決策權讓渡,但由于辯護方對人工智能是否參與以及發揮作用程度大小并不知曉,當對結果有異議時,會不可避免地歸因于審判人員,加劇辯審沖突。

  再次,刑事案件智能輔助辦案系統的透明度有待提升。數據、算法是刑事司法人工智能的核心要素,但數據壟斷和算法黑箱的存在,導致刑事司法人工智能缺乏透明度,使被追訴人處于數據不對稱地位和算法信息劣勢。缺乏透明度的刑事司法人工智能應用不僅剝奪被追訴人的知情權、減損其抗辯權,還使得“研究人員和外部專家難以評估和審核算法,從而難以測試算法的準確性和偏差值”。由此會帶來對刑事司法人工智能公信力的疑慮,最終影響應用實效。

  最后,難以建立針對刑事司法人工智能的監督與問責機制。司法責任制被視為本輪司法改革的“牛鼻子”,完善司法責任制,是建立權責統一、權責明晰、權力制約的司法權運行機制的關鍵?!白寣徖碚卟门?,由裁判者負責”,既是改革的共識,也是改革的努力方向。但當下,如果因刑事司法人工智能應用造成冤錯案件,監督和問責將變得困難重重。當案件裁決者由單一化走向多元化和復數化時,審理者的角色將不再確定、明晰,導致難以有效問責,會使得正在著力推進的司法責任制改革難以獲得真正落實。

  (三)潛在的倫理性風險

  刑事司法人工智能是一把雙刃劍,其“有可能提高刑事司法系統的審判準確性,并降低人為錯誤和偏見的風險,但它們也有可能強化或加劇現有的偏見,并破壞基本的司法正義原則”。刑事案件智能輔助辦案系統在提高訴訟效率的同時,也對刑事司法領域的倫理范式、正義觀念造成沖擊和挑戰。

  刑事司法人工智能應用過程中,由人工智能自動生成判決、根據大數據矯正法律決定的偏差,特別是讓人工智能參與事實認定導致決策讓渡,使得法官定位發生極大動搖,甚至造成審判系統乃至司法權的全面解構,從而在事實上形成審判主體的雙重結構。并且,隨著機器學習的迭代升級,機器正從被動工具、輔助者轉變為具有自主意識、自主決策能力的能動者。就刑事案件智能輔助辦案系統而言,其具有的自動生成判決、裁判偏離度預警等功能,已經具有自動化決策功能,自主性和能動性的具備使其不再只是法官的輔助工具,而成為法官事實上的代理者甚至替代者,對既有刑事司法領域倫理范式構成重大挑戰。

  刑事司法人工智能中算法決策的深度應用,還對既有的司法正義結構形成沖擊。司法改革中,刑事司法人工智能的限度并沒有被充分考量,算法決策已經被應用于事實認定甚至復雜案件決策中,這實質上是對算法決策的過度迷信。既有的刑事司法人工智能設計認為利用海量數據和算法,并輔之以超強算力,就可以破解刑事訴訟中的難題,防范冤假錯案,促進司法公正。但問題在于,司法正義特別是實質正義難以通過具體的算法實現,畢竟“司法人工智能不會計算情感,不能與人進行心靈互動,自然不可能有人文關懷,難以根據具體場景靈活地、創造性地維護正義價值”。但司法實踐中,諸如犯罪預測、風險評估工具在內的刑事司法人工智能應用,已經在將公平問題算法化。問題在于,刑事司法人工智能中的算法決策依據的是通過數據、算法、建模構建的“計算正義”,而非人本、人文層面的正義。

  刑事司法人工智能面臨的合法性挑戰、存在的正當性隱憂以及潛在的倫理性風險表明,刑事司法人工智能亟待規制。但同時,上述問題的復雜性也表明,規制難度巨大。全球刑事司法人工智能改革的代表性國家都沒有形成體系化的監管制度,這既有刑事司法人工智能技術發展不成熟的原因,也有政策制定者無法全面認知刑事司法人工智能風險的因素。但在我國刑事司法人工智能應用已經獲得長足發展、問題已經充分顯現時,跨越技術規制的“科林格里奇困境”,已經迫在眉睫。

  對于人工智能在刑事司法領域的應用,歐美國家司法實務機關普遍持相對保守態度。美國將刑事司法人工智能的應用場景限定于預測性警務、人臉識別以及審前程序、量刑程序中的風險評估。英國在審前程序中的預測性警務、風險評估、移動設備信息提取、數字取證等領域進行刑事司法人工智能應用試點。德國警方除曾試用人臉識別、在個別地區使用預測性警務外,基本沒有引入刑事司法人工智能應用;法國禁止將基于人工智能技術的法律服務軟件應用于刑事案件,并且通過立法禁止基于法官和書記官處成員的身份進行的人工智能裁判指引??傮w而言,歐洲主要國家只是在審前程序有個別刑事司法人工智能應用,審判階段幾乎不存在刑事司法人工智能應用。

  對刑事司法人工智能的規制,各國都處于起步階段,都在探索適合本國國情的規制路徑,形成發展優位的中國模式、嚴格監管的歐盟模式和漸進規制的美國模式,呈現刑事司法人工智能規制的國際競爭格局。域外國家刑事司法人工智能監管領域的嚴格規制模式和漸進規制模式對我國具有一定啟示意義,但由于我國刑事司法的獨特訴訟文化和訴訟構造,加之我國處于全球刑事司法人工智能的無人區,要求通過自身探索,創制契合我國刑事司法正義體系的規制方案。未來應按照習近平總書記提出的“推動大數據、人工智能等科技創新成果同司法工作深度融合”“讓人民群眾在每一個司法案件中感受到公平正義”的法治思想,改進發展優位的規制模式,構建專門針對刑事司法人工智能的規制原則、規制框架和規制規范,防范、化解可能存在的風險和挑戰,通過激勵發展與合理監管相協調實現包容性規制。

 

  (作者單位:中國政法大學證據科學研究院。原題《刑事司法人工智能的包容性規制》?!吨袊鐣茖W》2021年第2期。中國社會科學網 張征/摘)

作者簡介

姓名:李訓虎 工作單位:

轉載請注明來源:中國社會科學網 (責編:張文齊)
W020180116412817190956.jpg

回到頻道首頁
中國社會科學院概況|中國社會科學雜志社簡介|關于我們|法律顧問|廣告服務|網站聲明|聯系我們
中國社會科學院概況|中國社會科學雜志社簡介|關于我們|法律顧問|廣告服務|網站聲明|聯系我們
直接看的av网站免费观看