導言
2018年4月25日,由北京大學法學院主辦的主題講座“人工智能的問題及挑戰”在北京大學法學院凱原樓307會議室舉行。講座由哥倫比亞大學法學院中國法研究中心主任Benjamin L. Liebman教授主講,北京大學法學院副院長楊曉雷主持。北京大學法學院張平教授、王成教授、易繼明教授,中國人民大學法學院副教授張吉豫,華宇元典副總經理黃琳娜作為嘉賓參與了討論。本次講座主要圍繞美國司法實踐中人工智能應用的爭議、算法的可信度與可解釋性、中美人工智能司法應用的對比三個問題展開了討論。本文系根據講座錄音整理而成。
* 本側記已經得到主講人授權公開,但是記錄內容未經主講人審核,如有錯訛由記錄人負責
主講人:Benjamin L. Liebman(哥倫比亞大學法學院中國法研究中心主任)
記錄人:王惠一(北京大學法學院碩士研究生)
圖片來源:Bing images
一、美國司法實踐中人工智能應用的爭議
在美國的司法實踐領域,人工智能主要用于風險評估,為法官提出量刑和假釋建議。將算法用于風險評估明顯減少了美國的監禁率,其對犯罪概率的預測使美國在重點監控區域投放警力成為了可能,大大提高了犯罪的預測率。但這一應用也引發了三個方面的爭議。首先,人工智能帶來了對正當程序的質疑。這一質疑主要來源于算法的可解釋性,由于有些商業軟件不是開源軟件,人們并不能看到算法是如何運行的,這與程序正當這一重要的法律原則相違背。算法歧視是人工智能的風險評估引發的第二個爭議。在設計算法時,貧困、家庭狀況、人口數據統計、親友的犯罪記錄以及教育水平都是評估風險的因素,被警察詢問的次數甚至也成為了評估因素,這便導致黑人、窮人的風險評估結果大大上升。但實際上,傳統判決中也存在偏見和歧視。算法的正確率是人工智能在司法實踐中應用引發的第三個爭議。有研究指出,算法方法并不存在任何規則和標準,其正確率并不比簡單的評估模型正確率高。此外,實際問題中應當考慮的因素遠比設計算法時的參考因素復雜得多,算法并不能根據具體問題進行分析。
二、算法的可信度與可解釋性
在司法審判領域應用人工智能是否能更好地促進公平正義是人們在審視這一技術應用時最關心的話題,而算法的可解釋性是其是否能促進公平正義的關鍵。在對算法的可信度與可解釋性進行討論時,首先應當區分不同的算法應用場景,在用于提升人工決策效率的輔助性應用場景中,沒有必要對算法的可解釋性進行要求。但如果算法(如類案判決的推送及提供量刑建議)在司法判決的場景中應用,則應當對其可解釋性提出要求。除此之外,還應當請專家對算法的可解釋性進行評估。其次,由于中國的法律還處于飛速發展的階段,在不同的歷史階段,很多類案的判決并不相同,因此,在討論算法的可信度及可解釋性時,還應當對算法使用的數據進行審查、分類。
對于算法的可信度與可解釋性問題,實務屆人士認為應當研究具體的問題,而不是討論抽象的主義。因為在討論宏觀問題時,分歧可能是絕對的,在討論法律AI的時候,可以更加關注實際應用的問題,進行降維的討論。比如對于實際應用場景的算法可信度及可解釋性問題,讓法律人去解釋算法的可信度是十分困難的,但在產品設計時完全可以回避這一問題。以量刑建議的推送為例,有只推送歷史數據不進行量刑建議、將量刑建議作為可選按鈕以及直接推送量刑建議三種模式,如果選擇第一種或第二種方式,則判斷的主動權仍然掌握在法官的手中,算法的可信度問題在產品中也就不那么凸顯,也即價值只有在面對具體用戶的時候才有意義。在討論法律AI時,首要目的還是要促進公平正義。
但應當注意的是,目前法律人工智能產品主要還是由商業力量進行開發,商業的邏輯是逐利而不是促進公平正義,由商業力量主導進行人工智能開發帶來的問題可能是法律私有化,因此,對商業力量開發的法律人工智能產品持保守態度是較為謹慎的做法。
三、中美人工智能司法應用的對比
2016年,我國開始了智慧法院的建設,2018年,我國最高人民法院發布的《智慧法院建設評價報告(2017)》顯示我國智慧法院已經初步建成。但目前在中國,人工智能在司法領域的應用效果主要體現在提升司法效率上,還遠不能達到輔助法官進行判決的高度。但是否應當加快人工智能的司法應用進程呢?可以從中美兩國人工智能應用的對比中尋找答案。縱觀中美兩國的人工智能司法應用,可以發現兩國在對待人工智能的司法應用問題上持兩種截然不同的態度,美國的態度比較保守,而中國則較為激進。除此之外,美國的人工智能司法應用是自然發生的,是市場需求的結果,而中國則是政策導向型發展。
算法歧視和算法的可解釋性問題是人工智能司法實踐的“通病”,而算法帶來的一致性問題可能會成為“中國特色問題”,這與司法獨立和司法公信力聯系緊密。在中國,人工智能引起的法官失業焦慮遠比美國嚴重。美國的法律是人民為爭取自由權利而斗爭的產物,法官擁有較高的社會威望,人民對于法官的信任是很難被人工智能輕易取代的。但是中國法律主要來源于移植,法官在判決時往往要考慮更多法律與事實之外的因素,人民對于法官的信任遠沒有美國高,社會影響與政治影響很可能是法官在判決時考慮更多的因素,但算法是不會考慮這一問題的。此外,中國社會與法律處于飛速發展的階段,是否有必要保證判決的一致性是一個值得討論的話題,這些都會對人工智能在中國司法實踐領域的應用造成障礙。由于算法是由人設計的,算法的中立性便很難被保障,這就導致算法可能淪為法官迎合考評標準的工具,這也是一個值得關注和思考的問題。
對人工智能的討論不能如同盲人摸象,應當分類型、分階段地進行。人工智能的發展分為弱人工智能和強人工智能兩個階段,這兩個階段分別對應著人工智能的輔助性應用和決策性應用。總體而言,本次講座主要從人工智能在刑事領域的應用展開,圍繞人工智能的輔助性應用帶來的問題進行討論。人工智能應用產生的民事責任問題、人工智能的法律人格等問題并沒有在本次講座中得到回應,強人工智能階段的問題還需要進行進一步的探討。
「 支持烏有之鄉!」
您的打賞將用于網站日常運行與維護。
幫助我們辦好網站,宣傳紅色文化!
歡迎掃描下方二維碼,訂閱烏有之鄉網刊微信公眾號
