當司法遇上AI 美教授:使用不當恐造成黑箱、偏見與誤解
〔記者吳政峰/台北報導〕AI(人工智慧)在網路與手機載具的普及下發展迅速,雖然大幅增加便利性,但隨之而來的隱私權與倫理爭議也開始被討論,尤其應用在司法上可能對社會與當事人帶來重大質變與影響,AI軟體核心的演算法若未開放,恐遭到偏見甚至是黑箱質疑,連杜克大學教授Jeff Ward都質疑AI只是「深度」的學習系統,而非透明的系統。
Jeff指出,AI工具正在形塑法律與司法實務,未來應用層面會越來越普及,是機會也是挑戰,但AI系統均由科技人設計,不一定有法律的相關背景,未來恐遭遇司法人參與不深與全權交由科技人主導兩個重大危險,在他看來,台灣即便是法治盛行,惟對科技和AI的反應仍難以預測。
Jeff認為,AI若運用得宜,協助處理大量資訊、節省時間、降低工作量與錯誤,能夠增加流程效率、提高決策品質、準確度及一致性,且由AI取代人工,也可節省人力成本、辨識並評估風險、清楚呈現晦澀難解的資訊,甚至可以協助司法研究、技術輔助審查、擬定契約、估價、判刑。
但他強調,AI使用不當,可能會影響我們了解、解釋與確保公平的能力,並且延續貌似客觀的偏見,因為許多有效的AI工具屬於「深度」的機器學習系統,並不是透明的系統,若使用不當,這些演算法可能造成黑箱、偏見與誤解,不僅不可靠,還可能與基本的正當程序相反。
Jeff質疑,使用AI時,法官和律師的參與程度夠深嗎?具備批判思考的能力嗎?能夠在判決時妥善使用AI嗎?他認為,使用AI時,法官和律師反而更需要積極的參與、批判地思考,才能維護正當程序與平等保護的價值。
美國司法運用AI的程度名列世界前茅,2013年飛車開槍嫌犯Eric Loomis被起訴,法院執行審前調查報告,利用AI風險評估軟體「COMPAS」對Loomis進行再犯風險評估,得到「高風險」的結果,法官據此判他6年徒刑、刑後監督5年,雖然Loomis主張COMPAS無法評估分數是否正確、量刑應個別化,而非透過大數據的特性判定他是否會再犯、計算風險時不應納入「性別」,並要求公開COMPAS的演算法,但全都遭到拒絕;而COMPAS在計算黑人的再犯率時,冤枉黑人會再犯的比例足足是白人的兩倍,亦被抨擊有種族歧視。
Jeff還提及,AI所生成的假訊息、假影片、假聲音,經由 Deepfake(深度偽造),極可能導致暴力事件,更令人擔憂的是,透過大量製造說服力強但錯誤的內容,AI很可能淪為操控大眾言論的工具,或是強化獨裁政權的手段。