法律人工智慧的法哲學反省 235 應用過程中逐漸與法律既有的基本原則產生衝突。例如,我們可能 會將ALI 應用在氣候變遷 (climate policy) 的管制體系之中、監獄 管理 (prison regulation)、或是反恐政策 (terrorism) 的擬定上等 等。在上述脈絡下發展的ALI 無疑地會在法律的授權上產生許多爭 議,此類爭議除了是政治爭議之外,也會涉及到道德上或是政治道 德意義下的爭議,例如跟正義與正當性產生衝突。 第四,或許可以更深入一點看現今AI 的技術運用是否真的可 以稱之為「智慧」?本文是將ALI 當成既定的探討對象,然而以找 出資料間相關性的機器學習技術是否真的稱得上智慧卻是個重要 問題。筆者的想法是,以關聯性為主的工程設計無法帶我們更上一 階地理解智慧這個概念。我們必須要思考世界如何可以透過因果結 構再現於機器內部,從而建構出可以處理關聯 (association)、介入 (intervention) 與反事實 (counterfactual) 等問題的機器。現今以關 聯性、需要大量收集資料的機器學習的「智慧」系統也構成了對於 法治的相當威脅,因為這樣的系統希望介入人類決策的領域,但是 介入人類決策本身涉及到兩個層次的問題:第一,系統所希望介入 的那個人類決策之因果結構想像是什麼?第二,系統自身內部對於 資料的因果想像是什麼?本文只很初步處理了第一個層次的問題。 而第二層次的問題,很大程度就是機器的可解釋性的問題,但不僅 限於此。本文囿於篇幅與問題意識,無法處理第二個層次的問題。 然而,如果要更堅實地捍衛法治的價值就必須面對第二層次的問 題。72 從上述的幾點來看,本文的分析是個起步,如果我們認為法治 的核心是維持個人道德的自主判斷空間,那麼我們應該要開始思考 72非常感謝審查人提出關聯性機器學習的問題以及此類機器學習系統對於法治的威脅, 筆者受此觀點啟發甚大。
RkJQdWJsaXNoZXIy ODg3MDU=