234 歐美研究 該採取輔助人類智慧行使的方向前進,讓人類保有最終判斷權限。 這個結論與Frank Pasquale (2020b: 3-7) 在《機器人新法則:人工 智慧時代下捍衛人類專長》(New Laws of Robotics: Defending Human Expertise in the Age of AI) 一書中是一致的。 第二,在輔助型的ALI 的前提下,仍必須小心其與不同法治觀 的緊張關係。如果要透過ALI 來執行法律,那麼最適當的方式是利 用AI 協助行動者對於法律之內容進行一階理據的釐清或是考量, 而不是以提高執法效率的機制進行,提高執法效率的構想企圖高度 擬和法律的實然與應然,在這個過程中主體的自主判斷空間會受到 處罰可能性到行動者之間因果影響力提升的影響,筆者並非完全反 對運用ALI 提升執法效率,但我們必須要小心這個運用對於一般公 民在思索遵守法律的各式理據間的緊張關係,筆者運用因果圖的主 要目的就是希望細緻區分ALI 的不同運用方式、ALI 對於不同理據 的干預以及不同干預的類型會對於法治理念的維持有相當影響。 第三,並非任何法律事務的輔助履行也是全然沒有問題。我們 仍需要注意到有哪些法律事務判斷之領域可以透過AI 來輔助本身 是一個法律問題,更是政治道德層面的問題。作為法哲學層次的探 討,筆者認為善用思想試驗 (thought experiment) 是一個具體可行 的方向。當前在思考人工智慧時所提到的思想試驗通常指涉 Philippa Foot (1967) 或Judith Jarvis Thomson (1985) 所提的電車 難題 (trolley problem)。電車難題固然有其討論價值,但是筆者認 為,或許可以更深入應用思想試驗的特色找出到底哪些法律事務的 領域會涉及到較為根本的法律課題。例如,Lawrence Solum (2019: 58-60) 在〈人造的智慧法律〉(“Artificially Intelligent Law”) 一文 中便應用了交通管理AI 的思想試驗,指出雖然自主性的ALI 尚未 具體實現,但是從思想試驗的方式開始會發現到此類系統在開發與
RkJQdWJsaXNoZXIy ODg3MDU=