法律人工智慧的法哲學反省 179 法律體系是一個分配權利與義務的規範體系,因此當任何人工智慧 系統之應用對於社群成員產生傷害時,法學必須針對具體事件進行 處理以及回應。這種處理是一種事後觀點 (ex post),主要目的在於 確定具體個案中的權益關係等課題。這會屬於法律裁判與法律釋義 學的核心課題 (吳從周,2019; 李榮耕,2019; Farnsworth, 2007)。 (二) 則偏向採取事前觀點 (ex ante) ,思考要如何在人工智慧系統之 應用產生問題之前管制 (或是設立規範) 以妥適分配權利與義務的 關係,這種以事前觀點為切入取徑的方式通常是以管制理論的角度 出發。6 其主要思索 AI 對於法律既有的價值保障是否會產生扞格 之處。例如以資料驅動 (data-driven) 為主的人工智慧系統所產生 的偏見、歧視、隱私權等爭議。(三) 從更後設立場出發,不僅思考 法律既有價值是否會妥協於人工智慧系統之應用,更思考這背後的 可能性是如何產生的。本文是採取第三種研究取徑來看待ALI 的課 題。此外,本文在研究取徑上的基本預設是:ALI 雖然是一種技術, 但是技術之設計與研發往往會具有價值蘊含在其中,7 因此必須思 考既有的運作體系的價值內涵產生變遷之可能。 奠基在第三種的研究取徑上,筆者探討,ALI 與法治的緊張關 係是如何產生的。我將指出,ALI 與法治的內在緊張關係來自於ALI 6 例如,美國的Executive Office of the President (2016) 提及自動駕駛車輛或航空器的 技術發展與對其進行政策管制的必要性。林勤富與李怡俐 (2020) 則奠基於對人工智 慧對於社會、經濟與政治層面之影響,從國際人權機制思考管制人工智慧的可能方針。 7 技術設計者對於技術與設計所摻雜的價值或偏見,常見的例子大概是美國紐約要通往 瓊斯海灘 (the Jones Beach) 的橋樑設計。城市規畫者Robert Moses 責成設計師將橋 樑高度降低以不利雙層巴士的通行,檢少或避免有色人種利用大眾交通工具使用海灘 (Caro, 1975)。數學家 Hannah Fry 亦在其書中直接引用這個例子 (漢娜.弗萊, 2018/2019),作為技術與價值關係的探討。而 Thomas Campanella (2017) 則指出 Moses 雖然是個種族主義者,但是對於橋樑設計上排除有色人種之規畫並不是Robert Caro書中那樣單純。
RkJQdWJsaXNoZXIy ODg3MDU=