EUR5202

180 歐美研究 的兩個基本特色:第一,權限分配的無差別性。第二,高效率執法 機制的運作。現今許多法律的運作已經採納AI 來協助法律行動者 (法官、律師、研究者、一般人民等) 完成特定的法律任務或是判斷。 雖然在概念上我們可以區分輔助型的ALI 以及替代型的ALI,但是 ALI 的設計者並未體認到替代型ALI 對於法治的破壞可能性。這不 是意味著唯有工程人員才有可能擔綱法治的守護者。恰恰相反,本 文企圖指出我們如何可以從工程學界對於AI 的一般界定與特徵找 出法學的深度切入點,並進而捍衛以下的價值立場:當ALI 在規畫、 設計與應用時,應該對於法治損害的可能性與類型納入考量,從而 堅持輔助型人工智慧系統的方向。8 然而更深層的問題是:如果ALI 做的比人類還要好,為何要堅 持將特定權限交給人類來做?在某些情況下,將決策權限交給ALI 來做似乎沒有不可。因此,這就有了一個需要分析的難題,我稱之 為權限分配的難題。如何從法律觀點思考ALI 的功能履行考驗著我 們如何分析與論證法治的價值。因此,以下筆者將先簡短說明判斷 權限的問題如何產生以及本文如何處理相關問題的架構與主張。 8 關於替代型與輔助型人工智慧系統的相關說明,請參考 Pasquale (2019: 6)。Frank Pasquale 主張在管制方向上應該要以智能輔助型 (Intelligence Augmentation) 為主要 理念,不應該在設計與管制政策上朝向替代人力或是人類決策的方向發展。筆者在這 一點上實質贊成Pasquale 的觀點。而Pasquale (2020b) 也在新書《機器人新法則:人 工智慧時代下捍衛人類專長》(New Laws of Robotics: Defending Human Expertise in the Age of AI)中,多元與細緻地展現了人機互動模式中的這種智能輔助的運作更為恰 當。 Pasquale 的呼籲其實並不孤單,因為Stuart Russell 作為人工智慧研究的重要先驅 者,也提出類似的擔憂,他認為必須要小心 (Russell, 2019: 9)。筆者認為,Russell 的 呼籲值得重視的原因,不在於他是人工智慧的研發者,而是他指出那種以普遍研發超 人類智慧機器的想法是如此根深蒂固地存在於工程學界,以致於他的想法是「新」的 想法。

RkJQdWJsaXNoZXIy ODg3MDU=