EUR5202

154 歐美研究 2018 至2019 年愛爾蘭共計接獲11,328 件有關這些Big Tech 違反 GDPR之檢舉,開罰紀錄卻是零 (Shaxson, 2020)。 再如GDPR要求「可解釋的AI」(explainable AI),這對於將真 民主自監控資本主義手中拯救出來或許是正面發展,但若採取批判 新自由主義的視角對新興、火熱的「可解釋的AI」風潮進行檢視, 會發現或有保持高度警覺、暫時存疑的必要,以避免在不知情情況 下為財團公關手段背書、助既得利益者以漂亮的名詞概念為包裝, 實質上卻掩護甚至強化壟斷行為。Ananny 與Crawford 指出以透明 為訴求將透明化當作是看清、理解、並治理複雜體系的方法不僅效 果有限,甚至會產生誤導。這樣的透明可能反而助長新自由主義的 能動性模式 (neoliberal model of agency),使民眾疲於搜尋、解釋、 判斷體系的資訊,最終卻發現並不握有任何改變體系的權力。 Ananny 與Crawford 指出當問題的癥結在於權力不對等,技術性的 修修補補將無助於促進權力平衡及企業能透過演算法宰制個人的 事實 (Ananny & Crawford, 2016: 1, 5, 7)。Edwards & Veale (2017: 42-43) 在〈演算法的奴隸?〉(“Slave to The Algorithm?”) 一文指出, GDPR 的「可解釋的AI」可能正是此一型態的透明謬誤 (transparency fallacy),因為透明並不等同課責性;其既非課責性的充分條件 亦非必要條件。如果受到演算法傷害的當事人能有選擇,他會選擇 AI 未曾做出那個傷害到他的決定,而非討得一個「解釋」。以臉書 箝制、邊緣化、規訓左派媒體的作法為例,26 「可解釋的AI」並無 法改善遭臉書蓄意用演算法懲罰的左派媒體處境,致使這些靠小額 捐款維繫的獨立媒體在瀏覽數下降情況下面臨財務困難,甚至需在首 頁募款視窗說明臉書的壓制造成其捐款下降 (圖6)。 26 臉書利用演算法懲罰擁抱進步價值的左派獨立媒體,降低其所觸及的讀者人數 (Bauerlein & Jeffery, 2020; Seetharaman & Glazer, 2020)。

RkJQdWJsaXNoZXIy ODg3MDU=