EUR5202

158 歐美研究 正是在這樣的脈絡下,Big Tech 自1990 年代起靠威脅利誘滋 養了一套「自律」說,讓科技巨擘 (Zuboff, 2020b) 更暢行無阻地藉 著其在公領域的優勢影響視聽,使大眾不知不覺中願意「開放」這 些企業在大眾私領域挖礦 (即我們的個資) 轉換為更多的利潤以及 政治影響力,造成頂端菁英與一般大眾的資訊、財富、權力不對稱 情況更進一步惡化。時至今日,我們依舊不時聽到「科技業跑在太 前面,政府管制不可能追得上科技業的腳步」這樣的論點:業者有 強大的動機帶動諸如此類的風向,惟人民毫無義務順從地擁抱失敗 主義,任由Big Tech繼續從我們每個人珍貴獨特的生命經驗竊取他 們營利所需的原料。「科技業跑在太前面」反而更是應該積極管制 補破網的理由。 Frank Pasquale 在《黑箱社會》(The Black Box Society) 一書中即 提出種種補破網措施,包括資料的蒐集、買賣、利用以及使用過程 中的演算邏輯之強制透明化。資料當事人不僅有權檢視自身資料, 亦必須被賦予更正資料的權利。27 大數據公司亦需要重新省思應否 提供有害社會公益的數據清單;任何可能造成不肖商人利用他人不 幸或脆弱賺取不義之財的清單,如「女兒死於車禍者」、「性侵受 害者」、「易受騙的長者」等類別,根本就不應該被建立。然而諸 如此類對AI 黑箱社會的技術性修補 (technical fix) 固為必要,卻絕 非充分。Pasquale 雖未直接使用批判新自由主義的語言陳述現況, 卻點出了「財團與政府合謀對付人民」乃現下AI 發展的一大特色, 並呼籲政府角色亟需回歸為為人民服務,儘速開始監測規制長期以 來大到不能倒的企業財團。Pasquale 與本文同樣認為美國政府早已 從反托拉斯執行者淪為企業壟斷的護航者,並且同樣引述 Robert 27 惟有關演算法透明化的限制請見第伍章。

RkJQdWJsaXNoZXIy ODg3MDU=