2023年11月22日星期三

摘要 Ziarek, E. P. (2022). Against Digital Worldlessness: Arendt, Narrative, and the Onto-Politics of Big Data/AI Technologies. Postmodern Culture, 32(2).

 

Ziarek, E. P. (2022). Against Digital Worldlessness: Arendt, Narrative, and the Onto-Politics of Big Data/AI Technologies. Postmodern Culture32(2).

 

為了分析大數據在數位世界中的無世界性及其在人工智慧中的使用問題,我借鑑了漢娜·鄂蘭的核心主張,即現實感的喪失是歷史特定攻擊對人類複數性的影響。

根據鄂蘭的觀點,真實感來自於三種互相交織的關係,這些關係僅為啟發目的而被分離:自然現象對人類感官的呈現、透過工作和技術建構的世界,以及通過共同行動和交談產生的人際關係網絡。這種觀點有助於定義數位世界的無世界性:屈服於數位資本的目的,數位技術不僅加劇經濟剝削,還削弱了世界的現象學呈現和人類的複數性。這是因為與世界的關係是由經濟、科學和技術所中介,並與政治互動的「網絡」交織在一起(Human 183–84)。這個人際事務的網絡維繫著人類的複數性,並維持著共同世界的感覺(204)。鄂蘭的網絡隱喻並非偶然。對她而言,複數性不是孤立個體的數量眾多,而是一種關係形式的社會性,其特徵是平等與區別之間、共同存在與每個人不可重複的獨特性之間的使能張力。即使統治或暴力限制了共同存在於抵抗的反社群,這種共同性也與分享「行為和言辭」交織在一起,這使得政治行動者能夠向彼此揭露他們的獨特性,並共同實現政治生活中的新開始。每當人們的平等、區別和獨特性的世界呈現受到政治權力技術或經濟剝削的攻擊時,現實感也同樣被侵蝕。正如鄂蘭所說,沒有人類的複數性,世界本身就變成了「一堆無關的事物」——不再是一個適合行動、理解或溝通的共同世界(204)。

最後且最重要的是,數據在人工智慧中的使用與在政治鬥爭中的敘事使用之間的對比,明確了這些實踐的對立本體論。對於鄂蘭來說,敘事/政治行為的結合預設並再現了共同世界本體論所依賴的人類複數性的「網絡」。相比之下,只要大數據在人工智慧和機器學習中的使用受制於數位資本主義的經濟目的和決策自動化,其本體論就對應於數位無世界性。這種數位無世界性重新框定了算法治理的危害,這是RouvroyBerns提出的一個概念,Rouvroy將其定義為一種「中性化體制」(regime of neutralization)100),旨在解除主觀行動、言論和「決策能力(基於不確定性而決策,而非服從計算結果)」的能力,以及對政治項目的集體想像(101)。這些本體論之間的對比極為鮮明,它反映了當前對現實的「混合」和對立性公投的特點。

 

漢娜·鄂蘭對獨特性溝通性的重申,在當代有關算法秘密及其相反面:對技術透明度的還原性呼籲的辯論中更顯迫切。反映了數位資本主義和政治決策自動化的匯聚,大數據的算法處理繞過了維繫人類複數性的判斷溝通性——概念性和反思性的。往往,即便那些在數據挖掘和機器學習流程中編碼的技術性和非技術性決策可以概念性地溝通,也仍然被從公共判斷和爭議中撤回:例如,待解決問題的選擇、其數學形式化、使用的算法類型、可用訓練數據的來源和類型等。正如Andrejevic所指出,這些半「神諭式」的自動化結果從公眾意見中撤回,旨在取代甚至概念性的判斷、爭議和政治想像的替代可能性2)。因此,算法決策的實施不僅將解釋和論證的負擔轉移給那些受到「自動化不平等」(Eubanks)傷害的人,而且還助長了數位無世界性和普遍的共識喪失。

相比之下,對鄂蘭來說,獨特性的溝通既不依賴於透明的話語,也不依賴於算法結果的最佳化。相反,它基於向他人的判斷呼籲,而無需保證他們實際上會同意我們。正如她所論述,反思性判斷的溝通要求所謂的擴展心態(enlarged mentality),即在我們向他人宣告判斷時和判斷過程本身中都能夠考慮其他觀點的能力。在判斷過程中考慮其他觀點既不等於客觀立場,也不是對這些觀點的佔有,而是對我們自己判斷的批判性反思(Lectures 70–72)。通過從實際和潛在的他人視角批判性地反思自己的判斷,一個人可能會從自己的教條主義、自戀、文化規範和習慣性、不反思的觀點中獲得距離,從而達到某種相對的公正性,或者康德所說的「無利害性」(73)。換句話說,正如Rodolphe Gasche所建議,對鄂蘭(與康德不同),反思性判斷包括考慮我們與之共享世界的他人,其潛在或實際的觀點由想像力代表(112–14)。這就是為什麼從他人的觀點判斷預設並實現人類複數性。根據Cecilia Sjoholm的說法,判斷的溝通維持了sensus communis和現實感(82–85)。

除了規模和速度外,大數據最有爭議的意識形態斷言在於其真實性的主張:大數據似乎「自言自語」,揭示了一種新形式的客觀性,這種客觀性,正如BernsRouvroy所指出的,似乎從生命本身內在地湧現。這種「真實性」首先依賴於科學視角的轉移,從解釋(歷史譜系,所有形式的因果關係,包括權力和自由的因果關係)到基於機器學習算法發現的數學模型中的相關性發現「實際情況」。由於在龐大的數據集中發現相關性、模式或異常的算法不需要解釋,也不需要事先的科學假設測試,大數據臭名昭著地宣布了科學中的「理論終結」(並非僅在人文學科中)(Anderson)。對於D'IgnazioKlein來說,這種認識論再次複製了女性主義認識論經常批評的「神話性、虛幻性、不可能的立場」(73–96)。此外,這種偏離解釋、理由和對社會關係的解釋放棄了對壓迫和不平等歷史的任何責任。

對世界異質性的量化進一步助長了數位無世界性。數位技術的速度(速度)和效率「抽象地談論」,來自現象和歷史世界,取決於拒絕事實性和普通和科學語言的模糊性,以利於將經驗事實的數學形式化和轉化為機器可計算性。正如Mayer-SchonbergerCukier承認的,大數據的革命最終不在於大小,而在於使量化與理解同義79–97)。這就是為什麼他們建議用更精確、現在廣泛使用的新詞「數據化」來取代「數據」這個詞。通過清除「數據」一詞的潛在詞源參考到拉丁語datum數據化傳達了電腦化數據挖掘的代理作用,將自然、政治和歷史現象的不可還原的異質性轉化為可量化的「多樣性」,可以被測量、存儲和檢索(使用數位處理器和存儲)78)。讓人聯想到殖民和種族主義征服的暴力修辭,「數據化」整個世界的暴力修辭強調了技術能力和政治慾望「捕獲可量化資訊」(78)。

IV. 結論

在這篇文章中,我通過聚焦於兩種不同社會實踐之間的矛盾來解讀對人類多樣性的數字傷害:大數據與AI的結合,以及敘事和政治行動的相互依賴。這些矛盾塑造了我們“混合型”民主、數字資本和算法治理的特征,它們既有政治層面也有本體論層面。基於漢娜·鄂蘭(Hannah Arendt)的工作,我認為誕生的本體論(ontology of natality)與敘事和政治激進主義的交匯點相對應。誕生強調了人類能夠揭示自己的獨特性、分享世界,並與他人一起行動,反對歧視,爭取自由。雖然大數據和機器學習的政治吸引了更多記者和學者的關注,但其本體論效應也是公眾關注的問題,這一點從對共享現實世界的喪失的擔憂中可以看出。我將這種本體-政治危機稱為“數位無世界性”(digital worldlessness.)。這種世界無形感通常是默認或明確承認的,特別是在魯瓦魯伊(Rouvroy)的論點中,她認為大數據的算法處理“呈現為對抗任何無法計算的異質性、對抗所有不可同化外部的思考、不可減少、非市場化、非完成化……也就是說,對抗世界的數字現實的免疫系統”(100)。正如這一洞察所示,數字技術不僅與人類多樣性的本體論相對立,實際上還將其置於風險之中。

 

然而,敘事、行動和大數據之間的對立關係並不代表一種可能的選擇,它們從內部割裂了這些社會實踐,揭示了它們模糊的混合特徵。一方面,共同世界的日益增長的數據化潛在地依賴於眾多合法化敘事——例如,重新興起的宏大敘事,將技術進步與政治自由和公共利益等同起來——或其對立面,AI征服創造者的反烏托邦願景。不那麼轟動性的是,數據的指涉性和其“結果”的正當化同樣由眾多“數據虛構”中介。另一方面,如算法正義聯盟(Algorithmic Justice League)或數據為黑人生活(Data 4 Black Lives)等新形式的政治激進主義呼籲將解放性敘事作為政治鬥爭中集體治理和基於社區的數據使用的關鍵元素。正如數據為黑人生活的宣言所宣稱,數據政治可以被想像和動員成其他形式:“數據抗議。數據作為問責。數據作為集體行動。”同樣,算法正義聯盟依靠“藝術、機器學習研究和故事講述的交叉”來抵抗數據化的傷害。這些組織通常由計算機科學家和統計學家發起,絕大多數是由女性和有色人種組成,它們在抵抗數字傷害的鬥爭中重新爭取集體行動、判斷和藝術實踐。我會認為,這些敘事和政治行為也在鄂蘭的意義上重新演繹了人類多樣性,並因此提供了對抗數字世界無形的替代方案。

 

沒有留言: