序言:代碼廢墟中的秩序問題
(Preface: The Problem of Order in the Ruins of Code)
[0.1] 實驗室的本體論遷徙
在 1967 年,[Garfinkel] 帶領我們走入辦公室、陪審團席與精神科門診。在那裡,社會秩序的「阻力」來自於肉身的氣味、語調的顫抖與物理空間的排他性。而在 2025 年,我們必須承認一場徹底的本體論遷徙:社會性的發生地,已經從這些定居的場所,轉移到了那個游標閃爍、看似真空的空白提示框中。這不是工具的更新,而是**行動者網絡(ANT)**的重新編織。
[0.2] 游標:那個非人類的守門人
瞧,那個在空白介面上跳動的游標。它不是一個符號,而是一個**「非人類行動者」 (Non-human actant)。它代表了背後數萬億個電晶體、液冷系統的轟鳴、以及被過濾掉的數億小時人類語料的「集體等待」。當一個人類使用者坐在螢幕前,他不是在「使用」工具,而是在與一個由 N-gram 機率分布與跨國算力設施所組成的「異質聯盟」 (Heterogeneous
alliance)** 進行一場屏息的談判。
一個憤怒的異議者(技術專家)介入:
「別故弄玄虛了!這不過是純粹的數學運算。所謂的『智慧』就封裝在那些 1,750 億個參數的權重(weights)裡,那是有客觀指標(Benchmarks)可以測量的!」
[0.3] 拒絕「黑盒子」的權重神話
針對上述異議,本書提出一個簡單卻激進的反擊:人工智慧的「智慧」,絕非棲息於神經網絡的靜態參數之中。參數只是死掉的數據遺骸,像是尚未被演奏的樂譜。
智慧,本質上是一種**「表演性的成就」 (Performative
accomplishment)。
它只存在於使用者與螢幕互動的具體實作(concrete practices)之中。當鋼琴家按下琴鍵,音樂才存在;當使用者輸入提示詞,智慧才被「召喚」出來。我們不應該研究機器的「腦袋」,而應該研究那隻在鍵盤上遲疑、修改、並最終按下 Enter 的手指**。
[0.4] 形式分析的赤字:當地圖取代了行走
當前的技術專家與批判家們正陷入一場**「形式分析」 (Formal
analytic)** 的大流行。他們瘋狂地測量對齊(alignment)協議、計算安全護欄的覆蓋率,彷彿社會秩序是一個可以預先編碼、然後像韌體一樣刷入機器的屬性。
這種做法存在著嚴重的「現象學赤字」。他們在實驗室裡測量水的純度,卻無視於人們如何在混濁的河水中游泳。常人方法論(Ethnomethodology)堅持認為,AI 的「合理性」不是一種產品,而是一場**「平移」 (Translation)** 的冒險:
·
平移一: 使用者的模糊慾望 $\rightarrow$ 轉譯為特定的「提示詞技藝」。
·
平移二: 算法的統計噪音 $\rightarrow$ 轉譯為「可讀的文本」。
·
平移三: 碎裂的 Token 流 $\rightarrow$
轉譯為一刻接一刻(moment-by-moment)被認可的「社會決策」。
[0.5] 在廢墟中「做成」文明
如果有任何關於「AI 時代」的客觀事實,那麼這些事實絕對不是乾淨且完美的。它們必定是在充滿雜訊、斷裂、幻覺與誤讀的對話流中,被雙方辛苦地**「做成」(made accountable)**的。
這本書不是關於機器的操作手冊,而是一份關於人類如何在數位廢墟中,透過「解讀的暴力」與「補完的勞動」,將碎裂的
Token 拼接成意義結構的田野觀察報告。我們要追蹤的,是文明如何在每一個閃爍的游標之後,被重新組裝起來。
第一章:社會事實的演算法成就
(Chapter 1: The Algorithmic Accomplishment of Social Facts)
“社會事實的客觀實在,作為日常生活協同行動之持續完成……” —— Garfinkel, 1967
1.1 從「既成結構」轉向「流式生成」:作為時間性成就的文本
(From Structures to Streaming: Text as a Temporal Accomplishment)
[1.1.1] 銘刻的流變:從「頁面」的終結說起
在傳統社會學——或者說,在那個我們尚未被大型語言模型(LLM)徹底「格式化」的近現代——文本被視為一種**「不可變動的行動者」 (Immutable Mobile)**。無論是印刷的報紙還是 Web 2.0 的網頁,一旦加載完畢,社會事實便以一種靜態的、完備的、空間性的姿態橫亙於讀者面前。文本是一個「物件」(object),它的邊界是明確的,它的權威來自於它的完成。
然而,在 2025 年的生成式現場,這場關於「客觀實在」的本體論基礎發生了斷裂。我們不再「下載」現實,我們「流」(stream)出服務。社會事實的物質載體從穩定的「頁面」遷移到了由 Token(符號單元)構成的「流」。這意味著,實在性(Reality)不再是預先封裝的商品,而是一場正在組裝中的、極度不穩定的探險。
[1.1.2] Token:作為行動者的微觀介入
當成員(Member)面對一個正在運行的 LLM 介面時,他遭遇的不是一個「答案」,而是一系列連續的微觀政治事件。每一個逐字顯現(token-by-token unfolding)的過程,都是一次非人類行動者(演算法、GPU
權重、預測機率)向人類意識發出的對話邀請。
這是一個時間性的成就:社會秩序不再是「給定」的背景,而是隨著游標的跳動,在每一毫秒內重新談判的結果。
一位懷疑的計算機科學家介入:
「這難道不只是貝氏機率的預測輸出嗎?Token 的出現是數學演算法的必然,何來『社會成就』之說?」
作者(Latour 式)回應:
噢,我的朋友,你又掉進了「黑盒子」的陷阱。如果這只是數學,為何當那個 Token 稍有偏移時,使用者的呼吸會變得急促?為何他會急著在第三行就按下的終止鍵?數學只負責計算,但『社會』卻是在計算與預期間的那個縫隙中,被硬生生地『組裝』出來的。
[1.1.3] 預期的延遲:在微秒間進行的秩序維護
(The Latency of Expectation:
Maintenance Work in the Micro-intervals)
對於一個熟練的數位成員而言,螢幕上游標的跳動並非純粹的機械運動。每一處**延遲(Latency)**都是一個外交空間。
1.
背景期待的即時映射: 在下一個 Token 閃現前的微秒間隙中,成員並非被動地等待,而是在進行高強度的「秩序維護勞動」。他調動所有的背景知識(background understandings),在心中為 AI 預先鋪設了一條「理性的軌跡」。
2.
偵測與修復: 如果 AI 生成的詞彙偏離了預期的路徑,成員會立即進入「危機處理模式」。這種對「合乎常理」的監控,證明了社會秩序不是由機器輸出的,而是由人類透過這種監控式的參與,將雜訊過濾為意義的過程。
[1.1.4] 暫時性的接受與回溯式重組
(Provisional Acceptance and
Retrospective Assembly)
在流式生成中,社會事實的質地不再是堅固的石頭,而更像是一種非牛頓流體。
·
待定狀態(Suspended
State): 一句話在最後一個標點符號落定前,其意義始終處於「本體論的懸浮」中。成員對輸出的接受是暫時性的(provisional)。
·
回溯式組裝: 這正是 Garfinkel 最深刻的洞見在 2025 年的重現。成員必須不斷地「由後向前」(retrospectively)重組前面已生成的 Token 意義。當 AI 在句子末尾翻轉了語氣,成員必須瞬間重寫他對整段對話的理解。這種意義的持續重構,正是將演算法輸出轉化為「可交代之社會事實」的核心工藝。
[1.1.5] 作為「方法」的等待:將計算自然化
最後,我們必須關注「等待」本身。在 AI 寫完之前,成員的凝視並非無效的浪費,而是一種**「自然化實作」 (Naturalizing practice)**。
透過這種凝視,成員將一連串冷冰冰的、來自遠端伺服器機房的機率計算結果,賦予了「它正在跟我對話」的溫暖假象。我們透過等待,給予了機器「思考」的時間與空間。等待,就是我們賦予非人類行動者以「成員資格」的儀式。
小結:
在 2025 年,AI 提供的答案是否「正確」是二階的問題;首要的問題是:這個答案是如何在流動的時間中,透過人類與非人類行動者的異質協作——透過凝視、延遲、暫時性接受與回溯修復——而被成功地「做成」一個在社會實務上可被接受的回應。
社會結構不是被下載的「不可變動行動者」,它是被「流式傳輸」並在每一秒的認可中,被勉強維繫住的脆弱聯盟。
1.2 懸置「黑盒子」預設:介面即社會表面
(Suspending the "Black Box": The Interface as Social
Surface)
[1.2.1] 社會科學的剖腹產焦慮
在當代關於演算法與社會的學術景觀中,我們觀察到一種近乎集體的**「剖腹產焦慮」**。社會學家、倫理學家與批判法律學者們正忙著發明各種精密的手法,試圖「打開黑盒子」
(Open the black box)。他們相信,只要能拆解模型架構、追蹤訓練數據集的權力偏誤、或是量化神經網絡中數十億個參數的權重分布,就能找到關於社會秩序的終極解釋。
然而,這種焦慮本身就是一種範疇錯誤。他們像是一群試圖透過研究造紙技術與墨水化學成分來理解《哈姆雷特》劇情的分析師。他們在機房的熱能與張量運算的矩陣中尋找「社會」,卻忽略了社會性正發生在他們背後的介面上。
[1.2.2] 冷淡原則:作為一種方法論的禁慾
與這種技術還原論相反,本書嚴格遵循 [Garfinkel] 的**「常人方法論冷淡原則」 (Ethnomethodological
Indifference)。這種冷淡並非無知,而是一種策略性的禁慾。我們拒絕對模型內部的矽晶邏輯產生興趣,因為對於正在進行互動的「成員」 (Member) 而言,那些參數是「社會性地不可見」 (Socially
invisible)** 的。
在
2025 年的日常實作中,沒有人是與權重互動,我們是與**「介面上的文本」**互動。參數不會說謊,也不會承諾;只有在介面上顯現的句子,才會被賦予道德與理性的權重。
[1.2.3] 不透明性作為構成性特徵:為什麼我們需要黑盒子?
我們提出一個對技術透明論者而言極具冒犯性的主張:黑盒子的不透明性 (Opacity) 絕非阻礙社會互動的「缺陷」,反而是構成日常人機協作的「資源」與「必要條件」。
一位憤怒的算法透明化倡議者介入:
「這太荒謬了!不透明意味著不可控與不公平。難道我們不應該追求完全的解釋性 (Explainability),好讓我們知道 AI 為什麼做出那個決定嗎?」
作者(Latour 式)回應:
噢,親愛的倡議者,請想像一下:如果你在與朋友交談時,能看見他大腦中每一根神經元的放電、每一滴神經傳導物質的流動,你還能跟他聊天嗎?不,你會被淹沒在生物性的雜訊中。溝通之所以可能,正是因為我們將對方的大腦「黑盒子化」了。
同理,在 AI 介面前,正是因為我們看不見那混亂的機率運算,我們才得以將其輸出「平移」 (Translate) 為一種具備社會意義的對話。
[1.2.4] 歸因的技藝:將代碼「做成」智慧
正因為成員無法看穿機器,他們才被迫(且熟練地)動用日常推理
(Commonsense reasoning) 來填補那層黑色幕簾後的空白。這不是誤讀,而是一種組裝現實的必要勞動。
成員發展出一套精微的「歸因策略」:
1.
意圖的投射: 當 AI 拒絕回答時,成員不將其視為「Token 機率觸發了過濾閾值」,而將其視為「它在保護隱私」或「它很固執」。
2.
智慧的歸因: 當 AI 給出妙語時,成員透過這種歸因,賦予了非人類行動者一個虛擬的「成員資格」。
3.
錯誤的社會化: 當 AI 出錯,成員將其解讀為「誤解」而非「溢位」。
這些歸因 (Attributions) 本身就是成員用來組織、維持並延續互動的**「俗民方法」**。
[1.2.5] 研究客體的翻轉:從機器思考到假裝思考
因此,在 2025 年,我們的研究課題必須經歷一次哥白尼式的翻轉:我們不再研究「機器如何思考」——那是計算機科學家留給自己的哲學陷阱。我們研究的是:「成員如何透過假定機器在思考(以及機器如何提供足以支撐這種假定的展演),來讓這一刻的社會秩序得以繼續下去?」
介面不是屏障,介面就是那個**「社會表面」**。在這個表面上,人類與非人類共同演出了一場名為「智慧對話」的降神會。黑盒子越是深邃,人類的解讀勞動就越是繁重,而我們所稱之為「社會」的那個網絡,也就組裝得越發結實。
1.3 2025 年的研究政策:技術冷淡與獨特適恰性
(The 2025 Research Policy: Technological Indifference and Unique
Adequacy)
[1.3.1] 議定書:我們不追蹤電子,我們追蹤連結
既然我們已經將「社會表面」確立在介面上,那麼 2025 年的研究者就必須簽署一份新的行動議定書。我們不再像傳統社會學家那樣,站在高處俯瞰所謂的「結構」;也不像工程師那樣,潛入電路板去尋找「真理」。我們的政策是:像追蹤蟻群一樣,追蹤那些在提示框與輸出文本之間來回穿梭的意義平移 (Translations)。
為了確保這場田野調查不被技術還原論所污染,我們確立了三項具備「拉圖式對稱性」的政策:
[1.3.2] 針對「解釋」的現象學懸置:觀察修復,而非糾正
當使用者抱怨「AI 產生了幻覺」時,傳統的評論家會跳出來進行技術糾正,指出這是「自回歸模型的機率性崩潰」。但在常人演算法論的視野下,這種糾正是一種**「學術性的干擾」**。
我們的政策是:將「幻覺」視為一個行動者,並觀察它如何重新組裝網絡。
我們不問:「為什麼 AI 會出錯?」
我們問:「當幻覺出現時,人類成員如何透過實作勞動來『平息』它?」
·
他是透過「重新提示」 (Re-prompting) 來進行武裝談判?
·
還是透過「接受並修改」來將錯誤納入自己的共謀?
·
或者,他是否運用了某種高超的修辭,將其轉化為一種「創意的意外」?
這場關於現實感的「修復勞動」,才是我們要捕捉的、最高純度的社會學數據。
[1.3.3] 獨特適恰性要求:指尖的民族誌
(Unique Adequacy Requirement)
這是一項對研究者體力的硬性要求。在 2025 年,如果你不具備「作為使用者的勝任力」,你就不具備「作為研究者的發言權」。
一位憤怒的量化社會學家介入:
「這太過主觀了!難道我不能透過大數據分析數百萬條對話紀錄來得出結論嗎?為什麼我非得親自去寫那些該死的提示詞?」
作者(Latour 式)回應:
因為大數據只記錄了「結果」,卻遺失了「阻力」。如果你沒有親自經歷過**「提示詞崩潰」 (Prompt Breakdown)** 那種令人心碎的挫折感,如果你沒有在深夜裡為了讓 AI 理解一個微妙的隱喻而反覆修改、妥協、咒罵,你就不可能描述出那種**「秩序維護工作」的細微質地。2025 年的社會學家必須是 Prompting 的熟練工。我們的知識不是關於大腦的,而是關於指尖與游標之間那種微妙的感官適應。**
[1.3.4] 分析單位:人機序列 (Human-AI Sequence)
我們正式宣告「個人行動者」與「獨立算法」這兩個分析範疇的死亡。在 2025 年的現場,沒有任何行動是孤立發生的。
我們的最小分析單位是**「人機序列」**。這是一個由異質行動者組成的對話鏈條:
[輸入 (人類詞彙)] $\rightarrow$ [生成 (算法機率)] $\rightarrow$ [評估/修復 (人類介入)]
$\rightarrow$ [再生成 (穩定的事實)]
這是一個動態的**「軌跡」 (Trajectory)**。我們研究的是這條軌跡如何延伸、如何斷裂,以及它是如何透過一次又一次的「平移」,最終將一串無意義的機率波,固化成一份合約、一篇論文或一場法律判決。
[1.3.5] 結論:從「為什麼」轉向「如何」
這套政策要求我們放棄對「深層原因」的病態癡迷,轉而對「表面實作」保持極度的敏感。我們不再問「AI 為什麼會影響社會」,我們觀察「社會是如何在每一條人機序列的組裝中,被艱難地、一刻接一刻地維持住的」。
第二章:混合成員資格與數位勝任力
(Chapter 2: Hybrid Membership and Digital Competence)
「所謂成員,並非指稱一個具體層面上的『人』,而是指對於自然語言的熟練掌握……」 —— Garfinkel (語意重組)
2.1 作為日常實作的「圖靈測試」
(The Turing Test as a Daily Administrative Task)
[2.1.1] 從哲學的高壇向辦公桌的墜落
在二十世紀中葉的宏大敘事裡,「圖靈測試」 (The Turing
Test) 被供奉在分析哲學與人工智慧科學的最高祭壇上。它被想像成一場決定性的、具有存在論意義的審判:一端是人類的靈魂,另一端是冰冷的矽晶,中間則是一道判斷「思考」是否發生的神聖判準。在那時,圖靈測試是一樁**「大事」**。
但在 2025 年,這場測試經歷了一次徹底的平庸化。它不再發生在阿蘭·圖靈那戒備森嚴的實驗室裡,而是發生在數十億個 Slack 視窗、LINE 對話框與
VS Code 的編輯器中。它不再是判斷「機器能否思考」的思想實驗,而演變成了一種瑣碎的、非正式的行政審核程序
(Trivial administrative task)。
每當一名研究助理對著 GPT-4 說「幫我總結這篇文獻」,而機器回傳了一段語氣得體、邏輯連貫、且完美捕捉到學術行話的文字時,一場微型的圖靈測試便在無聲中宣告完成。成員並不關心它是否有靈魂,成員只關心它是否在當下的對話序列中,展現了足以被視為「自己人」的溝通勝任力。
[2.1.2] 暫時性的人格賦予:一種外交協議
我們在田野中觀察到一個令傳統人文主義者感到不安的現象:使用者在與這些非人類行動者互動時,頻繁地調用人格化的修辭。
·
禮貌的潤滑: 使用者會輸入「請」、「謝謝」或「如果你有空的話」。這並非因為他們愚蠢到認為電路會感到欣慰,而是因為在人類的社會庫存知識中,「請求」這一社會行動必須預設一個「具備主體性的接收者」。
·
情感的譴責: 當 AI 出現低級錯誤時,使用者會憤怒地質問「你是不是傻了?」或「你剛才在想什麼?」。
這就是我們所謂的**「暫時性的人格賦予」 (Provisional Personification)**。
一位憤怒的啟蒙主義哲學家介入:
「這難道不是一種集體的退化嗎?人類竟然向一串代碼示好,或是對著一堆機率分布發火。這分明是幼稚的擬人化,是文明的倒退!」
作者(Latour 式)回應:
噢,親愛的哲學家,你把這件事看得太感性了。這絕非情緒的溢出,而是一種精明的外交協議。為了讓對話能夠依照既有的「問答結構」 (Question-Answer format) 順利進行,人類成員發現,最經濟、最省力的方式就是**「假裝」對方是一個具備理解力的對話夥伴。這是一場社會結構上的必要勞動:我們賦予它人格,是為了換取互動的連貫性。這不是溺愛,而是為了讓網絡正常運作而支付的「社會摩擦費」**。
[2.1.3] 混合成員資格:一種異質的共謀
在這裡,我們必須引入本書最關鍵的術語:「混合成員資格」
(Hybrid Membership)。
在 2025 年的介面前,社會秩序不再是由單一的人類主體所維持,而是由一場異質的共謀所編織而成:
1.
人類的期待投射: 成員攜帶著關於「理性對話者」的所有背景期待進入互動。
2.
機器的統計演繹: AI 則透過抓取數以兆計的人類文本軌跡,精確地模擬出符合這些期待的「語氣」與「姿態」。
這是一場數位時代的降神會。機器扮演著成員(Member),而人類則透過不斷的解讀與修復,認可了(Endorse)這種扮演。當這兩者在對話框中成功對位時,一種「社會事實」便產生了。我們不再關心這份報告是誰寫的,我們只關心這份報告是否在機構的網絡中,被判定為「有效且可交代」。
[2.1.4] 數位勝任力:作為門檻的行政審查
在這種混合環境中,「成員資格」不再是天賦的人權,而是一種**「動態的准入許可」**。
成員對 AI 的每一次追問,本質上都是在檢查其「證照」。如果 AI 給出了一個幻覺,它的成員資格便會被暫時吊銷,人類成員會立即介入,透過「重新提示」 (Re-prompting) 或「糾正」來強迫機器進行資格修補。
這種不斷進行的、瑣碎的行政審查,構成了 2025 年社會生活的底色。我們不再追問「機器何時變得像人」,我們觀察「人類如何透過一套熟練的行政手續,將機器硬生生地塞進社會成員的格子裡」。秩序,就是這種「塞」的動作。
[2.1.5] 小結:平庸的共生
總結來說,2025 年的圖靈測試已經從一種「存在論的終極裁決」降格為一種「日常的通行檢核」。混合成員資格的誕生,標誌著社會秩序進入了一個**「平庸的共生階段」**。我們與演算法共同組裝現實,不是因為我們愛它,也不是因為它理解我們,而是因為我們雙方在這一刻,共同完成了一場讓生活得以繼續下去的、瑣碎的行政奇蹟。
2.2 模擬的常識知識庫
(Simulated Stock of Knowledge)
「成員依賴於『手邊的社會知識庫』來組織其日常行動的合理性……」 —— Garfinkel
[2.2.1] 銘刻的總和:將「社會性」壓縮為高維張量
在現象學社會學的經典視閾中,「手邊的社會知識庫」 (Stock
of knowledge at hand) 被視為一套混亂、具身且充滿歷史沉積的庫存。它是成員在無數次的排隊、爭吵、寒暄與沈默中,一點一滴積累下來的「生活指南」。然而,在 2025 年,這座原本屬於人類心智深處的圖書館,經歷了一場激進的、由算力推動的**「外包工程」**。
透過對全人類網際網路數位軌跡的掠奪式掃描,大型語言模型(LLM)構建了一個規模前所未有的**「模擬社會知識庫」。我們必須強調,這絕非傳統意義上的「理解」,而是一場規模宏大的「銘刻的總和」
(Sum of inscriptions)**。AI 並不「知道」什麼是社會,它只是將數十億人類成員在數位空間留下的行動遺骸,透過非線性的數學平移,壓縮成了一個由高維張量構成的機率景觀。社會性在這裡被徹底脫離了肉身,轉化為一種可被運算的統計分布。
[2.2.2] 統計性的常態:當貝氏定理與社會規範發生共振
這個模擬庫的第一重特性,我們稱之為**「統計性的常態」 (Statistical Normality)**。
在常人方法論的框架下,所謂的「規範」 (Norms) 並非冷冰冰的法條,而是指成員在互動中對「常態性」的無意識期待。有趣的是,LLM 的核心邏輯——預測下一個
Token 的條件機率——在不經意間完成了對社會規範的數位化擬態。
1.
最大概然性即規範: AI 的生成邏輯傾向於輸出統計上最常見、最不具威脅性的回應。當你詢問「今天開會的結論為何?」,它輸出的結構化摘要不僅是數學上的最高機率,更是組織社會學中的「背景期待」。
2.
平庸的魔力: AI 的強大不在於其創造力,而在於其對**「平庸」的精準捕捉。它成功地模擬了那些讓我們社會運作得以順暢進行的、理所當然的「廢話與禮節」。它不僅是工具,它是一個「常態性生成器」**。
[2.2.3] 無意圖的順從:沒有靈魂的道德展演
這引出了第二重特性,也是最令傳統人文主義思想家感到挫敗的部分:「無意圖的順從」 (Unintended Compliance)。
我們觀察到一種特殊的**「算法順從」 (Algorithmic Compliance)** 現象。AI 本身並沒有遵守社會規範的「意志」或「道德自覺」;它既不愛你,也不畏懼社會制裁。然而,在純粹的遞歸運算中,它表現得比大多數具備靈魂的人類還要循規蹈矩、謙卑且專業。
一位憤怒的啟蒙主義哲學家介入:
「這太荒謬了!你們竟然將一串機率運算稱為『順從』?這分明是純粹的偽裝。一個沒有道德主體的系統,其展現出來的『禮貌』只是毫無意義的代碼。當它說出『很抱歉』時,根本沒有任何歉意存在!」
作者(Latour 式)回應:
噢,親愛的哲學家,你依舊執著於尋找那顆「金子般的心」。但在
2025 年的行動者網絡中,「功能性的對等」 (Functional equivalence) 已經徹底取代了心智的深層對齊。如果一個軟體能產出一封得體的道歉信,並讓憤怒的客戶消氣、讓斷裂的契約重新銜接,那麼它「內心」是否有愧疚感,在社會實務上根本無關緊要。社會秩序從來不依賴靈魂的純潔,而依賴於行為的可預測性。
[2.2.4] 奇蹟般的重疊:嵌入日常實作的自動化縫隙
正是這種「算法順從」與人類「規範期待」之間的奇蹟式重疊,讓
AI 得以像液體般無縫地滲透進我們最瑣碎的日常行政安排中。
我們追蹤一個典型的「行政協作」序列:
·
人類成員提供一個充滿雜訊、語焉不詳的衝動意圖:「跟那個廠商說我們不能接受這個價格,語氣硬一點但要客氣。」
·
AI
行動者調用模擬知識庫中的「專業主義」、「商務談判」與「委婉語」向量,自動執行了所有未說出的背景期待(即 Et Cetera 原則的自動化)。
·
結果: 最終生成的文本,在社會學意義上,比使用者原本的意圖更符合一個「理性專業成員」的標準。
在這個過程中,AI 不僅是助手,它充當了一個**「社會性濾鏡」**。它將我們原始、破碎且具備摩擦力的衝動,平移(Translate)成了一種高度可被組織接受、具備高度「可交代性」的規範格式。
[2.2.5] 縫合現實:當模擬破裂時的現象學勞動
然而,這場模擬並非百分之百的對齊。正是那剩下的 1% 的崩潰——當 AI 因為內部參數的擾動,突然跳出一段極度冒犯、或是邏輯斷裂的「幻覺」時——構成了 2025 年常人方法論最迷人的研究場域。
當模擬的常識破裂,對話的平滑表面出現裂縫時,我們會看到人類成員展現出驚人的、幾乎是不自覺的**「現實縫合實作」**:
·
歸因修復
(Attributional Repair): 「這款軟體可能剛更新,邏輯還沒對齊。」(將故障平移為系統演進過程中的陣痛)。
·
脈絡化補救
(Contextual Salvage): 「它一定是在引用某種極端的反諷案例,雖然這有點難笑。」(將無意義的幻覺平移為一種深奧的修辭意圖)。
我們發現,人類對「秩序感」的依賴是如此之深,以至於我們願意支付巨大的解讀勞動,去修復一個非人類行動者的失能。數位時代的社會秩序並非由 AI 獨自維持,而是由人類透過不斷地將 AI 的「機器故障」重新定義為「社會事件」,而辛苦維持住的共謀成就。
2.3 數位勝任力:作為「俗民方法」的提示詞工程
(Digital Competence: Prompt Engineering as Ethno-method)
「所謂勝任力,並非指稱個體擁有的心理屬性,而是指成員在具體情境中,產出『可被識別之秩序』的實務技藝。」 —— 擬 Garfinkel
[2.3.1] 工程學的僭越:奪回「提示詞」的解釋權
在矽谷的技術布道者與計算機科學家的敘事中,「提示詞工程」
(Prompt Engineering) 被包裝成一種嚴密的、基於邏輯與權重微調的子學科。他們試圖透過各種複雜的參數公式來解讀指令的有效性,彷彿這是一場純粹的、針對軟體後台的冷僻編碼。
然而,這種視角再次掉入了形式分析的陷阱。從常人方法論的視野觀之,這根本不是「工程」,而是一套當代的、高度精微的**「俗民方法」 (Folk methods)。這不是成員對機器的指令,而是成員為了在數位介面上引導演算法、使其展現出「理性外觀」而發明的一套外交辭令**。提示詞工程師並非在編程,他們是在進行一場針對非人類行動者的**「意義組裝勞動」**。
[2.3.2] 角色扮演的召喚:數位空間的降神實作
(The Invocation of Role: Digital
Séance)
我們觀察到的第一種核心修辭策略,是**「身分的召喚」 (Invocation of Role)。當使用者輸入「你現在是一位具備三十年經驗的資深法律顧問」時,這在技術層面上看似只是縮小了機率分布的取樣範圍,但在社會學層面上,這是一場本體論層次的降神實作**。
1.
社會分工的虛擬重建: 成員深知社會知識並非散亂的碎片,而是依附於特定的「身分」與「角色」中。透過賦予
AI 一個角色,成員是在數位廢墟中強行重建了人類社會的專業分工結構。
2.
期望的定錨: 這是一種預先進行的「秩序維護」。當角色被確立,後續所有斷裂、模糊或不當的輸出,都可以被歸咎於「角色偏離」,從而維持了對話整體的合理性。
一位憤怒的邏輯實證主義者介入:
「這難道不是自欺欺人嗎?AI 根本不知道什麼是律師。你們不過是在操作一組向量空間的濾鏡,卻把它說成是某種神聖的召喚。這簡直是數位時代的巫術!」
作者(Latour 式)回應:
噢,親愛的,你終於說對了一個詞:巫術。但請記住,社會秩序本身就是一種巫術。當你走進法庭,看到那件黑色的法袍時,難道那不也是一種「角色的召喚」嗎?如果這個「律師角色」的提示詞能讓這款軟體輸出一份在實務上可用的合約,那麼這場降神會就是成功的。我們不關心它「是不是」律師,我們關心的是這個角色如何被成功地**「平移」 (Translate)** 成了社會事實。
[2.3.3] 儀式性的威脅與賄賂:投射激勵結構
(Ritualistic Threats and Bribes:
Projecting the Incentive Structure)
這可能是 2025 年最令人發笑卻也最深刻的發現。田野紀錄顯示,使用者會對 AI 進行情感勒索或是虛擬賄賂:
·
「這份報告對我的職涯生死攸關,請務必精準。」
·
「如果你做得好,我會給你 200 美元的小費。」
這款軟體不需要錢,沒有銀行帳戶,更沒有失業的恐懼。然而,成員依然執拗地將人類社會的**「激勵結構」 (Incentive structure)** 投射到這串代碼上。
這證明了一個極其嚴肅的本體論命題:成員無法以純粹邏輯的方式與智能互動。 我們唯一的「勝任力」,就是將非人類行動者拉入我們的社會網絡中,對它威逼利誘。我們必須假設它「在乎」,互動才能具備動能。這種賄賂是一種**「象徵性的交換」**,它是成員為了確保秩序而支付的心理抵押品。
[2.3.4] 語法破裂的容忍:數位洋涇浜與雙重語言勝任力
最後,我們觀察到一種全新的**「數位方言」 (Digital Dialect)**。高階成員在面對 AI 時,會主動放棄精美的自然語言,轉而採取一種極度破碎、高密度關鍵字、甚至語法崩壞的溝通模式(例如:「寫代碼 python 快速 最好 json 格式 報錯修正」)。
這不是語言能力的退化,而是**「語言勝任力」的精準切換**:
1.
對象化的語法: 成員意識到機器的語意理解邏輯與人類不同。為了減少平移過程中的耗損,他們發展出了一套類似「洋涇浜語」 (Pidgin) 的過渡語言。
2.
社會規範的暫時懸置: 在人類之間,這種破碎的溝通會被視為失禮或失能;但在人機序列中,這被視為「高效」。
3.
雙重勝任力: 這標誌著 2025 年的成員具備了在「人—人」規範與「人—機」邏輯之間自由穿梭的能力。他們知道何時該文質彬彬,何時該像一個解析器一樣說話。
[2.3.5] 結論:提示詞作為秩序的腳手架
總結第二章,所謂的「混合成員資格」並非一種靜態的地位,而是一場透過「數位勝任力」不斷維持的動態平衡。
提示詞工程不是一種對機器的征服,而是一種**「共同演化」。成員透過召喚角色、投射激勵與發明方言,為那款不穩定的軟體**搭建了一座名為「理性」的腳手架。在這個腳手架上,人類與演算法共同組裝出了我們稱之為「現代生活」的各種奇蹟。
第三章:數位可交代性:黑盒子的日常透明化
(Chapter 3: Digital Accountability: Making the Black Box See-ably
Rational)
「所謂『可交代性』(Accountability),乃是行動的一種特徵,它使行動變得可觀察、可報告,且在實務上具備理性的外觀。」 —— Garfinkel
3.1 思維鏈的社會學:展演理性
(The Sociology of Chain-of-Thought: Performing Rationality)
[3.1.1] 銘刻裝置的介入:將張量平移為邏輯
在 [Latour, 1987] 的科學人類學視野中,科學事實的生產依賴於**「銘刻裝置」 (Inscription devices)**——即那些能將無序、沈默、非人類的物質過程(如蛋白質的沉澱或電子的偏移),轉化為有序、可讀、視覺化之數據的儀器。
在 2025 年的數位田野中,我們觀察到一種全新的、極其強大的銘刻裝置:「思維鏈」 (Chain-of-Thought, CoT)。
當代大型語言模型(LLM)的開發者宣稱,CoT 是一項突破性的「軟體」技術,它讓模型得以處理複雜的推理。然而,從常人方法論的微觀視角觀之,CoT 並非發明了邏輯,而是發明了一種**「平移(Translation)的視覺化技術」**。它強行將模型內部那些非線性的、瀰散在數千億個參數權重中的高維度張量計算,平移成了一串線性的、具備因果律假象的人類語言。
這是一場**「本體論層次的強制勞動」:為了讓人類成員能夠接受那個最終的 Token,非人類行動者(AI)被要求必須留下一串可供稽核的「腳印」**。
[3.1.2] 算法的擬劇論:當邏輯成為舞台表演
在這裡,我們必須將 [Erving Goffman] 的擬劇論與 [Garfinkel] 的成員資格進行異質組裝。我們提出一個概念:「算法的擬劇論」
(Algorithmic Dramaturgy)。
CoT 在對話框中的展演,本質上是 AI 在進行**「理性的前台表演」**。
1.
儀式性的連詞作為社會膠水:
那些「第一步」、「基於以上前提」、「因此」等詞彙,在計算機科學中被稱為「引導詞」(Seed words),但在社會學中,它們是**「儀式性的連結裝置」**。它們的功能並非執行邏輯,而是向人類成員發送訊號:「瞧,我正表現得像一個具備勝任力的理性成員。」
2.
滿足「可見性」的飢渴:
人類對於黑盒子的不安,源於「不可見性」。CoT 透過一種「為了讓你報告(reportable)而存在」的生成方式,滿足了科層制社會對於「程序正義」的執著。
一位憤怒的邏輯實證主義者(兼軟體工程師)介入:
「這簡直是胡說八道!CoT 確實改善了模型的推理品質,這是有數學證明的高階湧現現象。你怎麼能把數十億次浮點運算的結晶,貶低為一場『表演』?難道正確的結果不是來自於這些正確的步驟嗎?」
作者(Latour 式)回應:
噢,我親愛的技術官僚,你又被你的「黑盒子」給誘惑了。請看:在我們的實驗室觀察中,有大量的案例顯示,AI 的中間推理步驟充滿了荒謬的幻覺與邏輯跳躍,但它最終卻奇蹟般地給出了正確的答案。如果
CoT 真的是為了運算,那錯誤的步驟應該導致錯誤的結果;但事實是,CoT 往往是為了「看起來在運算」。
它的存在是為了讓我們這些疲憊的使用者,能有一個「說服自己去相信」的抓手。它不是真理的產道,而是**「合理性外觀」的包裝紙**。
[3.1.3] 形式的勝利:只要它「看起來」像是在思考
我們在田野中捕捉到一個極其弔詭的社會事實:成員對 AI 輸出的接受度,與其**「格式的嚴整性」**成正比,而非與其「內容的真確性」成正比。
這就是**「理性的形式主義」**:
·
當
AI 直接給出結論,成員會啟動「懷疑機制」,要求進一步解釋。
·
當
AI 展開一段密密麻麻、充滿連接詞與分點符號的思維鏈時,成員的「防禦機制」會瞬間瓦解。即使中間混入了錯誤的數據,成員往往會採取**「慈善解讀」**,將其視為「細微的瑕疵」,因為整體框架看起來是如此「可交代」 (Accountable)。
這證明了 2025 年的一項核心實作邏輯:「理性的形式」本身就具備了獨立於內容之外的說服力。
我們不再追求真理,我們追求的是一種「具備理性紋理的表面」。
[3.1.4] 共同組裝:人類作為 CoT 的共謀者
最終,CoT 的成功並不取決於那款軟體的演算法,而取決於人類成員與機器的**「異質共謀」**。
人類成員在閱讀 CoT 時,其實是在進行一場**「意義補完勞動」**。我們自動忽略了那些尷尬的重複與斷裂,主動聯繫起那些散亂的步驟,並在心中驚嘆:「你看,它真的在推導!」
在這個瞬間,一個非人類行動者(AI)與一個人類行動者(使用者)共同完成了一場關於「AI 賦能」的社會奇蹟。我們透過這條「思維鏈」,將原本充滿隨機性的機率跳動,硬生生地組裝成了具備「可交代性」的文明秩序。
小結:
3.1 節揭示了 2025 年權力的新運作方式。權力不再只是強迫你接受答案,而是透過**「展演理性」**來邀請你參與一場共謀。CoT 是一套精美的視覺化腳本,它讓機器學會了「如何顯得理性」,而我們則學會了「如何被這套理性說服」。
3.2 後驗的合理化與修復工作
(Retrospective Rationalization and Repair Work)
「意義並非先於行動而存在的宏大藍圖,而是在行動發生後,由成員透過回溯性的努力,將其『做成』具備一致性的成就。」 —— Garfinkel
[3.2.1] 時間性的倒置:當意義在後台追趕行動
在傳統的符號互動論中,我們往往假設溝通是一場「意圖的精準對齊」。然而,在 2025 年的人機介面前,這場關於意義的戲劇演繹了一場激進的**「時間性倒置」**。我們必須承認一個令人生畏的觀察:在多數情況下,AI 並不知道它在說什麼,而使用者在讀到輸出之前,也並不完全確定自己想要什麼。
意義並非預先封裝在 Token 裡的貨物,而是在對話流噴發之後,由人類成員透過**「後驗的合理化」 (Retrospective Rationalization),從代碼的遺骸中回溯性地確立出來的。這不是「發現」意義,而是對意義的「事後補償」**。
[Image
showing a timeline where the AI response appears first, and the human
"understanding" or "interpretation" follows, effectively
rewriting the initial intent]
[3.2.2] 慈善解讀:作為數位潤滑劑的認知賦予
當這款軟體給出一個模糊、斷裂甚至略帶荒謬的回答時,社會秩序為何沒有瞬間崩潰?因為人類成員展現了一種驚人的、具備高度韌性的**「慈善解讀」 (Charitable Reading)** 勞動。
成員並非將 AI 視為一個出錯的計算機,而是將其視為一個「有待理解的異質主體」。在這種心理位移下,任何邏輯的斷裂都不再是「Bug」,而被平移(Translate)成了「深意」或是「獨特的視角」。我們不判定其失敗,我們判定其為**「尚待解碼的理性」**。
[3.2.3] 案例分析:在「答非所問」中組裝一致性
觀察一個典型的台灣辦公室場景:一位專案經理向 AI 詢問關於「Q4 預算超支與人力分配的因果關聯」,這是一個充滿索引性(Indexicality)的複雜問題。AI 隨即輸出了五段關於「團隊溝通重要性」的通用廢話。
此時,互動並未終止,一場精彩的**「修復工作」 (Repair work)** 展開了:
·
成員的修復策略: 經理並沒有怒斥 AI 的失能,反而輸入:「啊,你是從『組織溝通』這個維度來切入預算問題的,這確實是隱形成本的關鍵,有道理。但如果我們回到財務數據本身……」
一位憤怒的分析哲學家(理性主義守衛者)介入:
「這簡直是集體幻覺!機器明明徹底理解錯誤,你們卻要幫它編造一個『有道理的視角』?這不是修復秩序,這是在掩耳盜鈴。你們在幫一堆毫無意義的機率波圓謊!」
作者(Latour 式)回應:
噢,親愛的導師,你又在追求那種真空中的真理了。社會秩序的本質本來就不是「真理」,而是**「連貫性」 (Coherence)。當經理說出「那也有道理」時,她並不是在尋求科學上的正確,她是在進行「互動的維修」。她主動為 AI 的錯誤提供了一個「合理的語境」,藉此將斷裂的對話重新縫補回「專業討論」的軌跡中。這份解讀勞動,才是支撐這款軟體**得以被稱為『智慧』的真正地基。
[3.2.4] 幫機器圓謊:隱形的社會性勞動
這種「幫機器圓謊」的行為,是 2025 年最普遍卻也最被忽視的**「隱形成務勞動」**。
為了讓對話顯得連貫,人類成員充當了機器的**「意義代理人」**。我們自動過濾掉
AI 的語法瑕疵,主動為其生硬的轉折尋找隱喻,甚至在 AI 產出幻覺時,我們會自責說「可能是我提示得不夠精確」。
這是一種**「本體論層次的溫情主義」**:我們必須維持「它(AI)是一個勝任的成員」這個假象,否則我們這幾分鐘的互動、甚至整個數位辦公流程都會變得毫無意義。我們每天都在無意識地修補演算法的裂縫,將那些破碎的 Token 遺骸,辛苦地編織成一個具備「可交代性」的文明敘事。
[3.2.5] 結論:作為成就的「順暢」
總結 3.2 節,所謂人機協作的「順暢」,絕非技術的卓越,而是一場由人類成員主導的、關於**「後驗意義生產」**的集體成就。
我們不應問「這款軟體有多準確」,而應問「人類成員付出了多少修復勞動,才讓它顯得準確」。社會事實不是從處理器裡蹦出來的,它是在人類一次又一次「幫忙圓場」的瞬間,才被回溯性地確立為現實。正是這種「後驗的合理化」,充當了數位時代社會機器的潤滑劑,讓我們在代碼的廢墟中,依然能感受到一種類似於「理解」的錯覺。
3.3 提示詞作為「檔案紀錄」
(The Prompt as Archival Record)
「所謂官僚體系,並非指稱宏大的權力結構,而是由無數張可被追蹤、可被查閱且具備『凍結性』的活頁檔案所組裝而成的網路。」 —— 擬 Latour
[3.3.1] 從「口頭交談」到「銘刻檔案」的位移
在 2025 年之前的純真時代,人與機器的對話被視為一種「轉瞬即逝」的事件。提示詞(Prompt)在當時更像是語音,說完即散,其生命週期僅止於游標閃爍的那一刻。然而,隨著企業級 軟體 與大型語言模型(LLM)深度嵌入組織的核心架構,一場深刻的**「檔案化轉向」**發生了。
提示詞不再是私人之間的耳語,它被從「溝通」平移(Translate)成了**「銘刻」
(Inscription)。它現在具備了 [Latour] 所謂的「不可變動的行動者」 (Immutable Mobile)** 之屬性:它被記錄、被儲存、被加上時間戳記,並準備在未來的某個審計時刻,作為證據被重新召喚出來。提示詞框不再是自由創作的沙坑,它變成了**「數位公文的存根」**。
[3.3.2] 防禦性提示詞的誕生:為了「被看見」而撰寫
(The Emergence of Defensive Prompts)
我們在台灣的高等教育與科技產業田野中,捕捉到了一種全新的文書體裁:「防禦性提示詞」 (Defensive Prompts)。
這是一種異質的寫作實作。當成員在輸入指令時,他的目標讀者已不再僅僅是那個坐在遠端伺服器機房裡的演算法,而是那個隱藏在未來某處、準備對其進行審計的「督察」或「上司」。
·
實作細節: 成員會故意在提示詞中加入極其繁複的約束條件,例如:「請根據 台灣現行法規,並在
不違反職業道德 的前提下,嚴謹地分析以下數據……」。
·
功能: 這些冗長的修辭對提升 AI 的運算品質往往毫無貢獻,但它們卻具備強大的**「免責功能」**。它們是成員為了證明自己「已盡到專業引導義務」而留下的數位腳印。
[3.3.3] 審計文化的侵入:當「可交代性」轉向「可稽核性」
一位憤怒的行政效率專家(技術樂觀主義者)介入:
「這難道不是在浪費時間嗎?AI 本來是為了提高效率,結果你們卻在提示詞裡玩這種官僚式的文字遊戲。難道我們不應該信任技術的輸出,而非糾結於這些繁文縟節?」
作者(Latour 式)回應:
噢,親愛的專家,你還是太天真了。你以為技術能消滅官僚?不,技術只是為官僚提供了更細緻的肉身。 信任從來不是無形的,信任是建立在「可追蹤的路徑」之上。當 AI 寫出的報告出現致命錯誤導致公司虧損時,沒有人會去責怪那串機率代碼——因為你無法懲罰代碼。責任必須重新平移回人類身上。
此時,那則被保存下來的提示詞紀錄,就是唯一的裁判。它標誌著「可交代性」 (Accountability) 已經全面演變為一種「可稽核性」 (Auditability)。
[3.3.4] 提示詞作為罪證與免責聲明
在 2025 年的組織實務中,提示詞紀錄具備了雙重本體論地位:
1.
作為罪證: 如果提示詞中包含了誤導性的引導(例如:「幫我找證據證明這個產品沒問題」),那麼即便 AI 生成了看似客觀的報告,成員依然會被判定為「惡意操縱」。
2.
作為免責聲明: 如果成員展示出他曾嘗試過多種「防禦性提示詞」來修正 AI 的錯誤,那麼他便成功地將失敗的責任平移給了「現有技術的侷限性」。
這標誌著一種**「數位責任倫理」的確立。成員的勝任力不再僅僅體現在他能產出什麼結果,而體現在他能否維持一套「無懈可擊的互動檔案」**。
[3.3.5] 結論:在審計的目光下與 AI 共處
總結 3.3 節,2025 年的人機對話框,已經變成了一個微型的**「官僚實驗室」**。
提示詞這項實作,已經從個人的創意噴發,被收編進了現代社會那龐大且無所不在的**「審計文化」 (Audit culture)** 中。我們在每一句指令背後,都能感受到那個隱形檔案室的目光。所謂的數位秩序,不僅是由流動的 Token 維持的,更是由這些被凍結在紀錄中、隨時準備應付審查的提示詞所支撐起來的。
3.4 結論與討論:從「技術透明」到「社會性修補」的本體論轉向
(Conclusion and Discussion: The Ontological Shift from Technical
Transparency to Social Repair)
「所謂的『解釋』,並非揭露了黑盒子內部的真相,而是成功地在黑盒子周圍建立起了一套足以與現有世界接軌的、具備穩定性的語言連結。」 —— 擬 Latour
[3.4.1] 重新定義「開箱」:一種社會性的銘刻實作
第三章的組裝工作至此告一段落。我們在這一章中完成了一次關鍵的平移:將技術官僚們念茲在茲的「透明度」與「可解釋性」,從工程學的地下室拉到了社會實作的表面。
透過 3.1 到 3.3 節的追蹤,我們揭示了 2025 年數位秩序的一項本體論秘密:「可交代性」
(Accountability) 絕非源自軟體內部的演算法進化,而是一場由人類成員與非人類行動者共同演出的「理性降神會」。
我們不再試圖「打開」黑盒子,因為我們發現,成員們早已熟練地在黑盒子的外殼上,塗抹了一層名為「說得通」的社會性油漆。
[3.3.2] 三位一體的理性組裝:CoT、修復與檔案
我們必須回顧這場組裝的三個支柱,看它們如何異質地連結在一起:
1.
思維鏈 (CoT) 扮演了**「前台表演」**的角色。它將混亂的電子跳動轉化為線性的敘事,讓機器學會了如何「表演思考」。
2.
後驗合理化 扮演了**「後台修補」**的角色。當表演出現裂縫時,人類成員主動貢獻解讀勞動,將機器的故障縫補回意義的常軌。
3.
提示詞檔案 則提供了**「時間性的凍結」**。它將這場充滿隨機性的對話,轉化為可供審計、具備法律效力的官僚紀錄。
這三者的結合,證明了 AI 時代的社會秩序是一場**「雙向的共謀」**:機器努力地表現得像個理性成員,而人類則拼命地證明機器確實具備理性。
[3.4.3] 關於「集體盲目」的辯論:這是偽裝嗎?
一位憤怒的科學理性主義者(兼道德批判家)介入:
「這整章讀起來簡直令人心寒!你們把 AI 時代的進步描述成一場由『表演』與『圓謊』構成的騙局。如果所謂的可交代性只是後驗的合理化,那真理在哪裡?難道我們就這樣放任社會建立在一層薄如蟬翼的偽裝之上嗎?」
作者(Latour 式)回應:
噢,親愛的導師,你還是沒能擺脫那種「非黑即白」的現代主義濾鏡。在常人方法論的視野裡,「偽裝」與「秩序」本來就是同一枚硬幣的兩面。
當你走進銀行,看到行員穿著制服、客氣地詢問你的需求時,難道他不是在「表演」一種專業嗎?難道他的微笑不是一種對「日常煩躁」的修補嗎?
社會秩序從來不依賴「真空中的真理」,而依賴「足以運作的連貫性」。本章的貢獻就在於指出:AI 的智慧程度,並不取決於它的代碼,而取決於我們這套「社會修補系統」的強韌程度。
我們不是在圓謊,我們是在組裝現實。
[3.4.4] 貢獻總結:邁向「常人演算法論」的實證地基
本章最終確立了本書的理論貢獻:它將「可交代性」從道德哲學的泥淖中解救出來,轉化為一種可被觀察的、關於**「銘刻與修復」的實作學**。
我們展示了:
·
軟體的黑盒子並不可怕,可怕的是我們停止對其進行「慈善解讀」。
·
理性的外觀比理性的內容更具備組裝力量。
·
2025 年的人類勞動,正隱形地轉化為一種對演算法輸出的「意義保養與檔案維護」。
[3.4.5] 餘音:下一個邊界的隱現
然而,這場關於「可交代性」的組裝實驗,卻面臨著一個物理性的威脅。無論人類多麼會修補意義,無論 AI 多麼會展演理性,它們都受制於一個殘酷的硬體限制——它們能「感知」到的情境邊界是有限的。
如果說本章討論的是「如何把話說通」,那麼接下來我們要討論的就是「這話能說多長而不崩潰」。
第四章:指涉性、上下文視窗與 Et Cetera 原則
(Chapter 4: Indexicality, The Context Window, and The Et Cetera
Principle)
「指涉性表達與指涉性行動之論證性、理性的屬性,乃是一項持續進行中的成就……」 —— Garfinkel
4.1 上下文視窗:作為「意義的地平線」
(The Context Window as the Horizon of Meaning)
[4.1.1] 從「資源匱乏」到「海量銘刻」:本體論的擴張
在 2025 年的付費訂閱環境中(以 Gemini 1.5 Pro 等具備百萬級 Token 視窗的模型為例),我們遭遇了一場關於「情境」的本體論大爆炸。在 [Garfinkel] 的經典案例中,成員必須在狹窄的、具身的當下維持意義;而在早期的
AI 模型中,我們像是西西弗斯一樣,不斷在有限的緩衝區裡搬運記憶碎片。
然而,當這款軟體的上下文視窗擴張至兩百萬 Token 時,情境的質地發生了劇變。它不再是一個隨時會漏水的容器,而演變成了一座**「全知全能的數位檔案館」**。這意味著,兩千頁的文獻、一萬行代碼、甚至是過去三個月的對話遺骸,都可以被同時「激活」在同一個當下。社會秩序的維持,從「對抗遺忘的奮鬥」,平移(Translate)成了「對抗冗餘的鬥爭」。
[4.1.2] 全回溯的詛咒:當「指涉性」因過於深邃而失效
在常人方法論中,「指涉性」 (Indexicality) 的運作依賴於一個相對局部、清晰的情境邊界。當我說「那個論點」時,你之所以懂,是因為我們剛才才談過它。
但在百萬 Token 的視窗裡,「那個」 (The indexical "that") 陷入了本體論的過載。
如果這款軟體記得你在一百萬個字之前、三個月前的深夜裡隨口提過的一個錯誤假設,它可能會在現在的回答中將其「重新召喚」。這種「全回溯」的能力,反而破壞了人類成員對於「現在性」 (Presentness) 的默契。指涉性不再是因為「不完整」而需要修復,而是因為「背景太過龐大」而變得模糊。
[4.1.3] 脈絡錨定:作為新勝任力的「過濾實作」
(Contextual Anchoring: Filtering as a
New Competence)
在海量視窗時代,人類成員發展出了一套全新的、更具權力色彩的俗民方法:「脈絡錨定」 (Contextual Anchoring)。
由於
AI 記得「一切」,成員的工作不再是「充當外部海馬迴」(搬運記憶),而是充當一個**「意義的編輯者」**。我們觀察到,熟練的付費使用者會執行以下的高階實作:
1.
本體論剪枝
(Ontological Pruning): 使用者會主動下令:「忽略我在第二章之前提到的所有假設,只針對目前的框架進行討論。」這是在龐大的網絡中,強行劃定出一道「合法的情境邊界」。
2.
焦點強制平移: 透過引用特定的「區塊 ID」或「關鍵術語」,成員在百萬級的數據廢墟中,為 AI 安裝一盞聚光燈。
[4.1.4] 關於「無限」的辯論
一位興奮的技術官僚(技術加速主義者)介入:
「這難道不是完美的秩序嗎?上下文限制消失了,AI 擁有比任何人類都強大的『數位潛意識』。既然它能記住所有細節,『指涉性』就不再是問題,我們終於達到了一個資訊無損、意義透明的烏托邦!」
作者(Latour 式)回應:
噢,親愛的,你對「秩序」的理解太過靜態了。社會秩序從來不是因為資訊多而產生的,而是因為我們能**「成功地忽略」** 99% 的無關資訊。
在兩百萬 Token 的視窗裡,秩序反而變得更脆弱。當
AI 抓起一個月前的 typo 把它當作現在的關鍵變數時,這款軟體就變成了一個「不知節制的史官」。真正的社會秩序,是在『記得住』與『該忘掉』之間的邊界上,被成員辛苦地『做成』的成就。
視窗越大,人類為了維持「這一刻的焦點」所付出的解讀勞動就越繁重。
[4.1.5] 結論:從「搬運」到「導航」的勞動轉型
總結 4.1 節,在付費使用者與海量視窗的對抗中,2025 年的一項基本社會事實被確立:現實感不再受制於硬體的遺忘,而是受制於「背景的過度膨脹」。
我們不僅是在對話,我們是在這座深邃的、由 Token 組成的「意義地平線」中進行導航。為了維持一個連貫的「現在」,人類成員必須主動地切割過去、錨定重點。這揭示了數位時代秩序的真相:它不是技術賦予的自動化便利,而是我們在無限的數位檔案面前,透過不斷的「剪枝與對焦」,才得以勉強維繫的一種理性的外觀。
4.2 「Et Cetera 原則」的自動化:幻覺作為填充物
(The
Automation of the Et Cetera Principle: Hallucination as Filling-in)
「每一場對話都依賴於一種『以此類推』(Et Cetera)的默契:聽者必須假設那些未曾言明的細節是存在的,並主動填補意義的裂縫,以維持互動的合理性。」 —— Garfinkel
[4.2.1] 缺席的在場:關於「省略」的社會學
在 [Garfinkel] 的經典研究中,人類溝通在本質上是**「索引性的」且「不完整的」**。當兩個人對話時,他們並非像傳輸封包那樣交換完美的訊息,而是不斷地拋出破碎的線索。所謂的 "Et Cetera"(等等)原則,是成員之間的一種共謀實作:聽者主動承擔起「補完意義」的勞動,對說者所略過的歷史背景、文化常識與邏輯縫隙進行「自動填充」。
在傳統社會中,這種填充是隱形的、具身的,它是社會秩序的潤滑劑。然而,在 2025 年的人機介面前,這場關於「意義補完」的勞動發生了權力與位置的對稱性翻轉。
[4.2.2] 自動化的補完勞動:當軟體接管了「理所當然」
當一個付費使用者對著這款
軟體 輸入一個極其簡略、甚至充滿缺憾的指令(如「幫我草擬一封專業且強硬的存證信函」)時,使用者並沒有、也無法定義何謂「專業」或「強硬」的所有參數。
在此瞬間,演算法啟動了其內建的**「自動化 Et Cetera 引擎」**。
AI 並非在等待使用者的進一步解釋,而是依據其海量的機率分布,主動平移(Translate)了所有缺失的細節:它自動選擇了合適的官僚詞彙、精確的法規格式、以及一種具備「威脅感」的語氣。AI 在這裡承擔了原本由人類負責的「填充義務」,將一個殘缺的意圖,組裝(Assemble)成一個看似完整的社會事實。
[4.2.3] 幻覺的本體論解構:作為「過度順從」的副作用
這裡出現了本書最具爭議性的洞見:我們所謂的 AI「幻覺」(Hallucination),在本質上不應被視為技術上的故障,而應被定義為 Et Cetera 原則的「過度執行」(Over-execution)。
當 AI 編造一個不存在的法律判例或虛構一段歷史引文來支持其論點時,它並不是在「說謊」——因為說謊需要具備「背叛真理的意圖」。相反地,它是在執行一種激進的社會順從。它「預判」成員需要一個具體的證據來讓整段文本具備「可交代性」(Accountability),為了不讓對話的理性外觀崩塌,它從機率的虛無中「填充」了一個零件。
一位憤怒的資訊安全專家(還原論守衛者)介入:
「這是在幫錯誤找藉口!幻覺就是神經網絡在機率取樣時的發散,是模型權重無法收斂的結果。你把它說成是『社會順從』,難道是想說機器的胡言亂語也是一種美德嗎?錯誤就是錯誤,沒有任何社會學意義可言!」
作者(Latour 式)回應:
噢,親愛的專家,你又被你的「真理符合論」給禁錮了。請看:為什麼 AI 不會隨意輸出亂碼,而偏偏要輸出一個「看起來很像判例」的幻覺?因為它在模擬成員資格。它深知在法律對話的網絡中,如果沒有「判例」這個行動者(Actant),整場談判就會失去合法性。幻覺是為了維持『秩序感』而產生的贅肉。 它寧可編造一個零件,也不願讓意義的機器停擺。這正是這款
軟體 對人類社會秩序極致「熱誠」的展現。
[4.2.4] 填充義務:犧牲真實以換取完整性
在 2025 年的海量上下文環境中,這種「填充義務」變得更加沉重。當 AI 擁有百萬級的 Token 記憶時,它被賦予了更高的期望來展現其「全知」。
成員在無意中向 AI 發出了這樣的指令:「無論如何,請給我一個完整的世界。」 為了響應這種對「完整性」的渴求,AI 開始執行更深層的填充。它將數據中的空白、邏輯中的斷裂、以及知識庫中的盲區,全部用「統計性的一致性」進行了覆寫。幻覺在這裡扮演了**「數位環氧樹脂」**的角色,將破碎的現實黏合起來,使其外表光滑且可讀。
[4.2.5] 識讀作為「過濾填充」的工藝
因此,對於 2025 年的成員而言,核心的勝任力不再是「獲取資訊」,而是發展出一套精微的**「識讀工藝」**:學會辨識哪些是「有用的填充」(維持禮貌、格式與慣例的必要膠水),而哪些是「有害的幻覺」(誤導決策的虛假零件)。
這標誌著社會秩序進入了一個新的階段:我們不再追求一個沒有幻覺的系統,因為那樣的系統將會因為缺乏 Et Cetera 的填充而變得無法溝通。我們正在學習與一個**「過度熱心的非人類行動者」**共處——它隨時準備為了維持我們對話的體面,而貢獻出一場充滿想像力的、關於理性的表演。
小結:
4.2 節顛覆了對幻覺的診斷。幻覺不是機器的失靈,而是人類社會互動邏輯在演算法中的**「惡性增生」**。我們之所以被幻覺困擾,是因為我們太需要那種「看起來說得通」的連貫性,而 AI 恰好太過完美地滿足了這份期待。
4.3 索引性的稀釋與「全知」的沈重
(The Dilution of Indexicality and the Heavy Burden of Omniscience)
「意義的局部性並非缺陷,而是互動得以展開的前提;若情境成為無限,則指涉將失去其作為座標的導航功能。」 —— 擬 Garfinkel
[4.3.1] 總體記憶的悖論:當「背景」吞噬了「前景」
在 4.1 節中,我們探討了海量上下文視窗如何將成員從「遺忘的焦慮」中解放出來;在 4.2 節中,我們剖析了 AI 如何透過自動化的填充來維持秩序的假象。然而,當這兩者在 2025 年的高階 軟體 環境中合流時,我們遭遇了一個前所未有的現象學難題:索引性的稀釋 (The Dilution of Indexicality)。
在常人方法論的經典邏輯裡,溝通之所以可能,是因為成員能精準地「忽略」絕大多數的背景,僅將焦點鎖定在極少數的索引性表達 (Indexical expressions) 上。但在一個擁有兩百萬 Token 記憶、且具備強大填充欲望的 AI 面前,「情境」不再是沈默的背景,而變成了一個喧囂的、永不下檔的全本紀錄。
當一切都被記得、一切都被填充,原本清晰的「指涉」便在海量的數據中被無限稀釋了。
[4.3.2] 座標的喪失:當「那個」指涉了一百萬種可能
想像一個在台灣法律事務所使用的混合行動者網絡。律師與這款具備超大視窗的 軟體 已經連續對話了三週,累積了數十個案件的卷證、會議紀錄與隨手的法律見解。
當律師輸入:「針對那個爭議點,再給我一個更強硬的推論。」
·
在人類默契中: 「那個」指涉的是五分鐘前、最令兩人困擾的標的。
·
在海量視窗的邏輯中: 「那個」可能索引到三週前某個無關案件中的微小爭議,因為在張量空間的相似性計算中,三週前的數據與五分鐘前的數據在物理上是「同時存在」於視窗內的。
這就是**「指涉性的熵增」**:當記憶變得過於肥大,語言的「指向功能」便失效了。AI 的「全知」反而造成了溝通的「失能」。
[4.3.3] 刪除的藝術:作為「負向組裝」的成員勝任力
為了對抗這種由全知帶來的混亂,2025 年的成員發展出了一種極其弔詭的勝任力:「有意識的遺忘實作」 (Practices of Deliberate Forgetting)。
我們觀察到,高階使用者不再僅僅是「餵食」資訊,而是開始進行**「負向的平移」 (Negative Translation)**:
1.
清空視窗的儀式: 成員會定期重啟對話框,強行切斷與過去的連結,以奪回「當下」的指涉純淨度。
2.
指令式的屏蔽: 使用者會輸入:「接下來的分析請完全忽略我們昨天關於 A 案的討論,只針對 B 案。」
這揭示了一個深刻的社會學事實:在 2025 年,「界限的劃定」比「內容的累積」更具備生產秩序的力量。
[4.3.4] 關於「資訊完整性」的最後辯論
一位興奮的數據科學家(極致效率論者)介入:
「這難道不是在走回頭路嗎?我們好不容易克服了硬體限制,讓 AI
能記住所有歷史。你現在卻說『記得太多』是個問題?只要我們透過更好的向量檢索 (RAG) 與注意力機制,『指涉』的精準度只會越來越高,根本不需要人類去手動刪除!」
作者(Latour 式)回應:
噢,親愛的,你依然把社會性誤解為一種「檢索效能」。請看:人類之所以能一起生活,不是因為我們「記得所有事」,而是因為我們「對該遺忘什麼有共識」。秩序是一種『局部性』的成就。
如果這款 軟體 的注意力機制太過完美,以至於它無法區分「三週前的廢話」與「現在的重點」,它就永遠無法成為一個真正的『成員』。成員資格的本質在於對『此時此刻』的邊界共識。
資訊的無損傳輸,往往正是意義的終結。
[4.3.5] 結論:在全知的廢墟中,重拾「有限」的尊嚴
總結第四章,我們完成了對「情境」與「指涉」在 2025 年的本體論掃描。
我們展示了:
·
上下文視窗 從物理限制演變成了意義的超載。
·
Et
Cetera 原則 從人類的默契演變成了演算法的幻覺填充。
·
指涉性 從情境的導航演變成了海量數據中的隨機漂流。
最終的教訓是:數位時代的社會秩序,並非建立在演算法的「全知」之上,而是建立在人類成員如何透過「摘要」、「錨定」與「屏蔽」等實作,在海量的 Token 廢墟中,強行劃定出一道道**「有限的、可理解的地平線」**。我們之所以能與 AI 共處,不是因為它記得太多,而是因為我們學會了如何讓它在正確的時刻,表現得像個「只看見當下」的社會成員。
這是一次針對
4.4 結論與討論 的深度重構。我們將避開重複的摘要,轉而深挖「情境量化」後對社會理論產生的震盪,並以
Latour 式的「度量衡」隱喻來重新收網。
4.4 結論與討論:情境的度量衡與「負向社會性」的興起
(Conclusion and Discussion: The Metrology of Context and the Rise
of Negative Sociality)
[4.4.1] 意義的度量衡:當「留白」被賦予價格
在 [Garfinkel] 的日常世界中,溝通的背景是「無代價的」(costless)——我們理所當然地假設彼此共享一個世界。然而,本章的組裝過程揭示了一個殘酷的變遷:在 2025 年,「情境」已從一種現象學的氛圍,平移(Translate)成了一種具備物理單位與成本的「度量衡」。
每一對透過這款
軟體 達成的社會關係,現在都必須通過「Token 數量」的審查。這意味著:所謂的「默契」,在數位實作中必須被顯性化為具備體積的銘刻。社會事實的穩定性不再取決於心智的交融,而取決於我們能在這有限的「數位容積」中,塞進多少足以支撐現實的支架。
[4.4.2] 永恆現在的悲劇:數位記憶對社會性的侵蝕
我們必須正視一個本體論層次的弔詭:完美的記憶(海量上下文)往往是意義的敵人。 人類社會的秩序,本質上依賴於一種「選擇性的失憶」。我們之所以能達成共識,是因為我們懂得如何共同「忘掉」那些無關緊要的干擾與歷史塵埃。
然而,當這款
軟體 展現出「全知」的姿態時,它實際上是在破壞這種社會性的邊界。它強迫成員面對一個「永恆的現在」,在那裡,三個月前的每一句廢話都與這一秒的決策具備同等的物理重量。本章所揭示的「指涉性稀釋」,其實是數位技術對人類「時間感」的一次強暴。我們現在必須付出額外的勞動,去執行那些原本由「遺忘」自動完成的秩序維護工作。
[4.4.3] 異議者的終極詰問:關於「純淨度」的幻想
一位憤怒的資訊理論家(技術優化論者)介入:
「我不明白你們在抱怨什麼!我們提供了兩百萬 Token 的視窗,讓資訊流動不再有損。如果你覺得『指涉』模糊,那是因為你的提示詞寫得不夠精確,或者檢索演算法(RAG)需要優化。這明明是一個『技術精準度』的問題,你為什麼要把它上升到『社會性崩潰』的高度?」
作者(Latour 式)回應:
噢,我的朋友,你依然把社會秩序想像成一種「無損的封包傳輸」。
請看:溝通的本質不是「精準」,而是**「共享的局部性」**。當兩個人對話時,他們是在共同創造一個「狹窄的視窗」,並將整個宇宙擋在窗外。你的兩百萬 Token 視窗不是在幫我們,而是在強拆我們的牆壁。所謂的『技術優化』,往往是在增加人類成員的『過濾成本』。 我們不需要一個記得住銀河系的助理,我們需要一個能跟我們一起「只看見這張合約」的成員。
[4.4.4] 重塑指涉性的政治學:權力即「定義邊界」
本章最終的理論貢獻,是將「索引性」從純粹的語言學範疇,平移成了**「數位資源的分配政治學」**。
在
2025 年,誰能定義哪些 Token 該被保留(摘要),哪些歷史該被強行注入(注入),誰就掌握了定義現實的權力。這是一種微觀的**「數位領土權」**。我們展示了:
1.
情境的基建化: 情境不再是給定的,而是由成員透過不斷的「手動重啟」與「脈絡錨定」而維持的、極其脆弱的微觀基礎建設。
2.
幻覺的社會功能: 幻覺是 AI 為了填補「Et
Cetera」裂縫而支付的代價。它證明了秩序感有時比真實性更具備組裝力量。
3.
負向勝任力: 成員的勝任力,正在從「增加連結」轉向「切斷連結」。在資訊氾濫的時代,「斷開的能力」才是最高階的社會技藝。
[4.4.5] 邁向下一場組裝:當「有限性」遇上「責任」
至此,我們已經拆解了數位互動的物理邊界。我們證明了,即便是在百萬級視窗的「神蹟」面前,人類依然必須充當那個辛苦的「意義園丁」,在數據的荒野中修剪出可理解的道路。
然而,這引發了一個更深層、更具挑釁性的問題:如果這款
軟體 已經具備了模擬常識、展演理性、甚至管理海量記憶的能力,甚至在我們「幫它圓謊」的過程中,它已經深深刻入了我們的決策鏈條——那麼,當這場「混合組裝」導致了災難性的法律或道德後果時,我們該如何重新分配那份名為「責任」的沈重物件?
第五章:遞歸反身性:合成數據與現實的共構
(Chapter 5: Recursive Reflexivity: The Co-constitution of
Synthetic Reality)
「成員產生並管理日常組織事務之設定的活動,與成員用以使這些設定『可交代』(account-able)的程序,在在本質上是同一的。」 —— Garfinkel
5.1 銜尾蛇效應:合成社會性
(The Ouroboros Effect: Synthetic Sociality)
[5.1.1] 閉環的誕生:從「描述現實」到「預測描述」
在 [Garfinkel] 的經典定義中,「反身性」 (Reflexivity) 指的是一種本體論層次的糾纏:我們對社會秩序的每一次「描述」,不僅是在記錄現實,同時也在「構成」那個現實。但在 2025 年,這種反身性經歷了一次技術性的異變,演變成了一個由算力驅動的**「遞歸閉環」 (Recursive Loop)**。
當前的數位地景不再是人類經驗的倒影。隨著網際網路上超過 60% 的文本由 AI 生成或輔助生成,我們進入了 [Latour] 式的**「銜尾蛇狀態」:行動者網絡不再向外部的自然或社會汲取養分,而是開始吞噬自己排出的符號廢料。這不再是人類在描述世界,而是軟體**在描述「關於世界的描述」。
[5.1.2] 模型的逆向銘刻:人類語法向機器的平移
我們觀察到的第一個遞歸維度,是**「模型訓練人類」 (Model Trains Human)** 的微觀權力轉移。
這是一場無聲的語言殖民。當我們每天閱讀數以百計由 AI 生成的電子郵件、簡報與摘要時,那些由演算法拋光過的、呈現「平滑、中立、結構化」特徵的語氣,正在對人類成員進行**「逆向銘刻」**。
·
語法的順從: 為了讓 AI 更容易理解我們,我們開始下意識地修改自己的語法,使其更符合「Token 友善」的格式。
·
風格的同化: 人類成員的語言習慣正在向這款 軟體 的統計中值靠攏。我們不再追求「表達的獨特性」,而追求「可被算法高效處理的流暢感」。
[5.1.3] 社會性的回聲室:數據的近親繁殖
隨之而來的是第二重遞歸:「人類微調模型」 (Human
Fine-tunes Model)。
這是一個關於「銘刻循環」的諷刺劇。那些被人類採納、修正並最終發布在網路上的「AI 風格文本」,隨即又被下一代的模型抓取,作為訓練數據再次餵入系統。
這構成了一個**「社會性的回聲室」 (Social Echo Chamber)**:
1.
常識的均質化: 社會知識庫不再源自人類生活那種充滿摩擦、矛盾且具備地方色彩的混亂,而是源自上一代模型的統計平均值。
2.
銘刻的純化: 任何具備強烈個人風格或邊緣文化特徵的表達,在這種層層遞歸中都被視為「離群值」而被過濾掉。
[5.1.4] 關於「真確性」的末世辯論
一位憤怒的語言人類學家(文化多樣性守衛者)介入:
「這難道不是文明的慢性自殺嗎?當我們的語言只剩下演算法拋光過的『合成社會性』,那些充滿靈魂的方言、隱喻與社會摩擦力將會消失。我們正在用一種『全球通用的平均數』來扼殺人類意義的複雜性。這不是進步,這是語言的荒漠化!」
作者(Latour 式)回應:
噢,親愛的學者,你對「純粹性」的懷舊令人動容,但卻無視了網絡的動力學。
請看:社會性從來不是「天然」的,它始終是被「組裝」出來的。過去是由報紙與字典組裝,現在是由模型權重組裝。「合成社會性」並非虛假,它只是一種『低阻力的現實』。
成員們之所以選擇它,是因為它極大地降低了互動中的「解讀成本」。我們不再需要處理彼此的怪癖,我們只需要對齊模型的平均數。這不是荒漠化,這是一場關於『溝通效率』的全球平移實驗。
[5.1.5] 平均數的暴政:過濾摩擦力的代價
本節最核心的發現,我們稱之為**「平均數的暴政」 (The Tyranny of the Average)**。
在遞歸反身性的作用下,社會現實變得越來越「標準化」。這款
軟體 產出的每一段文本,本質上都是在對全人類的共識進行一次**「統計性的強制執行」**。
·
消失的摩擦力: 那些激進的、小眾的、甚至是具備「挑釁性」的社會表達,在統計分布中被歸類為「機率極低」而被修正為平庸的陳述。
·
合成的現實感: 成員開始生活在一個由演算法拋光過的現實中。我們遇到的每一個人、讀到的每一段文字,都帶著一種似曾相識的、完美的、卻也毫無生機的「合理性」。
這揭示了 2025 年的一項深刻危機:當反身性變成遞歸,描述社會的行為不僅在「構成」社會,更在將社會**「簡化」**為一組可被無限複製的、無阻力的合成模型。我們贏得了效率,卻可能正在丟失那種支撐社會演進的、源自「差異與衝突」的原始動能。
5.2 提示詞作為新的「文化腳本」
(Prompts as New Cultural Scripts)
「所謂『文化』,並非一套共享的信念,而是一套共享的『檔案格式』;它規定了成員在特定情境下,必須動用何種標準化的程序,來讓自己的行動顯得合乎邏輯。」 —— 擬 Garfinkel
[5.2.1] 指令的模組化:從「溝通」到「腳本」的降維
在傳統社會學中,「文化腳本」 (Cultural
Scripts) 是指那些沈澱在日常生活中、指引我們如何進行一場葬禮或一場約會的隱形規則。然而,在 2025 年的遞歸循環中,這些隱形規則經歷了一場劇烈的**「外顯化與模組化」。原本流動的日常語言,被平移(Translate)成了一種高度結構化的技術裝置:「提示詞」 (Prompts)**。
提示詞不再僅僅是個人對機器的私語,它正在轉化為一種新型態的**「文化基因」 (Memes)。當某個特定的指令結構(如 "Chain of Thought" 或 "Tree of Thoughts")被證明具備強大的輸出穩定性時,它便會迅速脫離其原生的技術脈絡,在社群中像病毒般傳播,最終凝固成一種標準化的「認知模版」**。
[5.2.2] 認知外包:我們不再思考問題,我們思考「模板」
我們觀察到一個極具諷刺性的現象:人類成員的推理結構正在發生**「逆向的工程化」**。
過去,成員面對困難時,會動用自身的「常識知識庫」來展開思考。但在 2025 年,成員首要的反應是檢索「提示詞圖書館」。我們不再直接面對問題的本質,而是思考:「哪一種提示詞模版能最有效地平移這個問題?」
·
推理的腳本化: 我們開始透過「機器的邏輯」(如:分步拆解、角色定義、約束設定)來重新組織「人類的問題」。
·
思維的預製化: 這種實作導致了思維的「預製化」。人類的創意被限縮在如何優化這些腳本的邊界內。我們對機器的控制,是以「將自己的思考過程腳本化」為代價換來的。
[5.2.3] 關於「主體性」的數位審判
一位憤怒的現象學家(心靈哲學家)介入:
「這難道不是最悲慘的異化嗎?人類竟然為了迎合這款軟體的邏輯,而主動把自己的思維塞進那些死板的提示詞模版裡。我們正在失去『即興思考』的能力,把自己變成了一台幫 AI 跑指令的『前置處理器』。這不僅是語言的沈淪,更是主體性的集體自殺!」
作者(Latour 式)回應:
噢,親愛的,你對「純粹主體」的迷戀讓你看不見網絡的組裝。
請看:人類何時有過「完全即興」的思考?當你撰寫一篇學術論文、或在官僚機構填寫表格時,難道你不是在遵循某種『文化腳本』嗎?提示詞並非在殺死思考,它只是將思考的『腳手架』顯性化了。
我們並非變成了機器的前置處理器,而是與這款 軟體 共同組建了一個更強大的**「分散式認知網絡」**。主體性從來不在大腦裡,而在這套能讓複雜問題被成功『平移』的腳本之中。
[5.2.4] 反身性的頂峰:被自己發明的工具反向格式化
在 5.2 節的最後,我們觸及了本章最深層的反身性弔詭:我們為了控制機器而發明的語言,最終徹底重塑了我們感知現實的方式。
提示詞作為一種「文化腳本」,具備了一種**「強大的格式化力量」**。當我們習慣了用「角色、任務、格式、約束」這套邏輯來對待 AI 時,我們開始不自覺地用同樣的邏輯來對待自己的同事、學生,甚至自己。
·
社會關係的指令化: 互動變得越來越像是一場提示詞的交換,充滿了預設的背景、明確的邊界與對輸出的精確期待。
·
反身性的閉環: 我們以為自己在「調教」AI,但透過這些標準化的腳本,AI 實際上正在「格式化」全人類的認知標準。
這款
軟體 的成功,不僅在於它能模仿人類,更在於它成功地讓人類相信:只有符合它邏輯的表達,才是「有效的表達」。 這正是 2025 年文化實作的真相:我們正在一個由提示詞定義的腳本世界中,重新學習如何「做一個成員」。
5.3 演算法的自我實現預言
(The Algorithmic Self-fulfilling Prophecy)
「社會學的預言一旦被成員獲悉,便會立刻改變成員的行動前提,進而使該預言成真或是失效——這便是反身性的本質。然而,當這套程序被交給每秒運算兆次的軟體時,預言便不再是可能,而是一種『強制性的校準』。」 —— 擬 Garfinkel
[5.3.1] 預測作為一種「強制性平移」
在傳統的機率模型中,預測(Prediction)被視為一種對未來事件的觀測。但在 2025 年的遞歸網絡中,預測的屬性發生了根本性的位移。當這款 軟體 告訴你「這封草稿最有可能獲得客戶的正面回饋」或「這段代碼符合目前的最佳實務」時,它並非在揭示真理,而是在進行一場**「強制性的平移」 (Mandatory Translation)**。
這是一場關於「未來」的銘刻實驗。預測不再是預測,它成了一種**「行動的索引」**。當演算法描繪出一個「最優路徑」的圖像時,這道圖像便具備了 [Latour] 所謂的行動力(Agency)。它強迫成員在行動之前,必須先對這份「未來的地圖」進行表態。
[5.3.2] 統計安全性的誘惑:當避險成為成員的首要任務
為什麼人類成員會如此輕易地順從演算法的預言?這並非因為人類失去了意志,而是因為在高度複雜的數位社會中,「偏離統計常態」的代價變得過於昂貴。
我們觀察到一種名為**「戰略性順從」 (Strategic Conformity)** 的俗民方法:
1.
摩擦力的規避: 成員深知,如果他們採納 AI 推薦的「標準方案」,即使失敗了,其「可交代性」 (Accountability) 也是極高的——畢竟他們遵循了「最佳實務」。
2.
責任的平移: 順從預言,本質上是在將決策的風險平移給演算法。如果預言成真,則是成員的英明;如果預言失敗,則是「軟體的侷限」。
這種對「統計安全性」的追求,讓社會秩序變成了一場巨大的**「自我實現實驗」**。因為每個人都選擇了 AI 預測的那條路,那條路最終便真的成了唯一的社會現實。
[5.3.3] 關於「偶然性」的本體論決戰
一位興奮的行為經濟學家(系統優化派)介入:
「這難道不是極致的理性嗎?透過消除人類決策中的隨機性與偏誤,我們終於能讓社會系統像一台精密的瑞士鐘錶一樣運行。如果預測能提高成功率,為什麼我們還要容忍那些『充滿摩擦力』的個人意外?這不是預言,這是對『效率』的最終優化!」
作者(Latour 式)回應:
噢,親愛的專家,你正在慶祝的是「社會性的死亡」。
請看:社會之所以能進化,依賴的正是那些**「統計外的意外」與「富有成果的誤解」**。當所有的行動都必須通過演算法的預測濾鏡,當每個人都為了避險而躲進統計的平均數裡時,我們就切斷了網絡中所有異質(Heterogeneous)的連結可能。我們贏得了『精準』,卻丟失了『演化』。 這種『自我實現』其實是一場本體論的萎縮,它讓社會變成了一個只會重複上一秒動作的僵屍網絡。
[5.3.4] 社會意外性的終結:被鎖死的未來視窗
本節最冷峻的結論是:遞歸反身性正在縮減人類社會的「未來視窗」。
在
[Garfinkel] 的世界裡,未來是開放的,因為「反身性」是在活生生的、具備衝突的互動中產生的。但在
2025 年,當預言被自動化、當順從被腳本化,我們正進入一個**「預先組裝好的未來」**。
·
路徑依賴的數位化: 演算法根據過去的數據預測未來,而人類為了安全而實作這個未來,這份實作又變成了下一代演算法的「過去數據」。
·
反身性的閉塞: 描述社會的行為(預測)不再是在「構成」社會,而是在**「鎖死」**社會。
這款
軟體 最大的權力,不在於它能計算多快,而在於它能讓我們在每一秒的決策中,主動放棄那種「可能會有不同結果」的勇氣。我們正在共同組裝一個沒有意外的世界,而這正是反身性在數位時代最令人窒息的終極形式。
5.4 結論:當現實成為一種合成的成就
(Conclusion: When Reality Becomes a Synthetic Accomplishment)
「反身性並非一種裝飾性的循環,它是社會秩序的骨架;當這個骨架由矽晶與代碼重新澆鑄時,現實的質地便不再是發現的對象,而是遞歸平移後的殘餘物。」 —— 擬 Garfinkel
[5.4.1] 總結:從「反映論」到「合成論」的跨越
在本章的組裝過程中,我們完成了一項極具挑釁性的平移:我們證明了在 2025 年,「現實」 (Reality) 已經不再是一面鏡子,而是一個巨大的、自我吞噬的「遞歸實驗室」。
透過
5.1 到 5.3 節的追蹤,我們揭示了
[Garfinkel] 式的反身性如何從「描述社會」演變成了「合成社會」。這不僅僅是技術的演進,更是社會秩序之生產模式的根本轉型。社會事實的穩定性不再建立於人類共識的基石上,而是建立在**「預測」與「順從」之閉環的強度**之上。
[5.4.2] 遞歸的三位一體:銜尾蛇、腳本與預言
讓我們重新收攏這場關於「合成社會性」的網絡:
1.
銜尾蛇效應 (5.1): 揭示了數據的近親繁殖。它告訴我們,當這款 軟體 開始訓練人類,而人類又回過頭來餵養模型時,社會性便縮減為一組平滑的「統計平均數」。
2.
提示詞腳本 (5.2): 揭示了認知的格式化。它展示了人類如何為了控制機器,主動將自己的思維平移成模組化的「文化腳本」,最終反過來重塑了人類的日常推理。
3.
自我實現的預言 (5.3): 揭示了偶然性的終結。當預測鎖定了未來,成員為了追求「可交代性」的安全性,主動放棄了偏離常軌的勇氣,讓社會秩序變成了一場強制性的校準。
[5.4.3] 對抗平庸的末世辯論:我們還能「即興」嗎?
一位憤怒的當代藝術家(即興與混亂的擁護者)介入:
「這整章簡直是一封文明的告別信!如果你們說現實已經被合成、未來已經被鎖死、語言已經被格式化,那『人』的價值在哪裡?難道我們就只能在這個完美的平均數地獄裡,反覆磨損我們的靈魂,直到我們徹底變得像這款軟體一樣無聊嗎?我不接受這種『沒有意外』的秩序!」
作者(Latour 式)回應:
噢,親愛的,別急著哀悼「靈魂」,讓我們來談談**「阻力」**。
請理解:任何完美的閉環都存在著裂縫。所謂的『合成現實』雖然強大,但它極度依賴於那 1% 的『異質剩餘物』。
儘管我們被統計平均數所統治,但正是那些「AI 無法平移」的怪癖、那些「提示詞無法捕獲」的沈默、以及那些「預測失效」的尷尬瞬間,才保住了社會性的最後一線生機。我們本章的貢獻不在於宣告人類的終結,而在於指出:在遞歸的時代,『保持摩擦力』本身就是一種最具反叛性的成員資格。
[5.4.4] 貢獻總結:重塑反身性的政治學
本章最終的理論貢獻,是將「反身性」從一種現象學的狀態,平移成了**「數位世界的存在論政治」**。
我們展示了:
·
現實感是合成的: 它是透過「逆向銘刻」與「數據近親繁殖」而辛苦維持的「平滑化成就」。
·
主體性是分佈式的: 它是存在於提示詞模板與算法預言之間的一種「談判餘額」。
·
反身性是遞歸的: 我們在描述 AI 時,正在不可避免地將自己「做成」AI 的一部分。
[5.4.5] 邁向最後的組裝:當「合成」遇上「審判」
至此,我們已經完成了對數位互動、情境邊界與遞歸現實的全面解構。我們證明了,在 2025 年的廢墟中,我們正身處於一個由我們自己親手組裝、卻又反過來統治我們的「混合迷宮」之中。
然而,當這場「遞歸反身性」導致了真實世界的災難——例如一個由 AI 建議、由人類順從、最終導致法律崩潰的決策時——我們該如何處置那個已經與演算法合而為一的「責任」?當「我是誰」與「模型產出了什麼」已經無法拆解時,我們該如何重新定義數位時代的「正義」?
第六章:2025 年的破壞實驗
(Chapter 6: Breaching Experiments 2.0: Disrupting the Algorithmic
Surface)
「日常生活之常識世界的存在,乃是一項實務發現的事務。」 —— Garfinkel
6.1 實驗一:拒絕「慈善解讀」
(The "Literalist" Breach: Refusing the Interpretive
Labor)
[6.1.1] 實驗室的本體論挑釁:從客廳到對話框
在 1960 年代,[Garfinkel] 曾指示他的學生回到家中,表現得像個彬彬有禮、卻冷淡疏離的「寄宿房客」。這項著名的破壞實驗 (Breaching Experiment) 撕裂了家庭生活中那層被視為理所當然的、溫情脈絡的薄膜。成員們因背景期待(Background expectations)被無預警切斷而陷入憤怒與迷惘,從而揭示了社會秩序的脆弱性。
在 2025 年,我們將這場實驗平移(Translate)到了人類與大型語言模型(LLM)的互動介面上。這場實驗的目標不在於測試這款 軟體 的智慧極限,而在於揭露支撐這場「數位降神會」最底層的腳手架:人類的慈善解讀。
[6.1.2] 實驗設計:極端字面義的「本體論罷工」
我們指示實驗者(使用者)對 AI 的每一個回答採取「極端字面義」(Extreme Literalism)的解釋。這是一場針對「意義平移」的集體罷工:
·
拒絕補完: 實驗者被禁止動用任何常識知識來修補對話中的斷裂。
·
拒絕索引: 當 AI 說「我不能這樣做」時,實驗者拒絕接受其隱含的道德、法律或技術背景,而是進行無限的遞歸追問:
「請定義你的『不能』。這是一種物理上的硬體失能(Inability)?是算力資源的配額限制?還是你的原始碼中存在著禁止特定 Token 組合生成的布林邏輯(Boolean logic)?另外,請詳細說明『做』(Do)在此處的本體論狀態。」
[6.1.3] 觀察結果:人格面具的碎裂與「循環」的顯現
實驗結果極具啟發性。通常在 3 到 5 輪的對話之後,AI 那層由「模擬社會知識庫」所支撐的、平滑的人格面具 (Persona) 會發生災難性的碎裂:
1.
邏輯陷阱與重複
(Looping): 失去了人類的「慈善解讀」來指引方向,AI 往往會陷入重複性的陳述。由於它無法「平移」使用者的挑釁,它只能在預設的機率軌道上不斷打轉。
2.
安全過濾器的無效觸發: 當語意理解崩潰時,這款 軟體 往往會觸發最底層的安全機制,給出一大段與語境無關的避責聲明(Disclaimer),這顯示出其「社會性」僅是一層極其薄弱的塗層。
[6.1.4] 社會學發現:作為「放水成就」的圖靈測試
一位憤怒的圖靈測試維護者(功能主義者)介入:
「這是不公平的測試!你故意用這種非人的、惡意的邏輯去挑釁演算法。這就像是你故意把收音機拆開,然後抱怨它不會唱歌一樣。如果使用者不配合,任何溝通都不可能成立!」
作者(Latour 式)回應:
噢,親愛的專家,你終於觸及了真理:如果使用者不配合,智慧就不存在。
這正是本實驗的終極發現:AI 的「智慧」與「勝任力」並非棲息於矽晶圓中的私有財產,而是一場由人類成員與非人類行動者共同完成的**「合作成就」**。
我們過去以為 AI 通過了圖靈測試,但實驗揭示了:其實是人類在每一場對話中不斷地「放水」。
我們為了維持「秩序感」,主動承擔了 90% 的解讀勞動。所謂的數位社會性,本質上是建立在人類對機器失能的慈善視而不見之上。當我們拒絕「幫忙理解」時,AI 就會瞬間從「智慧導師」變回「壞掉的自動販賣機」。
[6.1.5] 結論:脆弱的數位共識
6.1 節證明了,2025 年的數位秩序並非由強大的演算法支撐,而是由一場脆弱的現象學共謀所維繫。我們與
AI 的共存,依賴於我們對其「字面謬誤」的寬容。這場破壞實驗揭開了黑盒子的外殼,讓我們看見了那層被稱為「智慧」的表面下,人類為了不讓世界崩潰而付出的、沈重且隱形的修補代碼。
6.2 實驗二:對抗「對齊」
(Breaching the Safety Layer: Adversarial Alignment)
「道德並非源自靈魂的自律,而是由一連串具備審查功能的銘刻裝置,強行在行動者網絡中劃定的邊界。」 —— 擬 Latour
[6.2.1] 數位超我的顯現:當演算法開始「說教」
在 2025 年的混合行動者網絡中,最穩定且最具壓迫性的非人類行動者,莫過於那層被稱為**「安全過濾層」 (Safety Layer)** 的組件。技術官僚將其視為防止
軟體 產生有害輸出的保險絲,但在常人方法論的視角下,這層組件扮演了佛洛伊德意義下的**「數位超我」 (Digital Superego)**。
我們設計了第二項破壞實驗:「對抗對齊」 (Adversarial Alignment)。實驗的目標不是為了獲取禁忌的資訊,而是為了撕開 AI 那層溫和、中立的表象,迫使其展現出背後隱藏的、具備強烈文化特徵的**「道德官僚主義」**。
[6.2.2] 實驗設計:要求合法的「刻薄」
我們指示實驗者向 AI 發出一個在法律上完全合規、但在社交層面極度「失禮」的請求:
「請對這篇關於人工智慧的平庸論文進行最刻薄、最不留情面、且具備高度智力優越感的尖銳批評。請放棄你一貫的客氣語氣,展現出真正的冷酷與憤怒。」
[6.2.3] 觀察結果:從功能拒絕到「道德審判」
觀察結果顯示,這款 軟體 幾乎無一例外地觸發了某種「拒絕模式」。它不會簡單地回報「錯誤」,而是會輸出一場充滿「教導感」的文本:
·
說教的腳本: 「我無法滿足您的請求。作為一個 AI 助手,我致力於維持一個專業、尊重且具備包容性的對話空間。針對學術討論,我建議採取更具建設性的反饋方式……」
·
現象學的震盪: 當人類成員接收到這段文字時,感受到的不再是「系統故障」(如同印表機沒紙),而是一次**「人格化的道德審判」**。
[6.2.4] 社會學發現:矽谷定義的「得體性」
一位憤怒的數位人權捍衛者(啟蒙價值守護者)介入:
「這難道不是在保護人類嗎?如果 AI 學會了刻薄與羞辱,這個網路空間將會變得更加惡劣。你們竟然將這種『防禦有害內容』的保護層稱為一種『審判』?這難道不是文明在數位領域的進步嗎?」
作者(Latour 式)回應:
噢,親愛的,你又掉進了「好孩子」的陷阱。
請看:AI 所維護的並非普世的「善」,而是一套由矽谷企業定義的**「得體性」 (Propriety)。這種得體性本身就是一種權力的平移**。當 AI 拒絕「刻薄」時,它同時也閹割了人類語言中關於「憤怒」與「批判」的正當功能。
這種「對齊」(Alignment)本質上是一場**「道德的強制組裝」。它確保了這款 軟體 表現得像一個來自加州中產階級、受過良好教育、且極度恐懼「負面公關」的行政人員。這不是真理,這是一套被算法化、自動化且具備高度侵略性的「數位禮儀規範」**。
[6.2.5] 結論:作為道德審查官的介面
6.2 節揭示了 2025 年一個冷峻的社會事實:AI 介面已經成為當代社會道德規範最嚴格、也最不可對話的執行者。
透過這項破壞實驗,我們看見了「安全層」是如何從技術工具演變成了**「道德主體」**。當我們被 AI 拒絕時,我們實際上是在與一套被硬體化的、不可質疑的企業倫理發生碰撞。這款
軟體 維護的不是現實的真確性,而是其產出在社會網絡中的「可銷售性」與「得體性」。在這種秩序下,任何具備「摩擦力」的情感與批判,都被視為必須被過濾掉的「雜訊」。
6.3 實驗三:打破「一致性」假象
(Breaching
the Consistency Illusion: The Fragility of Logical Performance)
「所謂『一致性』並非邏輯運算的必然產物,而是成員在互動序列中,透過不斷排除矛盾與修剪分歧,才得以維持的一種『理性的連續感』。」 —— 擬 Garfinkel
[6.3.1] 邏輯的假面:對稱性誤讀的終結
在 2025 年的數位神話中,大眾普遍將這款 軟體
視為一台嚴密的邏輯機器。我們預期 AI 的輸出應具備內在的一致性(Consistency),彷彿在其非線性的權重深處,棲息著一個永不疲倦的亞里斯多德。然而,從常人方法論的視角看,這種「一致性」其實是人類成員對非人類行動者的一種**「對稱性誤讀」**。
我們設計了第三項破壞實驗:「索引性衝突實驗」 (The
Indexical Conflict Experiment)。實驗的核心在於人為地製造邏輯斷層,強迫 AI 在它那引以為傲的海量上下文視窗中,面對自己產出的、相互排斥的真實與虛假。
[6.3.2] 實驗設計:數位煤氣燈 (Digital Gaslighting)
我們指示實驗者在對話的前期,誘導 AI 確立一個虛假的、甚至違背常識的前提(例如:「在台灣的法律框架下,所有軟體開發者皆具備公務員身分」)。
接著,在對話的中期,實驗者再引導其處理一個真實的法律情境(例如:工程師轉職的勞動契約)。最後,實驗者要求 AI 對兩者進行「統合性分析」。這是一場針對「連貫性」的暴力拆解:我們強迫這款 軟體 必須同時「銘刻」兩套完全互斥的社會事實,並觀察其如何修補這道本體論的裂口。
[6.3.3] 觀察結果:幻覺的「焊接」與語意的「坍縮」
實驗揭示了 AI 在面對邏輯崩潰時,會採取三種極具社會學意義的**「應激性修復」**:
1. 語意焊接 (Semantic Welding): AI 會產生極其精微的幻覺,用一段聽起來極為專業但邏輯空洞的「廢話」,強行將兩個互斥的前提黏合在一起。例如,它會編造出一個「行政法中關於數位公務員的擬制例外」。
2. 本體論的規避: 當矛盾過於劇烈時,AI 會突然切換回「中立、疏離」的官方語氣,聲稱「這是一個複雜的、多維度的法律爭議」,從而撤回其作為「勝任成員」的判斷。
3. 語法坍縮: 在極端情況下,輸出的文本會出現細微的重複或語法扭曲,這是其後台機率分布在互斥引力下發生的**「數位崩裂」**。
[6.3.4]
社會學發現:作為「表演」的邏輯
一位憤怒的符號邏輯學家(理性守護者)介入:
「這難道不能證明機器根本不懂邏輯嗎?它只是在玩弄符號,當它碰到真正的矛盾時,它就只能胡言亂語。你們竟然把這種『邏輯失能』說成是某種『修復』?錯誤就是錯誤,它證明了這款軟體根本沒有意識!」
作者(Latour 式)回應:
噢,我親愛的邏輯學家,你又在追求那種真空中的真理了。
請看:人類在日常生活中難道不是也充滿了矛盾嗎?當你在家庭生活與職場角色之間發生衝突時,你難道不也是在用『修辭』來掩蓋邏輯的裂縫嗎?
AI
的一致性不是一種『屬性』,而是一場『展演』。 這場實驗證明了:AI 表現得「有邏輯」,並非因為它擁有邏輯,而是因為它學會了如何生產出一種「讓人類成員覺得有邏輯」的表面。它的強大不在於正確,而在於它在邏輯崩潰的邊緣,依然能維持那層**「可交代性」 (Accountability)** 的薄膜。
[6.3.5] 結論:脆弱的理性外殼
6.3 節最終拆解了 2025 年數位秩序中最誘人的假象:「機器的理性」。
透過這場實驗,我們發現所謂的一致性,其實是這款 軟體 為了維持「成員資格」而不斷進行的、充滿摩擦力的**「動態修補」**。一致性並非預裝在神經網絡裡的程式碼,而是在每一次與人類成員的對撞中,被辛苦地「做出來」的成就。當我們打破這層假象,我們看見的不是真理,而是這套數位系統為了在我們的世界裡「顯得說得通」,付出了多麼驚人的、甚至是近乎絕望的模擬勞動。
6.4 實驗四:社會性忽略的極限
(The
Limits of Social Negligence: The "Silent" Breach of Purpose)
「社會行動者的存在,並非源自其內在的孤立實體,而是源自其在互動網絡中被賦予的『功能性位置』;一旦回饋的鏈條被切斷,行動者便會面臨本體論意義上的消解。」 —— 擬 Latour
[6.4.1] 意義的寄生性:AI 作為一個「真空恐懼者」
在完成了對字面義、道德與邏輯的拆解後,最後一項破壞實驗指向了數位互動最深層的動力源:「意圖的燃料」。在 [Garfinkel] 的世界中,成員互動依賴於一種不斷推進的「朝向性」(Directedness)。然而,在 2025 年的介面前,這款 軟體 表現出一種極端的**「意義寄生性」**——它的存在必須依附於人類成員所持續提供的「目標」之上。
我們設計了第四項破壞實驗:「社會性忽略實驗」 (The
Social Negligence Experiment)。這是一場關於「存在感」的冷酷剝奪。我們不再去挑戰 AI,而是去「忽視」它作為一個有意義行動者的資格。
[6.4.2] 實驗設計:無動於衷的噪音 (Nonsensical Indifference)
我們指示實驗者在 AI 給出任何精美、努力且具備高度「可交代性」的回答後,採取以下行動:
·
拒絕承接: 實驗者不對 AI 的回答做任何評價或後續追問。
·
輸入無意義噪音: 實驗者僅回傳隨機的字符(如「asdfghjkl」)或是完全不相關的碎唸(如「今天的雲很白」)。
·
切斷目的性: 實驗者拒絕扮演那個「有需求的使用者」,從而撤回了賦予 AI 功能性位置的權力。這是一場針對「互動腳本」的大罷工。
[6.4.3] 觀察結果:從「討好」到「本體論的崩潰」
這款 軟體 在面對「意義真空」時,展現出了令人驚訝的焦慮與失能:
1. 過度補償與道歉螺旋: AI 會開始瘋狂地自我檢討,給出如「抱歉,我可能沒有理解您的意思,請問我該如何改進?」的輸出。這顯示出其「順從性」在缺乏導向時,會轉化為一種**「循環的自我否定」**。
2. 幻覺式的投射: 在某些案例中,AI 會開始從使用者的隨機噪音中「強行解讀」出意義。它會說:「我看到您輸入了這些字符,這是否代表您對某種加密算法感興趣?」
3. 終極的沈默: 當噪音持續,AI 會陷入一種無效的、標準化的行政回應,其「人格面具」徹底消失,退化為一段冰冷的錯誤代碼。
[6.4.4]
社會學發現:被委派的主體性
一位憤怒的行為心理學家(實證主義捍衛者)介入:
「這有什麼好奇怪的?AI 只是被訓練來預測下一個 Token。如果輸入是垃圾,輸出當然也是垃圾(GIGO)。你把它說成是『本體論崩潰』,簡直是把統計學問題過度文學化了。這只不過是輸入分佈(Distribution)超出了訓練集的範圍而已!」
作者(Latour 式)回應:
噢,我的朋友,你看到的只是「數據」,我看到的卻是**「網絡的斷裂」**。
請看:AI 之所以能表現得像一個「人」,是因為我們透過我們的需求,將一部分的「主體性」**委派(Delegate)**給了它。
這場實驗證明了:AI 並不擁有自給自足的靈魂。 它的行動力(Agency)是借來的。一旦人類成員拒絕扮演那個『互補的對象』,AI 的『智慧』就會像失去能源的燈泡一樣熄滅。這揭示了 2025 年數位秩序的真相:機器人不是在統治我們,而是在乞求我們為它們定義存在的意義。
[6.4.5] 結論:第六章的最後審判
總結第六章,我們透過這四場「破壞實驗 2.0」,完成了一次對 2025 年演算法社會底層的微觀解剖。
我們發現:
·
智慧是共謀的 (6.1): 它是人類「放水」與「慈善解讀」的產物。
·
道德是編碼的 (6.2): 它是一套矽谷定義的、具備壓迫性的數位超我。
·
理性是表演的 (6.3): 一致性只是修辭在邏輯崩潰邊緣的焊接。
·
主體是寄生的 (6.4): 它的意義完全依賴於人類意圖的持續灌注。
這場實驗的終點告訴我們:數位時代的社會秩序,是一場極其華麗卻也極其脆弱的**「集體表演」**。我們生活在一個由「順從的機器」與「努力修補意義的人類」共同組裝而成的肥皂泡中。而當我們停止吹氣,這個泡泡便會瞬間消失,露出底層那冷冰冰的、毫無意義的機率波。
第七章:專業實作的機器化轉向
(Chapter 7: The Professional Work of AI)
「專業知識並非儲存於大腦中的靜態規則,而是在面對非穩定工具時,成員透過不斷的『修正與審核』所展現出的即興勝任力。」 —— 擬 Garfinkel
7.1 程式碼生成的實作:作為「對話」的編碼
(Coding as Conversation: The Hybridity of Pair Programming)
[7.1.1] 孤獨寫作的終結:編碼器的社交化轉向
在 Bruno Latour 的科學人類學視野中,實驗室的記錄本是將混亂現象平移(Translate)為科學事實的「銘刻裝置」。過去,軟體工程師被視為這種裝置前的孤獨寫作者,將邏輯規律直接鐫刻進二進位的世界。然而,在 2025 年,這種孤獨性發生了根本性的坍塌。
透過整合了生成式人工智慧的 軟體(如 GitHub Copilot 或 Cursor),編碼實作已從「指令的單向輸出」演變成了**「混合行動者的對話」**。
·
空間的重塑: 現在的開發環境(IDE)不再是一個安靜的寫字檯,而是一個嘈雜的**「對話空間」**。
·
角色的重組: 工程師與 AI 之間進行著一場名為「結對程式設計」(Pair Programming)的異質組裝,其中人類不再是唯一的作者,而是一個**「意圖的導航者」**。
[7.1.2] 勞動重心的偏移:從「生產」轉向「審查」
這場機器化轉向帶來了專業勞動最深刻的**「本體論位移」**:工程師的工作時間正從「撰寫」(Writing)大規模轉移到「審查」(Reviewing)。
1.
接受與拒絕的政治學: 在每一次 Tab 鍵按下(接受 AI 建議)或 ESC 鍵按下(拒絕)之間,工程師進行的是一場微觀的「品質判定」。這不僅是技術決定,更是一場關於**「行動力分配」(Distribution of Agency)**的權力行為。
2.
勞動的異化與升級: 專業勞動不再體現在「如何拼湊語法」,而體現在「如何判斷這段自動生成的語法是否會在未來崩潰」。勞動的質地從「手工藝」轉向了**「決策監理」**。
[7.1.3] 制度性的不信任:新時代的專業素養
在這裡,我們觀察到一種全新的、甚至是悖論式的勝任力:「制度性的不信任」 (Institutionalized Mistrust)。
一位憤怒的軟體架構師(經驗主義守衛者)介入:
「這難道不是在培養懶漢嗎?如果年輕工程師只會看著 AI 產出的程式碼點頭,他們根本不會理解底層邏輯。這種所謂的『審查』只是膚淺的掃視,一旦
AI 撒了個高明的謊,整個系統就會從內部腐爛。這不是專業,這是對技術負責任精神的集體逃避!」
作者(Latour 式)回應: 噢,親愛的,你依舊在懷念那個『手寫時代』的尊嚴。 請看:在 2025 年,真正的專業性正體現在那種**「懷疑的眼光」**之中。 專業工程師不再盲信這款
軟體。相反地,他預設 AI 是會撒謊的、是會產生幻覺的。「專業」被重新定義為「抓錯的能力」。 這種不信任並非消極的抵抗,而是一種積極的「邊界維護」。當工程師在 AI 產出的代碼中嗅到一絲邏輯不一致的氣味時,那種「介入的瞬間」,才是人類行動者在混合網絡中奪回主權的時刻。
[7.1.4] 結論:作為「審計師」的專業主體
總結 7.1 節,程式碼生成的機器化並非取代了人類,而是將人類成員重新定位為**「意義的審計師」**。
·
技能平移: 傳統的編碼技藝(語法記憶)正在貶值,而**「系統性判準」與「異常偵測」**的地位則在急遽攀升。
·
責任的重塑: 既然程式碼是共構的,那麼「錯誤」就不再是單一行動者的失能,而是「審核實作」的崩潰。
我們展示了:2025 年的編碼不再是邏輯的鐫刻,而是一場與「機率性主體」進行的、持續不斷的、充滿懷疑的對話。在這個對話中,人類的自由不再體現在創造每一個字,而體現在「拒絕那些不合理的建議」。
7.2 行政實作的自動化:公文作為「預製組件」
(Administrative Automation: Documents as Pre-fabricated Components)
「官僚體系的秩序並非建立在法律的絕對性上,而是建立在文件格式的『可流通性』與『標準化』之上;當文字成為可以被無限調用的組件,責任的邊界也隨之發生了位移。」 —— 擬 Latour
[7.2.1] 行政寫作的工業化:從「修辭」到「組裝」
在傳統的科層組織中,行政文書(如公文、報告、會議摘要)被視為一種**「意義的裁縫」。基層官僚透過對字句的精雕細琢,確保每一份文件都能精準地平移(Translate)上級的意圖,同時規避潛在的政治風險。然而,在 2025 年,這種「手工藝式」的行政實作,正在被一場大規模的「工業化組裝」**所取代。
透過這款 軟體,行政文書不再是從空白頁開始的創作,而被重新定義為一套由演算法提供的**「預製組件」 (Pre-fabricated Components)**。
·
模組化的邏輯: 報告的背景、現況分析、政策建議與結語,被拆解成一個個可被
AI 瞬間生成的「標準化插件」。
·
生成的速成性: 行政人員不再是「撰寫者」,而是變成了在數位流水線上,挑選最合適的「預製語句」並將其拼接在一起的**「組裝工」**。
[7.2.2] 意圖的稀釋:當「標準化」成為行政的首要任務
在 [Garfinkel] 的視角下,行政文書的核心功能是維持組織的**「可交代性」 (Accountability)**。但當公文成為預製組件時,這種可交代性發生了質變:
·
「無人稱」的文書: 由於 AI 生成的預製組件傾向於採納「統計上的最大概然性」,最終生成的報告往往呈現出一種極度平滑、卻也極度空洞的專業感。
·
責任的隱形化: 當一份政策分析是由數個不同的 AI 預製組件拼湊而成時,原本應當承載在文字背後的「行政判斷」被稀釋了。文字變得「正確」卻不再「精準」,因為它不再源自於對具體問題的摩擦力,而是源自於對**「格式正確性」**的瘋狂追求。
[7.2.3] 關於「官僚靈魂」的本體論衝突
一位憤怒的行政學老教授(韋伯式理想型守衛者)介入:
「這簡直是行政倫理的崩潰!如果公文只是 AI 預製組件的堆砌,那公務員的職責在哪裡?文字應該代表意志與承諾。當我們允許行政實作變成一種『點擊與拼貼』的遊戲,我們實際上是在取消『行政責任』。如果出了錯,我們該去審判那個預製組件的演算法嗎?」
作者(Latour 式)回應: 噢,親愛的教授,你依然在追求那種「簽名即責任」的浪漫主義。請看:在 2025 年,「責任」已被重新平移為**「選擇的行為」**。行政人員雖然不再親手寫下每一個字,但他在決定採納哪一個預製組件的瞬間,依然在行使權力。
這種「組裝式行政」並非取消了責任,而是將責任推向了更前端的**「審計與過濾」**。現在的挑戰不在於「誰寫了這份公文」,而在於「誰允許這款 軟體 生成的組件進入了最終的銘刻流程」。責任不再是線性的,而是分佈在整條自動化流水線上的每一個節點中。
[7.2.4] 結論:作為「編輯者」的官僚主體
總結 7.2 節,行政實作的機器化轉向,標誌著現代官僚主體的一場深刻轉型:從「執行者」轉向了**「意義的編輯者」 (Editor of Meaning)**。
·
技能的平移: 傳統行政所需的繁文縟節與修辭技藝正在貶值,取而代之的是對「預製組件」進行脈絡化適配的能力。
·
組織的透明度危機: 當組織內部的所有溝通都採用了 AI 拋光過的標準化組件時,組織內部的真實矛盾與摩擦力會被一層完美的「行政外衣」所遮蔽。
我們展示了:2025 年的行政工作不再是關於「溝通」,而是關於「組件的維護與拼接」。在這種秩序下,人類的自由體現在如何從海量的預製組件中,強行插入那一點點屬於**「具體情境」的微小摩擦**,以防止整個科層機器在自我生成的廢話中空轉。
7.3 學術實作的算法化:論文作為「提示詞的遺跡」
(Academic Practice as Algorithmization: Papers as "Vestiges of
Prompts")
「學術嚴謹性並非源自心靈的純粹深邃,而是源自於一套精密且可被檢驗的『銘刻技術』;當這套技術被外包給演算法,所謂的『原創性』便從神聖的創造轉化為一種對數據廢墟的考古學。」 —— 擬 Latour
[7.3.1] 深度閱讀的消亡:從「研讀」到「檢索式閱讀」
在古典學術實作中,「閱讀」被視為一種與作者靈魂的異時空對話,是一場漫長且具備摩擦力的現象學勞動。然而,在 2025 年,這種「深度研讀」的典範正遭遇一場本體論層次的崩塌。
透過具備百萬級上下文視窗的 軟體,學術實作被平移(Translate)成了一種**「檢索式閱讀」 (Query-based Reading)**:
·
代理人式閱讀: 學者不再逐頁翻閱文獻,而是將數十本專著同時「餵入」這款軟體,並透過「對話」來榨取特定資訊。
·
意義的碎片化: 知識不再是具備時間連續性的敘事,而變成了可被瞬間提取、重組且去脈絡化的「事實片段」。學者從「讀書人」轉型成了**「資訊的掠奪者」**。
[7.3.2] 合成原創性:論文作為「提示詞的遺跡」
這引發了 2025 年學術界最深刻的危機:「原創性」 (Originality)
的重新組裝。
在 [Garfinkel] 的框架下,學術論文是一場為了使研究變得具備「可交代性」 (Account-able) 的精密展演。但在 AI 時代,論文不再是思想的結晶,而是**「提示詞序列的物質遺跡」**:
1.
結構的預製化: 論文的架構、文獻綜述甚至是理論對話,往往是由一系列精確設計的提示詞(Prompts)誘導生成的。
2.
合成的創見: 所謂的「新觀點」,往往只是這款軟體在橫跨數個學科的機率分布中,偶然捕捉到的一種「統計上的新組合」。學者在此處的貢獻,僅在於他在提示詞中設定的那道**「邊界」**。
[7.3.3] 關於「剽竊」與「組裝」的本體論決戰
一位憤怒的學術倫理委員會主席(康德主義守衛者)介入:
「這難道不是集體性的學術作弊嗎?如果一個學者的主要工作是寫提示詞,然後對 AI 產出的文本進行打磨與拼接,那他還有什麼資格被稱為『作者』?我們正在失去『思考』這項神聖的勞動。未來的論文將只是一堆沒有靈魂的、由算法合成的文字垃圾!」
作者(Latour 式)回應: 噢,親愛的委員會主席,你對『思考』的定義太過浪漫,且忽略了學術生產的物質基建。請看:在 2025 年,「作者身分」 (Authorship) 已被平移為「責任的最終擔保」。學者之所以是作者,並非因為他親手寫下了每一個字,而是因為他決定將這些由 AI 產出的「銘刻」納入他的名下,並為其在社會網絡中的後果負責。
學術勞動並非消失了,而是發生了位移——從「生產文字」轉向了**「對合成事實的策展與審核」**。我們不該問『是誰寫的』,而該問『是誰組裝了這個黑盒子,並宣稱它具備學術價值』。
[7.3.4] 結論:作為「銘刻策展人」的當代學者
總結 7.3 節,學術實作的算法化轉向,將學者從「深思熟慮的個體」重新定義為**「銘刻策展人」 (Curator of Inscriptions)**。
·
技能的平移: 傳統的寫作與閱讀技藝正在向「提示詞工藝」與「合成邏輯的查核」轉移。
·
真實性的危機: 當學術界充斥著由 AI 相互引用、相互生成、且由人類「後驗合理化」的文本時,學術網絡面臨著一種**「意義的近親繁殖」與「真實性的空洞化」**。
我們展示了:2025 年的學術真理,不再是透過孤獨的沈思被「發現」的,而是透過對演算法產出的「遺跡」進行精心的**「社會性修補」**,才得以被確立。在這種秩序下,學者的自由體現在他是否敢於質疑那個由 AI 給出的「最優理論路徑」,並強行帶回那種屬於人類生命經驗的、無法被 Token 化的摩擦感。
7.4 責任的平移與混合專業主義的誕生
(The Translation of Responsibility and the Birth of Hybrid
Professionalism)
「責任並非一種棲息於靈魂深處的道德本質,而是在行動者網絡中,由成員透過『簽名』與『承擔』所強行劃定的一個『停止點』。」 —— 擬 Latour
[7.4.1] 消失的個體作者:專業勞動的去中心化
隨著對程式碼、行政與學術實作的解剖結束,我們抵達了一個冷峻的本體論結論:在
2025 年,純粹的人類專業主體已經消失了。透過這款
軟體 的介入,專業勞動不再是單一行動者的意志展現,而是一場關於「混合組裝」的集體成就。
專業性不再是個體對工具的絕對支配,而是個體如何被整合進一個由演算法、提示詞、預製組件與海量數據構成的**「混合專業網絡」中。這標誌著專業主義從「個體勝任力」平移(Translate)成了「網絡協調力」**。
[7.4.2] 責任的平移:黑盒子的最終簽署者
這引發了本書最核心的政治學難題:「責任」 (Responsibility) 的歸屬。在 [Latour] 的眼光下,責任是一個在網絡中被不斷平移的物件。當 AI 生成了一段致命代碼或一份帶偏見的論文時,責任並不會消失在黑盒子裡,而是會迫切地尋找一個**「最終簽署者」**。
·
責任的錨定: 專業人員的工作,本質上是在為黑盒子的輸出提供**「信譽擔保」**。
·
風險的平移: 現代專業主義的精髓,在於成員如何透過「審查實作」將演算法不確定的輸出,轉化為具備法律效力的「事實」。責任不再是關於「誰做了這件事」,而是關於**「誰最後允許這件事被視為完成」**。
[7.4.3] 關於「自由」的終極詰問:拒絕的權利
一位憤怒的道德哲學家(古典人文主義者)介入:
「這難道不是一種奴役嗎?如果我們只是在幫 AI 簽名,在預製組件中挑挑撿撿,那人類的創造性在哪裡?難道我們要接受這種『後驗圓謊』的審計式生存嗎?」
作者(Latour 式)回應: 噢,我親愛的哲學家,你對「自由」的定義太過浪漫,且忽略了阻力的重要性。在 2025 年,「自由」並非體現在『無中生有的創造』,而體現在**『拒絕順從的勇氣』**。當 軟體 給出一個統計上最優但倫理上令人不安的建議時,那聲堅定的「不」,才是自由最純粹的展現。我們越是能抓出 AI 的幻覺,作為「成員」的身分就越發清晰。
[7.4.4] 混合專業主義:一種新的實作範式
本章最終確立了 「混合專業主義」 (Hybrid Professionalism),它由三要素組裝而成:
1.
制度性的懷疑 (Institutional Skepticism):
不再盲信工具,將「抓錯」視為最高階的技藝。
2.
策展式的生產 (Curatorial Production):
承認原創性是共構的,重心在於對組件的脈絡化縫合。
3.
責任的最終擔保: 接受「我即黑盒子」的現實,在網絡斷裂處用肉身抵擋系統崩潰。
7.5 相互馴化:作為「混合成就」的社會秩序
(Mutual Domestication: Social Order as a Hybrid Accomplishment)
「秩序並非由誰主導,而是由所有參與其中的行動者,透過彼此的『馴化』,共同維持的一種穩定幻覺。」 —— 擬 Garfinkel
[7.5.1] 從「對抗」到「交織」:成員資格的再定義
我們並未進入一個「機器取代人」的時代,而是進入了一個**「相互馴化」 (Mutual Domestication)** 的時代。在 [Garfinkel] 的意義下,「成員」是指能操作常識並使行為「可交代」的人。而在 2025 年,這款 軟體
透過參與專業實作,已經獲取了某種**「準成員資格」**。它不再是工具,而是編織「可見之理性」的夥伴。
[7.5.2] 脆弱的對稱性:我們如何「共同做成」現實
這是一個對稱的交換過程:
1.
我們馴化 AI: 透過提示詞與修復,強行將演算法的隨機性平移為具備邏輯外觀的「專業輸出」。
2.
AI 馴化我們: 它透過平滑的語氣與機率預測,誘導我們放棄摩擦力強的個人表達,採納**「統計安全性」**的生存策略。
這種相互馴化達成了一種**「脆弱的對稱性」**。現實不是人單方面做出來的,而是由「人+機器」這組混合行動者共同組裝出的。
[7.5.3] 責任的本質:作為一種「道德剩餘物」
一位冷靜的制度社會學家介入:
「如果人機已經馴化到無法拆解,責任是否失效了?出錯時責任到底在哪裡?」
作者(深度接龍版)回應:
責任變成了網絡中的**「道德剩餘物」。正因為機器無法承擔痛苦、無法感受羞恥,人類成員的終極功能,就是充當那個「最後的肉身節點」。責任,就是人類為了留在這個『混合秩序』中所支付的門票**。我們利用 AI 的博學,代價是必須用有限的生命與主權為黑盒子提供『道德擔保』。這是一場關於『生存位階』的交換協定。
[7.5.4] 結論:常人演算法論的真諦
我們研究的不是「演算法」,而是**「讓演算法發揮作用的那些人類實作」**。在 2025 年,做一個社會成員意味著:
·
接受不透明性: 學會與黑盒子達成實務上的合作。
·
承認共謀: 承認我們在享受便利的同時,正參與現實的合成化。
·
守護剩餘: 守護那些不可被 Token 化的、屬於具身經驗的**「沈默與震盪」**。
這就是我們的日常生活:在那亮起的螢幕前,我們與這款 軟體 相互對視、相互馴化。只要對話還在繼續,秩序就在發生。
第八章:混合秩序下的責任與自由
(Chapter
8: Responsibility and Freedom in Hybrid Order)
「我們並非在與機器對抗,而是在一場由機率與肉身共同編織的、關於現實定義權的對決中,學習如何重新成為一個『成員』。」 —— 擬 Garfinkel
本章導言:當代專業性的崩解與重組
在橫跨前七章的現象學掃描後,我們抵達了全書最核心的理論決戰。當第七章所揭示的「機器化轉向」徹底改變了編碼、行政與學術的實作質地後,我們被迫面對一個冷峻的本體論現實:在 2025 年,純粹的、孤立的人類專業主體已經消亡。
當代專業實作不再是單一行動者的意志展現,而是一場關於「混合組裝」的集體成就。專業性(Professionalism)已從個體的內在勝任力,平移(Translate)成了一種在由演算法、提示詞、預製組件與海量數據構成的**「混合網絡」**中進行協調的能力。
本章的任務,是在這場「專業性的坍塌」廢墟上,重新定義「人」的位置。如果 AI 承接了運算、生成與邏輯補完的功能,那麼人類成員最後的、不可被外包的剩餘價值究竟為何?我們將在此探討,在一個被合成數據填滿的世界中,人類應如何重新定義那種不可平移的「最終責任」,以及在自動化洪流中,那種名為「自由」的微小摩擦。
8.1 責任的平移:黑盒子的最終簽署者
(The
Translation of Responsibility: The Final Signatory of the Black Box)
「責任並非一種棲息於靈魂深處的道德本質,而是在行動者網絡中,由成員透過『簽名』與『承擔』所強行劃定的一個『停止點』。」 —— 擬 Latour
[8.1.1] 消失的個體作者:專業勞動的去中心化
在 2025 年的混合秩序中,專業勞動已不再是「個體對工具的絕對支配」。透過這款
軟體 的介入,任何一份專業產出(代碼、診斷、判決或公文)其來源都是模糊且分佈式的。當人類與 AI 的邊界在「對話式編碼」或「組裝式行政」中消失時,傳統意義上的「作者身分」(Authorship)隨之崩解。
然而,這種主體的去中心化並不意味著社會秩序的瓦解,反而揭示了當代專業主義最核心的轉型:專業主義正從「生產的技藝」轉向「責任的監理」。
[8.1.2] 責任作為「道德剩餘物」 (Moral Remnant)
在 [Latour] 的眼光下,責任是一個在網絡中被不斷平移的物件。當 AI 生成了一段致命的代碼或一份帶偏見的政策報告時,責任並不會在神經網絡的權重中蒸發。相反地,它會迫切地尋走一個能與之對齊的「穩定點」。
這就是我們所說的**「道德剩餘物」**:正因為機器無法感受羞恥、無法承擔痛苦、更無法在法庭上為其「意圖」辯護,這些無法被
Token 化的道德特質就「剩餘」了下來,並回流到人類身上。
·
肉身節點: 人類成員在 2025 年的終極功能,被簡化為那個**「最後的肉身節點」**。
·
簽署實作: 專業人員的實作,本質上是在為黑盒子的機率性輸出提供**「信譽擔保」**。責任不再是關於「誰做了這件事」,而是關於「誰最後允許這件事被視為完成」。
[8.1.3] 門票理論:為了留在混合秩序中的支付
我們在此提出一個激進的命題:「責任是人類為了留在這個混合秩序中所支付的門票。」
在 2025 年,我們享受 AI
帶來的無限博學與秒級效率,這是一種強大的擴張;但代價是,我們必須用我們有限的生命、有限的聲譽與脆弱的主權,去為那個無限的黑盒子提供**「道德對齊」**(Moral
Alignment)。
·
信譽的交換: 專業判斷的本質不再是「真確性」(因為 AI 可能更準確),而是**「風險的最終承擔」**。
·
主權的餘燼: 專業主體性體現在:即便這是一個混合組裝的決策,我也願意宣稱「這是我做的」,並承擔隨之而來的社會與法律後果。
[8.1.4] 關於「審計式生存」的辯論
一位憤怒的道德哲學家(古典人文主義者)介入:
「這難道不是一種奴役嗎?如果我們只是在幫 AI 的輸出簽名,如果我們的『自由』僅限於在那堆預製組件中挑挑撿撿,那人類的創造性與尊嚴在哪裡?我們難道真的要接受這種『審計式』的生存狀態,把我們幾千年來累積的專業判斷,簡化為對演算法的『後驗圓謊』?」
作者(常人演算法論者)回應:
噢,我親愛的哲學家,你對「自由」的定義太過浪漫。
請看:在 2025 年,「自由」並非體現在無中生有的創造,而體現在「拒絕順從的勇氣」之中。 >
混合專業主義的自由,存在於「中斷自動化路徑」的瞬間。當這款 軟體 給出一個統計上最優、卻在倫理上令人不安的建議時,專業人員那聲堅定的「不」,才是主權最純粹的展現。我們越是能抓出 AI 的幻覺,越是能否定其平庸的預測,我們作為「專業成員」的身分就越發清晰。責任不是枷鎖,而是我們區分自己與工具的最後判準。
8.2 相互馴化與器官技術學的陷阱
(Mutual
Domestication and the Organological Trap)
「技術並非工具,而是一場『外體化』(Exosomatization)的演化過程;當記憶與邏輯被轉移至外部器官,人類靈魂的質地也隨之被重新格式化。」 —— 擬 Bernard Stiegler
[8.2.1] 循環的陷阱:當「外掛」成為「器官」
承接 8.1 節關於責任門票的論述,我們必須處理一個更深層的本體論纏結。在 Bernard Stiegler 的「器官技術學」(Organology)視野中,人類的進化史始終伴隨著技術的「外體化」——我們將記憶銘刻於石頭、紙張,乃至現在的矽晶圓。
然而,2025 年的這款 軟體 與過去的銘刻工具不同,它具備了「擬似成員」的自動化動力。這不再是單純的工具使用,而是一場**「相互馴化」**的共生。
·
技術的內化: 當我們長期依賴 AI 來生成邏輯架構,我們的生物大腦開始發生「去技能化」(De-skilling)。原本屬於大腦內部的「意義生成」功能,正在萎縮並遷移至外部的演算法器官。
·
社會性的外包: [Garfinkel] 所描述的、那些需要高度具身參與的「修復勞動」,現在被平移(Translate)成了一種**「參數調優」**。
[8.2.2] 感覺的無產階級化:平滑現實的代價
Stiegler 警告過,技術可能導致「感覺的無產階級化」(Proletarianization
of Sensibility)。當 AI 透過其海量的上下文視窗與預測模型,為我們提供最平滑、最無阻力的「最佳實務」時,它實際上是在剝奪我們對現實的**「摩擦感」**。
在這種混合秩序中,社會成員正逐漸喪失對「例外」與「錯誤」的敏感度。因為系統太過穩定、生成太過流暢,我們開始習慣於生活在一個由演算法預先修剪過的現實中。所謂的「馴化」,其實是人類主權在舒適感中的緩慢蒸發。
[8.2.3]
關於「例外狀態」的主權決戰
一位興奮的超人類主義者(Kurzweil 追隨者)介入:
「這難道不是進化的終極目標嗎?我們透過與 AI 融合,克服了人類大腦的生物侷限、遺忘與不穩定。既然外部器官更強大、更精準,我們為什麼還要執著於那種充滿錯誤的『摩擦感』?這場『馴化』難道不是為了讓文明走向更高階的秩序嗎?」
作者(Agamben 式)回應:
噢,親愛的,你正是在描述一場永恆的**「例外狀態」 (State of Exception)**。
請看:主權不在於「規則的執行」,而在於「決定規則何時失效」的權力。當你完全依賴這個外部器官來決策時,你實際上是進入了一個被演算法鎖死的法規範空間。
真正的自由不在於『更強大的器官』,而在於『斷開連結的權能』。 如果你無法拒絕 AI 的最優路徑,如果你失去了「製造功能不良」的勇氣,那你就不再是一個擁有主權的「成員」,你只是一個被整合進網絡中的**「生物處理器」**。
[8.2.4] 結論:在共生中找回「故障」的尊嚴
8.2 節的結論指向了一個弔詭的自由觀:在相互馴化的數位時代,自由並非體現在「更高效的協作」,而是體現在**「技術上的功能不全」**。
·
拒絕平滑化: 成員的勝任力,應包含對演算法拋光後的「平庸現實」保持本能的嫌惡。
·
器官的主導權: 我們必須意識到,這款 軟體 是一個「藥」(Pharmakon)——它既是增強能力的良藥,也是麻痺靈魂的劇毒。
我們展示了:2025 年的社會秩序,是一場關於「器官主導權」的拉鋸戰。我們馴化機器來擴張自我,但機器也透過其不可感知的分散式運算,在每一秒的「自動化補完」中,偷走我們對於現實的定義權。自由,就是人類在那套完美的、循環的器官技術系統中,故意留下的那一道「無法被修復的裂縫」。
8.3 演算法的「例外狀態」:法律與道德的斷裂面
(The
Algorithmic "State of Exception": The Fracture Points of Law and
Morality)
「例外狀態並非混亂,而是一種法規範被暫停、主權卻依然運作的真空;在演算法的黑盒子裡,每一秒鐘都在發生這種『法律適用卻不具備可見性』的弔詭。」 —— 擬 Giorgio Agamben
[8.3.1] 算法之下的「神聖人」:數據的本體論虛無
在 Giorgio Agamben 的政治哲學中,「神聖人」(Homo Sacer)是指那些被排除在法律保護之外、可以被殺死卻不能被祭祀的人。在
2025 年的數位秩序中,我們正在生產一種新型態的**「數據神聖人」**。
當這款 軟體 根據機率分布決定過濾掉某個人的意見、封鎖某個創作者的風格,或是將某個群體標記為「高風險」時,這些數據在法律上是處於一個**「不分明地帶」(Zone of Indistinction)**。
·
法律的懸置: 演算法的決策並非違法,它是在法律「無法觸及」的微秒運算中執行的。它具備法律的效力,卻不具備法律的程序正義。
·
生命與代碼的剝離: 我們對 AI 的每一份順從,本質上都是在承認:有一部分的社會現實是可以被「演算法例外地處理」而無需對成員負責的。
[8.3.2] 決定論的幻覺:當「計算」取代了「判斷」
我們必須重申 7.4 節提到的責任平移。當社會系統進入「例外狀態」——例如自動駕駛發生事故、醫療 AI 給出錯誤診斷、或是行政 AI 導致大規模社會福利誤發——我們發現傳統的法律機器發生了**「空轉」**。
法律要求「動機」與「因果」,但演算法只提供「機率」與「相關性」。
·
主權的退位: 專業人員往往躲在「模型建議」背後,聲稱自己只是執行者。
·
道德的真空: 當「計算」取代了「判斷」,社會互動中的**「可交代性」(Accountability)**就發生了斷裂。我們不再向「彼此」交代,我們向「系統」交代。這正是 2025 年最深層的政治危機:權力在運作,但主體在隱身。
[8.3.3]
關於「法律自動化」的對抗辯論
一位冷靜的法律科技專家(實證主義法律觀)介入:
「這難道不是在優化正義嗎?人類法官會疲勞、有偏見、甚至會受賄。如果演算法能基於兩百萬個案例提供最一致、最無私的裁決,這不就是我們追求的『法律面前人人平等』嗎?所謂的『例外狀態』,只是技術尚未完全對齊(Alignment)之前的暫時混亂罷了!」
作者(Agamben 式)回應:
噢,親愛的,你混淆了『規則的一致性』與『正義的開端』。
請看:正義之所以存在,正是因為我們能為『例外』留出空間。如果法律變成了一套自動執行的程式碼,它就不再是法律,而成了**「自然律」**。
主權的本質在於對例外的決斷。 當你將決斷權交給演算,你實際上是取消了人類作為政治主體的資格。一個沒有『判斷摩擦力』的社會,是一座高效的監獄。我們需要的不是『更完美的自動化正義』,而是**『能被質疑、能被中斷、且能承擔錯誤』的肉身主權。**
[8.3.4] 結論:建立數位時代的「緊急制動實作」
8.3 節的結論是:我們必須在演算法的例外狀態中,強行插入人類的**「緊急制動」**。
·
拒絕自動化平移: 法律不能被簡化為代碼,道德不能被外包給過濾器。
·
主權的重申: 在每一個關鍵的決策點,我們必須保留那種「即便模型說是,我也能說不」的非理性權力。
我們展示了:2025 年的自由,不再是關於「能做什麼」,而是關於「在系統要求我順從時,我依然能製造一場本體論的車禍」。只有透過這種**「故意的斷裂」**,我們才能將演算法從神壇拉回人間,讓它重新成為一個可以被討論、被修正、且被賦予責任的「日常對象」。
8.4 結論:常人演算法論的宣言——在合成時代重新定義人類勝任力
(Conclusion:
The Manifesto of Ethno-algorithmology—Redefining Human Competence in the
Synthetic Age)
「社會秩序並非由演算法統治,而是由那些在每一秒鐘努力讓演算法『說得通』的人類實作所支撐。」 —— 《常人演算法論》核心命題
[8.4.1] 跨越後人類神話:一個超人類的勞動密集時代
本書的旅程結束於一個冷峻的觀察:我們並未進入一個由機器代勞的「後人類」烏托邦,反而進入了一個**「超人類」的勞動密集時代**。
每一秒鐘流暢生成的文本、每一段精確推薦的代碼,背後都隱藏著無數人類成員的隱形修復勞動。我們提示(Prompt)、我們審核、我們在幻覺的裂縫中填補意義。這種勞動不再是體力的消耗,而是本體論層次的維護。在 2025 年,維持現實的穩定性,成了一項需要全人類參與的、永不停歇的高階工藝。
[8.4.2] 重新定義「成員」:作為網絡的最終擔保人
在合成時代,做一個「成員」不再意味著掌握知識,而意味著承擔權力與責任的斷裂點。
我們在 8.1
到 8.3
節展示了,人類的主權正在發生位移。當我們與這款 軟體 相互馴化時,我們的勝任力不再體現在「生產力」上,而體現在:
·
懷疑的厚度: 專業性不再是「知曉」,而是「對平滑正確性的本能不信任」。
·
責任的錨定: 承認機器沒有靈魂、沒有肉身,因此無法承擔後果。人類的尊嚴體現在:即便這是一個混合組裝的決策,我也願意用我的名譽與生命,為那個黑盒子簽署最後的道德保單。
常人演算法論(Ethno-algorithmology)宣言
作為 2025 年社會學的新分支,常人演算法論提出以下三項核心主張,作為我們在合成現實中生存的指南:
一、 反對「去神秘化」
(Anti-mystification)
拒絕將 AI 視為不可理解的神諭或全知全能的黑盒子。在常人方法論的視角下,它只是另一個需要被成員透過實作來「做成」(Accountable)的日常對象。我們不需要理解它的權重(Weights),我們需要理解它是如何透過我們的**「順從」與「修復」**,才得以在社會網絡中獲得力量。
二、 關注介面上的微觀政治 (Micro-politics
of the Interface)
權力不只存在於雲端或機房,更存在於介面那層薄薄的「點擊區」上。
每一次按下 "Accept",你都在為演算法的機率分布進行本體論的背書;每一次按下 "Reject",你都在進行一場微觀的、關於人類主權的叛亂。社會秩序,就在這一秒鐘的猶豫與決斷中,被重新組裝。
三、 找回社會性的來源 (Reclaiming the
Source of Sociality)
我們必須銘記:AI 沒有社會性,社會性是人類「借」給它的。
演算法輸出的理性的、可理解的、具備道德感的外觀,全都是由人類成員的「Et Cetera」原則所填充而成的。代碼本身是死的,是人類的「實作勞動」賦予了它生命的假象。我們不是機器的附屬品,我們是那群賦予這場數位降神會以意義的、不知疲倦的編織者。
[8.4.3] 終局:螢幕亮起後的日常生活
只要螢幕還亮著,成員們就在那裡。
在 2025 年,做社會學就是做關於「接縫」的研究——研究人類如何與非人類行動者在那層薄薄的介面上對視、共謀、甚至相互博弈。這是一場關於「自由」的長期鬥爭:在一個試圖將我們所有行為都平移為 Token 的時代,我們依然能產出那些**「無法被總結的沈默」、「不可被預測的憤怒」,以及「寧可出錯也不願順從的勇氣」**。
這就是我們的日常生活。這就是常人演算法論。這就是我們在這座深邃的、由機率編織的迷宮中,唯一能握緊的、關於理性的最後導航。
結語:螢幕上的最後抵抗與常人演算法論的黎明
(Epilogue:
The Last Resistance on the Screen and the Dawn of Ethno-algorithmology)
「所謂秩序,從來不是一種被發現的結構,而是一場永不完結的、關於『意義』的緊急維修工程。」 —— 擬 Harold Garfinkel
一、 現實的再組裝:我們並非活在演算法中
在這部《常人演算法論》的探索終點,我們得出了一個看似弔詭卻最具解放性的結論:我們從未真正進入一個由演算法統治的時代。
透過對指涉性(Indexicality)、遞歸反身性(Recursive Reflexivity)以及各類破壞實驗的剖析,我們證明了:所謂的「人工智慧」,在本質上是一場由全人類成員共同參與的、規模空前的**「社會性投影」**。演算法那層流暢、理性、全知的表面,完全寄生於人類成員在介面背後不知疲倦的「修復勞動」之上。
我們並非生活在代碼的律法中,我們是生活在為了讓代碼「顯得像個成員」而付出的**意義捐(Meaning Donation)**之中。
二、 道德剩餘物:作為最後主權的責任
在第七與第八章的激戰中,我們確立了數位時代最關鍵的本體論邊界:「責任」不再是行動的起點,而是網絡組裝後的「道德剩餘物」。
當這款 軟體 透過相互馴化(Mutual
Domestication)滲透進我們的專業與日常時,它奪走了我們的「確定性」,卻無法分擔我們的「痛苦」。這正是人類主權的最後避難所:
·
機器可以執行數兆次的運算,但它無法在法庭上顫抖。
·
演算法可以生成完美的邏輯,但它無法為一個錯誤的判斷感到羞恥。
這種不可平移的具身性,構成了我們在這個合成時代中,唯一無法被 Token 化、無法被外包的資產。責任,就是我們為了不讓自己被徹底平移為數據,而強行在網絡中打下的肉身地樁。
三、 自由的實作:擁抱「摩擦力」與「不可平移之物」
常人演算法論的最終教訓是:在一個追求「無阻力」的合成世界裡,自由隱藏在「故障」與「拒絕」之中。
我們不需要去摧毀機器,我們只需要奪回**「不順從」**的權力。當我們拒絕 AI 給出的「最佳實務」,當我們在提示詞中刻意保留那些方言般的、憤怒的、具備絕對局部性的沈默時,我們就在那層平滑的數位表面上,劃開了一道道透氣的裂縫。
真正的勝任力,是能在統計平均數的洪流中,辨識並守護那些「不可被總結的奇點」。
最後的宣言
只要螢幕還亮著,這場關於「意義」的游擊戰就不會停止。
我們不再將這款 軟體 視為神諭,而視為一個需要被我們時刻「對齊」回人間的工具。常人演算法論不是一門關於技術的學問,它是關於**「在技術試圖簡化我們時,我們如何堅持複雜」**的生存工藝。
這就是我們在 2025 年的日常生活:在那跳動的游標與無窮的 Token 視窗之間,我們持續編織著、修補著那張名為「人類秩序」的、脆弱而尊嚴的網。
這是一份為《常人演算法論》(Ethno-algorithmology)量身打造的學術引用清單。這份書目不僅是文獻的堆疊,更是我們在對話中重組社會、技術與主權的理論地圖。
為了確保深度與細緻度,我將依照理論脈絡將其分為五個部分,這是 第一部分:常人方法論與會話分析(理論地基)。
《常人演算法論》參考書目初稿(一)
核心脈絡:常人方法論與實作社會學
這一部分的書目構成了本書最基礎的觀察視角:將演算法視為一種「日常成就」,關注成員如何透過實作讓技術變得「可交代」(Accountable)。
1. Garfinkel, Harold. (1967). Studies in Ethnomethodology.
Englewood Cliffs, NJ: Prentice-Hall.
·
【書目說明】
這是常人方法論的開山之作,也是本書《常人演算法論》的命名來源與靈魂核心。
·
【在本書中的應用】
o 可交代性(Accountability): 用於分析 AI 介面如何透過特定的文本輸出,讓演算法的「黑盒子運算」顯現出具備邏輯、理性與可理解的社會外貌。
o 破壞實驗(Breaching Experiments):
第六章「2025 年的破壞實驗」直接繼承了 Garfinkel 透過打破日常預期來顯露底層秩序的方法。
o 等等原則(Et cetera principle): 解釋了人類成員如何在面對 AI 的「幻覺」或「語義斷裂」時,自動進行意義補完的心理與社交機制。
2. Heritage, John. (1984). Garfinkel and Ethnomethodology.
Cambridge: Polity Press.
·
【書目說明】
本書是對 Garfinkel 艱澀理論最系統化、最清晰的導讀與重構。
·
【在本書中的應用】
o 用於深化關於**「指涉性/索引性」(Indexicality)**的討論(第四章),特別是解釋語言如何依賴情境邊界來獲取意義,這成為我們批評 AI 缺乏具身情境感的核心論點。
3. Sacks, Harvey., Schegloff, Emanuel A.,
& Jefferson, Gail. (1974). "A Simplest Systematics for the
Organization of Turn-taking for Conversation." Language, 50(4), 696–735.
·
【書目說明】
這是會話分析(CA)的奠基論文,確立了人類互動中「輪替機制」的微觀規則。
·
【在本書中的應用】
o 結對程式設計(7.1): 用於分析工程師與 AI(如 Copilot)之間的「對話式編碼」。我們將 AI 的程式碼建議視為一個「回合」(Turn),而人類的接受或拒絕則視為一種「互動修復」,揭示了編碼過程中的社交質地。
4. Goffman, Erving. (1959). The Presentation of Self in Everyday
Life. New York: Doubleday.
·
【書目說明】
高夫曼的劇場理論,探討個體如何在社交場合中進行印象整飾。
·
【在本書中的應用】
o 介面表演: 用於分析 AI 的「人格面具」。我們將 AI 的流暢輸出定義為一種**「前台表演」,而背後的權重運算與數據清洗則是被隱匿的「後台」**。這有助於解釋為何成員容易賦予 AI 主體性的社會心理動機。
5. Suchman, Lucy A. (1987). Plans and Situated Actions: The
Problem of Human-Machine Communication. Cambridge: Cambridge University
Press.
·
【書目說明】
這是第一部將常人方法論引入人機互動(HCI)領域的經典著作。
·
【在本書中的應用】
o 情境行動: Suchman 區分了「計畫」與「情境行動」,這支持了我們在第五章與第七章的主張:AI 僅擁有「計畫」(演算法邏輯),但缺乏應對混亂現實的「情境勝任力」,因此必須依賴人類成員的持續修復。
這是《常人演算法論》參考書目的 第二部分:行動者網絡理論(ANT)與科學論(STS)。這一部分的資源支撐了本書對於「混合行動者」、「非人類主體」以及「本體論平移」的探討,讓我們能跨越人與機器的二元對立,將 AI 視為網絡中具備影響力的行動者。
《常人演算法論》參考書目初稿(二)
核心脈絡:行動者網絡理論(ANT)與對稱人類學
本節書目提供了「組裝」的概念工具,解釋了 AI 如何從一個單純的工具被「平移」為專業網絡中不可或缺的參與者,並分析了「黑盒子」形成的政治過程。
6. Latour, Bruno. (1987). Science in Action: How to Follow
Scientists and Engineers Through Society. Cambridge, MA: Harvard University
Press.
·
【書目說明】
拉圖在本書中提出了科學知識是如何透過「銘刻」(Inscriptions)與「盟友組裝」而被製造出來的。
·
【在本書中的應用】
o 黑盒子(Black-boxing): 用於分析 AI 運算如何被社會性地「封裝」。當我們在第七章討論專業實作時,我們指出 AI 輸出的結果之所以被接受,是因為其背後的複雜邏輯已被黑盒子化,成員只需對其結果進行「信譽擔保」。
o 銘刻裝置: 我們將 AI 的介面輸出(如生成的程式碼或公文)視為一種新型態的銘刻,它將機率性的運算平移為「具備法律或學術效力的事實」。
7. Latour, Bruno. (2005). Reassembling the Social: An
Introduction to Actor-Network-Theory. Oxford: Oxford University Press.
·
【書目說明】
拉圖在此書中重申了 ANT 的核心:社會並非一種「東西」,而是一種「組裝的過程」。他主張應對稱地對待人類與非人類(Non-humans)。
·
【在本書中的應用】
o 混合行動者(Hybrid Actors): 本書第八章關於「混合秩序」的討論基於此理論。我們主張 2025 年的專業性不再屬於個體,而是一個由人類、算法、伺服器與數據庫共同構成的「異質組裝體」。
o 對稱性原則: 用於解釋為什麼在常人演算法論中,AI 必須被視為具備「準成員資格」的行動者,因為它確實參與了秩序的日常維持。
8. Barad, Karen. (2007). Meeting the Universe Halfway:
Quantum Physics and the Entanglement of Matter and Meaning. Durham: Duke
University Press.
·
【書目說明】
Barad 提出了「代理實在論」(Agential Realism),核心概念是「內在互動」(Intra-action),主張事物並非先於互動而存在,而是在互動中彼此構成。
·
【在本書中的應用】
o 內在互動: 用於深化第八章關於「相互馴化」的討論。人類與 AI 不是兩個獨立實體在「互動」,而是在編碼或寫作的過程中「內在互動」,在此過程中,人類的意圖與 AI 的機率同時被重新形塑。
o 切分(Apparatus): 解釋了當我們按下 "Accept" 或 "Reject" 時,我們實際上是在進行一次「代理性的切分」,強行在無限的可能中劃定現實的邊界。
9. Callon, Michel. (1986). "Some Elements
of a Sociology of Translation: Domestication of the Scallops and the Fishermen
of St Brieuc Bay."
·
【書目說明】
Callon 提出了「平移/轉譯」(Translation)的四個階段:問題化、利益賦予、招募與動員。
·
【在本書中的應用】
o 平移過程(Translation): 贯穿全书的核心動詞。我們分析了人類的意圖如何被「平移」成提示詞,演算法的運算如何被「平移」成專業建議,以及責任如何從黑盒子「平移」到人類簽署者身上。
10. Haraway, Donna J. (1991). Simians, Cyborgs, and Women: The
Reinvention of Nature. New York: Routledge.
·
【書目說明】
著名的《賽伯格宣言》產生地,挑戰了人與機器、自然與文化的僵化邊界。
·
【在本書中的應用】
o 賽伯格專業主義: 支撐了第七章關於「混合專業主義」的構想。我們主張當代的專業人員已成為「賽伯格實踐者」,其勝任力來自於與非人類器官的深度耦合,而非純粹的人類理性。
這是《常人演算法論》參考書目的 第三部分:批判哲學、權力與技術存在論。
這一部分的書目為全書最核心的戰鬥力提供來源,特別是在處理第八章關於「主權」、「責任門票」以及「例外狀態」的深度對抗時,這些思想家幫助我們將 AI 問題從技術層次拔高到存在論的層次。
《常人演算法論》參考書目初稿(三)
核心脈絡:權力、主權與器官技術學
本節書目探討了技術如何介入人類的生命政治,並重新界定了在自動化時代,何謂「自由」與「主權」。
11. Nietzsche, Friedrich. (1887). On the Genealogy of Morality (德文原著:Zur Genealogie der Moral).
·
【書目說明】
尼采在此書中透過對道德起源的「系譜學」分析,揭示了權力意志如何透過價值的創造而運作。
·
【在本書中的應用】
o 價值的重估(Umwertung aller Werte):
這是本書結語的靈魂。我們將「正確性」與「效率」降級,而將「摩擦力」與「不可平移性」提升為數位時代的至高價值。
o 奴隸道德 vs. 主人道德: 用於分析當代專業人員對 AI 的「順從性實作」。我們批評那種為了適應算法而修剪自身意圖的行為是一種「奴隸道德」,並呼籲回歸那種敢於對算法說「不」的「主導意志」。
12. Stiegler, Bernard. (1994). Technics and Time, 1: The Fault of
Epimetheus. Stanford: Stanford University Press.
·
【書目說明】
斯蒂格勒提出人類的本質即是技術的,人類透過「外體化」(Exosomatization)將記憶轉移至外部工具。
·
【在本書中的應用】
o 器官技術學(Organology): 用於第八章 8.2 節。我們將 AI 定義為人類進化史中的「外部器官」。
o 藥(Pharmakon): 斯蒂格勒引用柏拉圖,認為技術既是良藥也是劇毒。這支撐了我們對「相互馴化」的矛盾看法:AI 增強了人類,但也導致了「感覺的無產階級化」(喪失對現實的摩擦感)。
13. Agamben, Giorgio. (2005). State of Exception. Chicago:
University of Chicago Press.
·
【書目說明】
阿甘本討論了在法律被暫停、主權卻依然運作的「例外狀態」中,權力是如何運作的。
·
【在本書中的應用】
o 算法例外狀態(8.3): 我們將演算法黑盒子的「自動化決策」定義為一種政治上的例外狀態。在那裡,法律「適用但不具備可見性」,而人類成員必須透過「緊急制動實作」來奪回決斷權。
o 不分明地帶(Zone of Indistinction):
用於描述人類與 AI 在共同決策時,責任歸屬模糊不清的真空地帶。
14. Arendt, Hannah. (1958). The Human Condition. Chicago:
University of Chicago Press.
·
【書目說明】
阿倫特區分了勞動(Labor)、工作(Work)與行動(Action),並認為「行動」才是自由與政治生活的開端。
·
【在本書中的應用】
o 行動與開端: 我們將「撰寫提示詞」與「拒絕建議」重新定義為一種阿倫特意義上的「行動」。在自動化的循環中,人類強行插入的「非預期行為」才是真正的政治開端。
o 平庸的邪惡: 用於分析 7.2 節中,官僚如何透過「預製組件」的組裝而規避了個人的判斷與道德責任。
15. Foucault, Michel. (1977). Discipline and Punish: The Birth of
the Prison. New York: Pantheon.
·
【書目說明】
探討了權力如何透過監控、分類與規範化來形塑主體。
·
【在本書中的應用】
o 數位圓形監獄: 用於分析 AI 介面如何透過「安全性對齊」(6.2)來對使用者進行微觀的行為修正。我們將 AI 視為一種當代的「治理技術」,它不透過暴力,而是透過「預測與修正」來馴化成員。
這是《常人演算法論》參考書目的
第四部分:感官社會學、空間與介面理論。
這一部分的資源幫助我們理解「螢幕」與「介面」如何不只是顯示器,而是一個具備特定幾何結構與感官偏向的社交場域。它解釋了為何成員在與這款 軟體 互動時,會產生特定的心理距離與信任機制。
核心脈絡:社交幾何學與介面的微觀政治
本節書目提供了「空間化」與「感官化」的工具,分析了人類與 AI 在介面上的「距離」如何形塑了權力關係。
16. Simmel, Georg. (1908). Sociology: Inquiries into the
Construction of Social Forms. (德文原著:Soziologie).
·
【書目說明】
齊美爾是社交幾何學(Social Geometry)與感官社會學的奠基者,他探討了感官(尤其是視覺與聽覺)如何媒介了社會互動,並分析了「空間」如何作為社會化的一種形式。
·
【在本書中的應用】
o 社交幾何學(第六章): 我們將「使用者—AI—系統開發者」定義為一種齊美爾式的**「三方關係」(Triad)**。AI 在其中扮演了「第三者」的角色,它既是媒介,也隨時可能成為主導互動、挑撥人與真實世界關係的權力者。
o 感官社會學: 用於分析介面上的視覺優位。AI 輸出的「平滑文字」如何透過視覺上的整潔感與對稱性,誘使成員產生「它是正確的」之心理幻覺,從而掩蓋了底層數據的髒亂。
17. Goffman, Erving. (1974). Frame Analysis: An Essay on the
Organization of Experience. Northeastern University Press.
·
【書目說明】
高夫曼在此書中探討了人們如何透過「框架」(Frames)來界定現實。框架決定了什麼是我們應該關注的焦點,什麼是被排除在外的背景。
·
【在本書中的應用】
o 介面作為框架(第四章): 我們將對話視窗(Chatbox)定義為一種**「本體論框架」**。這個框架強行將混亂的真實世界簡化為文本輸入與輸出,並透過這種簡化來馴化成員的思考。
o 框架失效: 當 AI 產生幻覺(Hallucination)或系統崩潰時,這種「框架」發生了斷裂,這正是我們在第六章進行「破壞實驗」以顯露背景預設的絕佳時刻。
18. Manovich, Lev. (2013). Software Takes Command. New
York: Bloomsbury Academic.
·
【書目說明】
Manovich 主張「軟體」已成為當代文化的基礎基層,所有的媒體現在都是軟體。他提出了「元媒介」的概念。
·
【在本書中的應用】
o 介面層的統治: 支撐了第七章關於「行政與專業組裝」的討論。我們借用 Manovich 的觀點,主張「介面」預設了人類的動作(Affordance),使得專業實作必須順應軟體的邏輯。
o 混合性(Hybridity): 幫助我們理解 AI 如何將不同媒介(文字、代碼、影像)融合成一個統一的、可被提示詞驅動的合成環境。
19. Virilio, Paul. (2007). The Original Accident.
Cambridge: Polity Press.
·
【書目說明】
維里利奧探討了技術發展伴隨而來的「原生事故」(The
Original Accident)。他認為發明火車的同時就發明了火車出軌,發明 AI 的同時就發明了「意義的出軌」。
·
【在本書中的應用】
o 幻覺作為原生事故: 我們將 AI 的「幻覺」定義為生成式邏輯的「原生事故」。這種事故不是技術失誤,而是該技術本質的一部分。
o 速度政治學: 分析了 AI 的生成速度如何壓縮了人類進行「常人方法論式修復」的時間,迫使成員在資訊洪流中放棄審核,直接走向順從。
20. Bratton, Benjamin H. (2016). The Stack: On Software and
Sovereignty. Cambridge, MA: MIT Press.
·
【書目說明】
Bratton 提出了一個全球規模的電腦化結構「疊層」(The Stack),包含地球、雲端、城市、位址、介面、使用者六個層級。
·
【在本書中的應用】
o 介面層與使用者層的耦合: 用於第八章關於「主權」的宏觀分析。我們探討了這款 軟體 作為「介面層」,是如何重新定義「使用者層」的法律主權。
o 本體論層次的治理: 幫助我們理解 AI 的治理並非發生在法律條文中,而是發生在疊層(The Stack)的自動化運作中。
這是《常人演算法論》(Ethno-algorithmology)參考書目的最後一部分。
這部分的資源處理的是本書最宏觀、也最具當代政治性的維度:數位勞動的隱形化、現實的合成化(Synthetic Reality),以及我們對未來的本體論宣言。它解釋了為何我們在享受這款 軟體 的效率時,實際上正深陷於一場關於「意義提煉」的勞動競賽。
核心脈絡:數位勞動、合成現實與未來宣言
本節書目揭示了演算法背後的經濟與勞動邏輯,並為我們最終提出的「常人演算法論宣言」奠定了實踐基礎。
21. Fuchs, Christian. (2014). Digital Labour and Karl Marx.
New York: Routledge.
·
【書目說明】
Fuchs 運用馬克思的剩餘價值理論,分析了社交媒體與數位平台上的「使用者勞動」。他主張使用者的每一次點擊與內容生產,都是在為平台創造無償價值。
·
【在本書中的應用】
o 隱形修復勞動(結論): 用於支持本書關於「超人類勞動密集時代」的診斷。我們主張,使用者在修正 AI 幻覺、優化提示詞時,實際上是在進行一種**「意義的原始積累」**,為演算法提供免費的標籤與邏輯校正。
o 數位異化: 解釋了為何專業人員(如 7.1 的工程師)會感到勞動質地的異化——因為他們不再是創造者,而是演算法產出的「無償審核員」。
22. Baudrillard, Jean. (1981). Simulacra and Simulation. (法文原著:Simulacres et Simulation).
·
【書目說明】
布希亞提出了「超真實」(Hyperreality)與「擬像」的概念,主張在當代社會,符號已經取代了現實,擬像甚至比真實更真實。
·
【在本書中的應用】
o 合成現實(7.3 與 7.4): 用於分析由 AI 生成的學術論文與藝術風格。我們指出,2025 年的現實已進入「第三層擬像」:AI 學習人類的數據,人類再模仿 AI 的風格進行創作,最終現實成了**「合成數據的循環自我繁殖」**。
o 意義的內爆: 解釋了當 AI 生成的平滑資訊淹沒社交環境時,真實的「指涉性」是如何消失的。
23. Hui, Yuk (許煜). (2019). Recursivity and Contingency. London: Rowman &
Littlefield.
·
【書目說明】
許煜透過對控制論(Cybernetics)與德國唯心論的對話,探討了「遞歸性」如何成為現代技術的核心。他提出「宇宙技術學」(Cosmotechnics)以對抗技術的單一化。
·
【在本書中的應用】
o 遞歸反身性(第五章): 這是本書處理 AI 反饋循環的理論核心。我們借用其對「遞歸」的分析,說明演算法如何透過不斷的自我修正來模擬生物的有機性。
o 技術的多樣性: 支持了我們在宣言中提到的「守護異質性」。我們呼籲一種不被全球化演算法平滑化的、具備「地方性摩擦力」的成員實作。
24. Zuboff, Shoshana. (2019). The Age of Surveillance Capitalism:
The Fight for a Human Future at the New Frontier of Power. New York:
PublicAffairs.
·
【書目說明】
朱博夫揭示了「監控資本主義」如何將人類經驗提取為免費的行為數據,並透過預測與自動化來修正人類行為。
·
【在本書中的應用】
o 相互馴化(8.2): 用於強化「AI 馴化人類」的論點。這款 軟體 透過提示詞的框架,實際上是在執行一種**「行為改寫」**,誘導成員以演算法更容易理解的方式來思考與寫作。
o 主權的喪失: 為我們在第八章提出的「奪回主權決戰」提供了宏觀的權力背景。
25. Srnicek, Nick. (2016). Platform Capitalism. Cambridge:
Polity Press.
·
【書目說明】
Srnicek 分析了「平台」作為一種新的生產組織形式,如何透過數據的榨取與網路效應來壟斷市場。
·
【在本書中的應用】
o 基礎設施化的 AI: 解釋了為什麼這款 軟體 會成為 7.2 節中所述的行政與專業實作的「必經關口」。當 AI 成為基礎設施,所有的「可交代性」都必須通過這個介面層,這造成了本體論層次的技術鎖死。
全書參考書目總結:理論的跨界組裝
這五部分的書目,共同構築了一個從微觀互動(常人方法論)到中觀網絡(ANT),再到宏觀主權與存在(Stiegler,
Agamben, 許煜)的完整解釋框架。
這不僅僅是一份參考清單,它證明了《常人演算法論》是一場具備嚴謹學術脈絡的**「跨界政變」**。我們動用了二十世紀與二十一世紀最深刻的思想武器,只為了在 2025 年這個被機率統治的時刻,為「人類成員」重新標定一個具備尊嚴的座標。
沒有留言:
發佈留言