2025年1月14日星期二

哈拉瑞《連結》第六章到第八章討論紀錄(下半場)詳細版本

 

前言/背景

此場讀書會聚焦於《連結》第二部後段的章節,探討當代科技監控與權力配置的多樣樣貌。與會者從「攝影機監控」與「網路交易紀錄」談起,延伸至「社群平台」與「AI 演算法」對社會行為的形塑方式,包括政府對人民的監控、企業與用戶的互動關係,以及個體彼此間「評價機制」所形成的社會壓力。討論亦涉及腦機介面、國家安全局(NSA)的監控案例,以及哈拉瑞對「按讚獨裁」的隱喻。


主要討論脈絡

一、監控模式的多樣化

  1. 攝影機與數位軌跡

    • 過去蘇聯時期的「情報員與特工」監控模式,雖然人力龐大,但仍有諸多缺陷:人員忠誠度不保、報告量過大且處理緩慢。
    • 當代科技使攝影機與網路交易紀錄成為大規模監控的關鍵:
      • 攝影機:遍布公共空間,隨時蒐集畫面。
      • 網路交易紀錄:所有消費、互動及搜索行為皆形成「可被利用」的數位足跡。
  2. 「互相監控」與平台評價系統

    • 相較於「單向(上對下)」的政府監控模式,近年來在 Google 地圖評論TripAdvisor 等評價平台,形成消費者與店家「互相監控」的場域。
    • 消費者可用「一星評價」威脅店家;店家也需透過「網路公關」回應批評,以維護虛擬商譽。
  3. 政府 vs. 平台:中介角色的擴張

    • 討論指出,無論是政府主導(NSA、公共監視器)或企業主導(臉書、Google),都可透過技術手段大幅擴大監控範圍。
    • 核心疑問:演算法或平台聲稱「中立」,但實際上擁有巨大選擇與推播權力,以致影響輿論、政治乃至社會行為。

二、國家安全局(NSA)與腦機介面:雙面隱喻

  1. 史諾登事件

    • NSA的大規模監控計畫(「天網系統」)曾由史諾登揭露,顯示政府與大型科技公司密切合作,對公民進行匿名化的數位監控。
    • 後續衍生「政府能否合理蒐集公民資料」「何謂國家安全與個人隱私界線」之倫理與法律爭議。
  2. 腦機介面:治療 vs. 侵犯

    • 馬斯克的腦機介面,原本為幫助盲人復明、癱瘓患者操控義肢等人道目標。然而,讀書會也提到對其「讀取大腦訊號」的隱私風險:
      • 若企業能精準掌握個人喜惡、情緒等資訊,是否在未來形成更嚴密的「注意力商品化」與「行為操縱」?

三、按讚獨裁與監控執法的極端場景

  1. 「不要當第一個停止鼓掌」:社會壓力的隱喻

    • 哈拉瑞引用政治學與極權體制的隱喻:在一場「表面響亮」的活動中,若有人率先停止鼓掌,便可能承擔政治後果。
    • 類比到當代「網路按讚文化」:演算法與社群輿論能放大一致性的情緒,進而壓抑不同意見的表達。
  2. 嚴苛且無彈性的「AI執法」

    • 讀書會談到以「頭巾監控」為例:AI若嚴格判定違規,恐不容許人的情境(如暫時取下頭巾),導致處罰過度化。
    • 缺乏人類判斷的演算法,難以處理「例外」或「情有可原」情況,於是行政處置失去彈性。
  3. 社會信用制度

    • 中國的「社會信用體系」將大數據與監控結合,為每個人打分;讀書會參與者指出,其問題在於:
      • 資料的來源若缺乏監督,容易出現誤判或污名。
      • 沒有「遺忘權」的情況下,個人被永久貼標籤。

四、AI 的邏輯與人類責任:義務論 vs. 效益論

  1. 義務論(康德)與效益論(邊沁)

    • 若AI以「效益極大化」為目標,可能推向毀滅少數人、犧牲極端行為的錯誤結論(如「毀滅半數人類以確保資源永續」)。
    • 義務論則強調「不可侵犯的人性原則」,但AI難以在多樣情境下做出「人性化」的彈性判斷。
  2. AI 只算「手段」,不思考「目的」?

    • 人類若只設定單一指標(如最長停留時間、最高廣告收益),AI演算法並不會反思此目標合理與否。
    • 參與者從道德哲學角度指出,無論是將AI擬作「腦袋」或「工具」,仍需人類在最終決策中承擔道德與政治責任。

五、綜合觀察與延伸思考

  1. 監控與「安全感」:被保護或被侵犯?

    • 讀書會中提及台灣大量街頭攝影機,民眾多視其為保障治安;卻鮮少意識到潛在隱私風險。
    • 企業平台也會在「娛樂與方便性」外包裝下,稀釋用戶對「被剝削」的感受,並最終維持黏著度與利潤。
  2. 不斷「擴散 vs. 調適」的新技術

    • 新技術常被理想化或視為「中性工具」,然而實際應用往往存在權力、利益與倫理衝突。
    • 討論亦引述「轉譯模型」:每項技術在不同文化脈絡與政策制度下,會呈現各異的運行方式,需對價值碰撞做反覆調適。
  3. 「AI政治學」與公民參與

    • 哈拉瑞批判當代科技公司過度追求「演算法效率」,卻弱化公民對話與制度監管。
    • 參與者提及漢娜.厄蘭、馬克斯.韋伯等經典思想,認為重大決策最終仍應保留人類多元價值判斷的空間,避免完全交由技術或少數資本方掌控。

結論與後續建議

  1. 人類責任與制度設計

    • 讀書會一致認為,AI 與監控技術雖在「效率與精準」上展現強大潛力,但因無法「自我反省目標」或「進行道德思辨」,故其應用邏輯需人類社會設定足夠且彈性的規範。
  2. 跨領域視角:技術、法律、社會

    • 從「國家安全局」到「腦機介面」再到「社會信用分數」,每一案例都牽涉技術原理、法律邏輯及社會文化多面向。讀書會鼓勵繼續深究:
      • 技術面:演算法開發與資料蒐集的機制。
      • 法律面:隱私權、遺忘權、平台責任歸屬與可訴求機制。
      • 社會面:公眾對安全感的想像、資本主義與官僚系統如何包裝監控等。
  3. 後續可能閱讀主題

    • 《AI顛覆經濟學》:從商館、企業角度審視如何透過資料與演算法達成競爭優勢,以及對社會結構之影響。
    • 其他「AI 社會學/人類學」或「科技與社會研究(STS)」書籍:如 Bruno Latour 或近期探討 AI 技術物質基礎(例如《AI 的最後秘密》)等。

小結

在《連結》第二部後段的討論中,哈拉瑞聚焦於「如何在無所不在的科技監控與演算法中,維持人類社會的自我反省與多元價值」。

  • 監控技術 無可避免地滲透政府治理、商業平台與日常互動;
  • 演算法 提供便利與效率,卻缺乏對目標正當性的「自我質疑」;
  • 人類責任 則在這波浪潮中顯得迫切:如何確保政策、法規與公民參與機制,能對技術使用設下「再審慎」的緩衝帶。

讀書會結論強調,面對當代「按讚獨裁」與「評價暴政」等極端狀況,我們需持續思辨並維護「思考」「對話」與「責任歸屬」的空間,讓科技服務多元且深度的人類生活。

沒有留言: