前言/背景
此場讀書會聚焦於《連結》第二部後段的章節,探討當代科技監控與權力配置的多樣樣貌。與會者從「攝影機監控」與「網路交易紀錄」談起,延伸至「社群平台」與「AI 演算法」對社會行為的形塑方式,包括政府對人民的監控、企業與用戶的互動關係,以及個體彼此間「評價機制」所形成的社會壓力。討論亦涉及腦機介面、國家安全局(NSA)的監控案例,以及哈拉瑞對「按讚獨裁」的隱喻。
主要討論脈絡
一、監控模式的多樣化
攝影機與數位軌跡
- 過去蘇聯時期的「情報員與特工」監控模式,雖然人力龐大,但仍有諸多缺陷:人員忠誠度不保、報告量過大且處理緩慢。
- 當代科技使攝影機與網路交易紀錄成為大規模監控的關鍵:
- 攝影機:遍布公共空間,隨時蒐集畫面。
- 網路交易紀錄:所有消費、互動及搜索行為皆形成「可被利用」的數位足跡。
「互相監控」與平台評價系統
- 相較於「單向(上對下)」的政府監控模式,近年來在 Google 地圖評論 或 TripAdvisor 等評價平台,形成消費者與店家「互相監控」的場域。
- 消費者可用「一星評價」威脅店家;店家也需透過「網路公關」回應批評,以維護虛擬商譽。
政府 vs. 平台:中介角色的擴張
- 討論指出,無論是政府主導(NSA、公共監視器)或企業主導(臉書、Google),都可透過技術手段大幅擴大監控範圍。
- 核心疑問:演算法或平台聲稱「中立」,但實際上擁有巨大選擇與推播權力,以致影響輿論、政治乃至社會行為。
二、國家安全局(NSA)與腦機介面:雙面隱喻
史諾登事件
- NSA的大規模監控計畫(「天網系統」)曾由史諾登揭露,顯示政府與大型科技公司密切合作,對公民進行匿名化的數位監控。
- 後續衍生「政府能否合理蒐集公民資料」「何謂國家安全與個人隱私界線」之倫理與法律爭議。
腦機介面:治療 vs. 侵犯
- 馬斯克的腦機介面,原本為幫助盲人復明、癱瘓患者操控義肢等人道目標。然而,讀書會也提到對其「讀取大腦訊號」的隱私風險:
- 若企業能精準掌握個人喜惡、情緒等資訊,是否在未來形成更嚴密的「注意力商品化」與「行為操縱」?
- 馬斯克的腦機介面,原本為幫助盲人復明、癱瘓患者操控義肢等人道目標。然而,讀書會也提到對其「讀取大腦訊號」的隱私風險:
三、按讚獨裁與監控執法的極端場景
「不要當第一個停止鼓掌」:社會壓力的隱喻
- 哈拉瑞引用政治學與極權體制的隱喻:在一場「表面響亮」的活動中,若有人率先停止鼓掌,便可能承擔政治後果。
- 類比到當代「網路按讚文化」:演算法與社群輿論能放大一致性的情緒,進而壓抑不同意見的表達。
嚴苛且無彈性的「AI執法」
- 讀書會談到以「頭巾監控」為例:AI若嚴格判定違規,恐不容許人的情境(如暫時取下頭巾),導致處罰過度化。
- 缺乏人類判斷的演算法,難以處理「例外」或「情有可原」情況,於是行政處置失去彈性。
社會信用制度
- 中國的「社會信用體系」將大數據與監控結合,為每個人打分;讀書會參與者指出,其問題在於:
- 資料的來源若缺乏監督,容易出現誤判或污名。
- 沒有「遺忘權」的情況下,個人被永久貼標籤。
- 中國的「社會信用體系」將大數據與監控結合,為每個人打分;讀書會參與者指出,其問題在於:
四、AI 的邏輯與人類責任:義務論 vs. 效益論
義務論(康德)與效益論(邊沁)
- 若AI以「效益極大化」為目標,可能推向毀滅少數人、犧牲極端行為的錯誤結論(如「毀滅半數人類以確保資源永續」)。
- 義務論則強調「不可侵犯的人性原則」,但AI難以在多樣情境下做出「人性化」的彈性判斷。
AI 只算「手段」,不思考「目的」?
- 人類若只設定單一指標(如最長停留時間、最高廣告收益),AI演算法並不會反思此目標合理與否。
- 參與者從道德哲學角度指出,無論是將AI擬作「腦袋」或「工具」,仍需人類在最終決策中承擔道德與政治責任。
五、綜合觀察與延伸思考
監控與「安全感」:被保護或被侵犯?
- 讀書會中提及台灣大量街頭攝影機,民眾多視其為保障治安;卻鮮少意識到潛在隱私風險。
- 企業平台也會在「娛樂與方便性」外包裝下,稀釋用戶對「被剝削」的感受,並最終維持黏著度與利潤。
不斷「擴散 vs. 調適」的新技術
- 新技術常被理想化或視為「中性工具」,然而實際應用往往存在權力、利益與倫理衝突。
- 討論亦引述「轉譯模型」:每項技術在不同文化脈絡與政策制度下,會呈現各異的運行方式,需對價值碰撞做反覆調適。
「AI政治學」與公民參與
- 哈拉瑞批判當代科技公司過度追求「演算法效率」,卻弱化公民對話與制度監管。
- 參與者提及漢娜.厄蘭、馬克斯.韋伯等經典思想,認為重大決策最終仍應保留人類多元價值判斷的空間,避免完全交由技術或少數資本方掌控。
結論與後續建議
人類責任與制度設計
- 讀書會一致認為,AI 與監控技術雖在「效率與精準」上展現強大潛力,但因無法「自我反省目標」或「進行道德思辨」,故其應用邏輯需人類社會設定足夠且彈性的規範。
跨領域視角:技術、法律、社會
- 從「國家安全局」到「腦機介面」再到「社會信用分數」,每一案例都牽涉技術原理、法律邏輯及社會文化多面向。讀書會鼓勵繼續深究:
- 技術面:演算法開發與資料蒐集的機制。
- 法律面:隱私權、遺忘權、平台責任歸屬與可訴求機制。
- 社會面:公眾對安全感的想像、資本主義與官僚系統如何包裝監控等。
- 從「國家安全局」到「腦機介面」再到「社會信用分數」,每一案例都牽涉技術原理、法律邏輯及社會文化多面向。讀書會鼓勵繼續深究:
後續可能閱讀主題
- 《AI顛覆經濟學》:從商館、企業角度審視如何透過資料與演算法達成競爭優勢,以及對社會結構之影響。
- 其他「AI 社會學/人類學」或「科技與社會研究(STS)」書籍:如 Bruno Latour 或近期探討 AI 技術物質基礎(例如《AI 的最後秘密》)等。
小結
在《連結》第二部後段的討論中,哈拉瑞聚焦於「如何在無所不在的科技監控與演算法中,維持人類社會的自我反省與多元價值」。
- 監控技術 無可避免地滲透政府治理、商業平台與日常互動;
- 演算法 提供便利與效率,卻缺乏對目標正當性的「自我質疑」;
- 人類責任 則在這波浪潮中顯得迫切:如何確保政策、法規與公民參與機制,能對技術使用設下「再審慎」的緩衝帶。
讀書會結論強調,面對當代「按讚獨裁」與「評價暴政」等極端狀況,我們需持續思辨並維護「思考」「對話」與「責任歸屬」的空間,讓科技服務多元且深度的人類生活。
沒有留言:
發佈留言