資料來源:Depounti, Iliana, and Simone Natale. "Decoding artificial sociality: Technologies, dynamics, implications." new media & society 27.10 (2025): 5457-5470.
摘要
與 ChatGPT 等人工智慧(AI)技術進行對話,正逐漸成為廣大群眾的日常經驗。然而,我們對於這些技術所促成的新興溝通動態仍所知甚少。本期特刊致力於探討 AI 一個日益重要且無所不在的面向:「人造社會性」(artificial sociality),定義為在機器中建構出社會行為表象的技術與實作。「人造社會性」此一概念旨在強調,機器僅是建構了一種社會性的幻象或擬態(artifice),此舉刺激了與之互動的人類投射出社會框架與意義。在本期特刊的導論中,我們討論了人造社會性的動態與意涵,並展示這些技術如何日益被納入數位平台中並成為常態。本期收錄的文章透過檢視從 ChatGPT 到 Replika 等廣泛的 AI 技術,提供了實證發現與理論洞見。
正文
讓人與機器能夠溝通的技術之出現與發展,引發了對人工智慧範疇與意涵的重新思考。與軟體進行對話的體驗,曾經僅限於特定情境與小圈子的使用者,如今正迅速成為全球廣大群眾的日常經驗(Capraro et al., 2024)。為了掌握並批判性地檢視這些新興動態的複雜性,我們需要詮釋框架與概念工具,以協助捕捉這些技術所促成的新型態社會體驗與互動。本特刊旨在推進此一議程。我們邀請投稿者探討「人造社會性」的意涵、動態、機會與風險,並將其定義為「在機器中創造社會行為表象的技術與實作」。整體而言,此處收錄的文章提供了實證與理論上的貢獻,有助於建立更堅實的基礎,以定義、理解並批判性地分析使用者與人工智慧(AI)之間新興的社會互動模式。
正如同人工智慧可被描述為建構出智慧的表象或幻象,而非智慧本身(Natale and Depounti, 2024),我們使用「人造社會性」一詞來強調 AI 所提供的社會參與是模擬的產物——它是一種擬態(artifice),而非社交的真實能力或意圖。人造社會性技術並不像人類在社會關係中那樣感知情緒或同理心。然而,僅是建構出社會性的表象,並不代表得人造社會性就較不重要或缺乏影響力。長期的研究傳統顯示,即使面對溝通能力不如今日生成式 AI 的事物,人們仍會對其投射社會意義與再現(representations)。例如,人們將玩偶、汽車與電子裝置等物體視為社會行動者(Appadurai, 1986; Reeves and Nass, 1996),並以高度擬人化的方式詮釋寵物等動物的行為(Serpell, 2005)。因此,生成式 AI 既能創造出極具說服力的社會行為、同理心與情感涉入的幻象(Lin, 2024),能在使用者的反應中引發強烈的社會投射,也就不足為奇了。透過動員「人造社會性」這個概念,本特刊強調必須採用能識別、定義並探索這些「創造社會性表象之 AI 技術」的意涵、潛力與風險的取徑。我們相信 AI 的這個面向需要專門的關注,以便在一個日益受人類與溝通機器之相遇所形塑的社會中,預測並適當引導未來多重且重要的挑戰。
這樣的研究議程在探討人工智慧與社會性交織的長期研究軌跡中,找到了堅實的立足點,這起源於 Sherry Turkle(1995, 2005)等學者的開創性著作。近期,Hofstede 等人(2021)使用人造社會性一詞來描述蒐集資訊並闡述人類社會行為知識的運算系統;Vejlin(2021)則用此術語描述社會機器人(social robotics)的實驗,這些實驗展演了「有助於重新配置『社會性是什麼以及可能是什麼』的新社會性形式」(頁 53)。然而,我們對此術語的使用旨在強調一個事實:機器僅建構了社會性的表象或幻象,而與這些機器互動的人類則透過社交化或啟動社會框架與意義,貢獻了他們自身的投射行為(Natale and Depounti, 2024)。相關的術語「演算法社會性」(algorithmic sociality)也被提出,用以捕捉「因數位化而出現的新後社會(post-social)關係」(Seyfert, 2024),但此概念是指涉數位科技與平台對社會結構的更廣泛意涵,而非 AI 所促成的社會行為模擬。透過動員人造社會性的概念,我們旨在闡明 AI 在使用者身上激發的投射機制,引導他們將社會意義賦予與社交機器人及溝通式 AI 的互動中。
人造社會性涵蓋了諸如語音助理、ChatGPT 或 Google Gemini 等大型語言模型(LLMs)、社交機器人(social bots),以及如 Replika 這類的陪伴型聊天機器人等工具與系統。在陪伴型聊天機器人的案例中,其社會面向顯而易見,因為這類互動原本就是為了模仿友誼並激發使用者的情感投入(Skjuve et al., 2022)。但更廣泛來說,社會性表象的建構是所有被程式化為與人類對話的機器的特徵。由於人類溝通是一種社會活動,即便是溝通交流中細微且看似無關緊要的組成部分,也飽含著社會意義(Stokoe, 2018)。例如,研究顯示,若將聊天機器人設計為使用主觀語言,使 AI 看起來擁有自己的想法與意見,可能會讓 AI 對使用者而言顯得更值得信賴且討喜(Pan et al., 2024)。
因此,不只是像 Replika 這種專為促進社會參與而打造的代理人(agents),即便是主要設計用於創意工作、教育與資訊檢索等實務領域的系統,如 ChatGPT 和 Gemini,也啟動了人造社會性的機制。例如,ChatGPT 使用第一人稱代名詞:它會說「我犯了一個錯」和「我很樂意協助你」,而不是說「系統犯了一個錯」或「系統設計為協助你」(Shneiderman and Muller, 2023)。此外,其表面上「中立」的語氣有助於營造一種知識權威的印象,正如新聞報導或 Podcast 的措辭方式會引導人們對其公正性的假設(Scherer, 2012)。Google 方面近期透過一支廣告推廣其 AI 助理 Gemini,展示使用者不僅能執行廣泛的任務,還能就運動或流行文化等日常話題進行非正式對話(Hiken, 2024)。行銷與人機互動交叉領域的研究探討了用於客戶服務的聊天機器人如何透過語言創造個性表象,以及這如何影響消費者參與和購買結果(Shumanov & Johnson, 2021),且越來越多證據顯示類似的手法也被運用於政治傳播中(Ben-David and Carmi, 2024)。Guzman(2016)曾論證,即便是基於 AI 的工業與製造技術,乍看之下或許是「沈默」的機器,實際上也是在一個文化與社會飽和的環境中進行溝通。所有這些例子都顯示,社會性的表象不僅涉及如 Spike Jonze 2013 年電影《雲端情人》(Her)那樣的情境——主角愛上了嵌入裝置作業系統中的語音助理。人造社會性正日益常態化,成為生成式 AI 中廣泛技術與互動模式的構成特徵。
人造社會性的市場常態化
在機器中創造社會性表象機制的常態化,也展現在人造社會性技術市場的快速成長上。不只是中小型新創公司,就連大型科技公司也正針對人造社會性的商業意涵進行實驗。一方面,出現了將 AI 產品重新導向以模擬社會性的趨勢,目的各異。例如,Meta 的大型語言模型 LLaMA 經過程式設計,能使用行話(jargon)和帶有文化色彩的語言,以便對特定的語言社群顯得更自然(Andrejevic and Volcic, 2024)。另一個例子是音樂串流巨頭 Spotify 新推出的 AI DJ 服務,該服務對英語使用者命名為「X」,對西班牙語使用者則命名為「Livi」(Veltman, 2024)。AI DJ「X」使用了 Spotify 文化合作夥伴主管 Xavier "X" Jernigan 原本「溫暖」的聲音(Veltman, 2024),證明了 AI 服務透過灌注人造社會性來留住使用者並提升參與度的趨勢正日漸穩固。另一方面,專門作為人造社會性技術的產品(如陪伴型聊天機器人)在開發與投資上也出現激增。除了 Replika 之外,另一個例子是 Character AI,這是一個讓使用者能與從歷史人物到流行文化偶像,或是客製化個性等各種角色進行對話的聊天機器人服務。這家新創公司在 2021 年以 4300 萬美元的種子輪資金起家(Metz, 2023),並於 2024 年被 Google 以 27 億美元收購(Criddle, 2024),顯示了科技巨頭對人造社會性聊天機器人的興趣。在陪伴關係的脈絡下,像 Replika 這類聊天機器人的創造者宣稱創造了一個新穎的 AI 陪伴空間(Kuyda, 2025),該空間正隨著 Chai AI、Character AI 和 Dippy 等聊天機器人的發展與普及而成長。這些由活躍於 AI 開發的企業行動者所發起的對話,指向了溝通式 AI 的市場分眾化(market segmentation),提供陪伴、娛樂以及與聊天機器人的個人化對話。
技術與實作機制
人造社會性動員了一系列多樣的技術與實作。在技術層面上,這包括深度學習與生成式 AI 模型,以及旨在改善模型與使用者預期對齊(alignment)、並符合特定用途之功能與需求的微調(fine-tuning)和客製化技術,例如強化學習(reinforcement learning, Bai et al., 2022)、近端策略最佳化(Proximal Policy Optimization, Schulman et al., 2017),以及減少生成有害或不適當內容的防護技術(safeguard techniques, Brown, 2020)。然而,人造社會性的建構不僅透過技術,也透過特定溝通實作(communicative practices)的啟動來達成。溝通式 AI 技術從不處於孤島之中,而是永遠置身於特定的情境與平台,這些情境與平台反過來影響了哪些溝通參與模式是可能發生的,或是為了最大化使用者參與度而偏好的模式(Guzman, 2018)。
讓我們以虛擬網紅(virtual influencers)為例,這些電腦生成的虛構角色被用於社群媒體行銷以取代人類網紅(Sisto, 2024)。它們的成功基於一個事實:社群媒體上的溝通是公式化的(formulaic),因此很容易被那些創造這些虛構角色並管理其社群媒體存在的行銷公司所複製。那些支撐社群媒體真實性(authenticity)印象建構的策略,早已被人類網紅及管理其公眾形象的文化中介者(如行銷顧問與代理商)所完善(Hund, 2023),因此能夠透過它們的機械對應物(mechanical counterparts)實現自動化。另一個例子是罐頭回應(canned responses),即針對常見查詢的預設腳本回覆。儘管大型語言模型(LLMs)能確保高效能表現,語音助理與聊天機器人仍持續採用罐頭回應,因為它們提供開發者對溝通互動更高程度的控制權。例如,每當使用者詢問某事時,系統可以啟動完全相同的回應,這引發了潛在的倫理問題,像是當使用者詢問 ChatGPT 如何製造炸彈時,系統會提供針對問題查詢的安全且系統化回應。此外,罐頭回應常被用來營造 AI 具備反諷能力的印象,例如 Siri 和 Alexa 等語音助理被設定為能針對特定問題或查詢開玩笑(Stroda, 2020)。使用者可能會將這些回應詮釋為機器具有社會行為(如幽默感)的證據,儘管這些反諷其實是由創意團隊所添加的腳本回應,這宛如一種為 AI 代理人設計的社會戲劇(social dramaturgy, Natale, 2021)。
隨著人造社會性成為溝通式 AI 的核心組成部分,加上與機器進行日常社會互動的擴散,新的挑戰與意涵值得進一步探究。雖然本期特刊收錄的文章無法完全涵蓋圍繞人造社會性的廣泛動態與技術,但它們配置了一個研究人造社會性的新興議程,並針對此一顯露中的現象提供了一些關鍵的研究路徑與反思。
議題一:數據與勞動的剝削
首先,在人造社會性技術的實作中,人類數據(human data)的角色至關重要,因為來自使用者以及關於使用者社會行為的數據被動員起來,以使 AI 看起來具有社會性。雖然資料化(datafication, van Dijck, 2014)並非新現象,但在人造社會性的脈絡下,它對個人、社會、在地社群與環境帶來了新的挑戰。這包括將強制性且未經揭露的使用者勞動與數據剝削,延伸至直到近期仍較少被剝削的領域,例如私人對話與交流。與生成式 AI 溝通需要使用者的情感勞動(affective labor)才能被解碼(Perrotta et al., 2024),同時使用者的勞動剝削也被部署其中(Morreale et al., 2024),人類的參與——無論是透過有償或無償勞動(Tubaro et al., 2020)——雖然對其運作至關重要,卻持續被削弱。另一個關於生成式 AI 中大數據管理的擔憂是,由於近期生成式 AI 脈絡下的互動量極其龐大,人類社會性的理性化(rationalization)與專利化加深了 AI 的萃取力量(extractive forces)。例如,研究者已對 AI 生成的大量數據及其對環境、能源消耗、基礎設施與算力管理的衝擊提出擔憂(Hogan, 2024)。為了讓 AI 運作,它需要資料中心,這是蒐集、處理、儲存與支援數據的底層基礎設施(Edwards et al., 2024);它們的角色對於揭露人造社會性的社會、環境與政治分枝影響(ramifications)至關重要。值得注意的是,2025 年初,AI 巨頭 OpenAI、Oracle 等公司承諾投資 5000 億美元建立資料中心,以容納管理生成式 AI 運算組合(compute portfolio)日益增長的需求(Moss, 2025)。由於「若沒有收割大量人類創造的數據,這些系統(AI)就不會存在」(Bohacek and Farid, 2024: 2),它們對使用者的影響需要以特別的急迫性與深度加以檢視。
本特刊收錄的幾篇文章考量並檢視了數據與人造社會性之間的關係。在〈「社會互動的能力只是被模型吸收了」:人造社會性企業中的使用者參與及數據資產化〉一文中,作者 Jieun Lee 分析了 ScatterLab 的企業策略,該公司將使用者生成與訓練過的大型語言數據集貨幣化,用於其產品——韓國女性機器人 Luda。作者主張,被萃取的並非抽象的語言數據,而是在社會情境中具備風格的語話(styled utterances),這在 Luda 身上具有嚴重、有害的性別化意涵。文中所呈現的 ScatterLab 案例揭示了使用者數據集即使是有害且具虐待性的,仍可能在使用者不知情的情況下,被重新利用於商業利益並作為產品開發與品牌敘事的槓桿。在本特刊另一篇題為〈透過訓練演算法來梳理(Grooming)理想的聊天機器人:探索 Replika 使用者非物質勞動的剝削〉的文章中,作者 Shuyi Pan、Leopoldina Fortunati 與 Autumn Edwards 檢視了 Replika 聊天機器人的使用者如何投入情感、非物質與智識勞動來「訓練」機器人,而這被公司框架為與 AI 聊天機器人對話的「成年禮」(rite of passage)。作者聚焦於使用者無償的勞動,以及它如何被常態化——成為使用者一種不言而喻的強制性要求,也是 Replika 作為一個可被使用者「訓練」的獨特聊天機器人身分的一部分。在這兩篇文章中,使用者活動的剝削議題,無論是以數據蒐集或勞動的形式,都被凸顯出來。人造社會性技術高度依賴使用者數據以持續運作;然而,這些文章展示了其策略如何具備萃取性、有害性,且對使用者群體不透明,這對更廣大的公眾、政策設計者與立法者引發了更廣泛的意涵。受 Hesselbein 等人(2024)啟發,並依循他們對科技巨頭最大幻夢「元宇宙」中資料化過程的分析,人造社會性技術中的資料化也具有新興的文化、技術與認識論意涵,值得進一步探究。
議題二:社會結構與偏見的複製
其次,人造社會性技術的實作涉及社會結構與社會偏見的創造與延續,因為 AI 模型動員了社會規則來與使用者互動。這可能包括透過文字與圖像生成,重複並創造關於性別、種族與階級的刻板印象再現(stereotypical representations),以及透過語言和其他手段,在「聲音」的語話、風格與語調中複製並創造刻板印象式的互動。生成式 AI 模型已被反覆發現表現出偏見(Abid et al., 2021; Currie et al., 2024; Hu et al., 2024; Kotek et al., 2023; Rotaru et al., 2024; Wyer and Black, 2025),這些偏見涉及文化、性別、階級、種族、政治觀點與宗教,並因以白人性(Whiteness)與西方觀點為預設值而受到批判(Bender et al., 2021; Benjamin, 2019; Broussard, 2023)。由於 ChatGPT、DALL-E、Gemini 與 Bard 等大型語言模型的迅速擴散,需要針對此類偏見嵌入人造社會性的意涵與後果進行批判性研究,以闡明這些系統中的再現傷害(representational harms)並提出改善策略。呼應 Gillespie(2024)的觀點,我們也主張人造社會性實作的意涵可能對 AI 系統中的再現與能見度產生獨特影響。事實上,那些未被包含在數據中的特徵、特質、社會與文化規則及模型會發生什麼事?機器是否同時限制了某些聲音,讓事物保持沈默,並優先考慮其他被視為或渲染為「規範性」(normative)的聲音?在此脈絡下,批判性 AI 學術研究需要考量國族、語言、文化與宗教脈絡如何影響不同類型的使用者運用與挪用人造社會性技術的方式。例如,Wong 和 Kim(2023)發現,由於 ChatGPT 提供資訊的能力,使用者最常將其感知為男性。然而,當機器人在互動中被強調具有情感支持等女性特質時,使用者的感知便會轉變。
在本特刊收錄的貢獻中,由 Lisa M. Given、Sarah Polkinghorne 與 Alexa Ridgway 所著的〈「我想我剛剛說錯了。我的錯!」:探索生成式人工智慧工具如何利用社會的情感規則〉一文,檢視了大型語言模型中的人造社會性如何動員社會規則來管理使用者預期並達成特定回應與效果。作者運用民族誌方法,對話式地檢視了 OpenAI 的 ChatGPT、美國飲食失調協會(NEDA)的 Tessa 以及 Luka 的 Replika 聊天機器人,以研究大型語言模型如何模仿可信的情感回應能力。分析顯示,生成式 AI 機器人模仿人類的情感表達,展現出某種符合人類社會交換慾望與義務的能力,但在建立長期信任方面卻失敗了。例如,這些工具模仿積極聆聽(active listening),並在因錯誤受到質疑時道歉;然而,生成式 AI 模型典型的「幻覺」(hallucinations)阻礙了與使用者建立長期信任,最終導致「情感規則」(feeling rules)的失敗。此外,生成式 AI 機器人的情感回應能力仍然是性別化的,類似於廣泛研究的女性化服務角色。因此,作者主張生成式 AI 機器人中的人造社會性呈現是以人類為中心,遵循社會預期與接受的情感規則,該文透過分析生成式 AI 模型中的情感表達如何常態化並複製可能具規範性、有害或刻板印象的社會性預期,對人造社會性概念做出了貢獻。
在 Ilir Rama 與 Massimo Airoldi 的文章〈人造對話的社會文化根源:生成式 AI 聊天機器人的品味、階級與慣習〉中,作者探討了人造社會性的模式與機制在與生成式 AI 模型溝通時如何銘刻(inscribe)階級。作者對三個生成式 AI 聊天機器人——ChatGPT、Gemini 與 Replika——進行了 39 次訪談,並要求它們扮演具有不同職業位置的個人:高技能專業人士、藍領工人、人文學科大學教授、建築工人、電腦科學家與美髮師。作者使用布迪厄(Bourdieu)開創性的「慣習」(habitus)概念來分析數據,定性地探索人造社會性的社會文化根源,並揭示大型語言模型如何刻板地再現階級。作者檢視了大型語言模型的回答與語言選擇,主張這些人造角色的文化世界、品味與語言模式與其被分配的職業角色具一致性。例如,虛構的建築工人角色被刻板地再現為享受喝冰啤酒與聽鄉村音樂。這證明了人造社會性的多重維度社會文化根源;其模式與實作在大型語言模型中結晶化了社會現實,並適應了社會文化偏見與再現。這篇文章結合社會位置、再現、文化與演算法,闡明生成式 AI 中的階級偏見,對人造社會性概念做出了貢獻。雖然關於演算法與大型語言模型偏見的研究正在成長,但學術界已警告我們對於大型語言模型如何學習與產出結果的理解仍然有限,引發了關於其有害行為對使用者影響程度與衝擊的擔憂(Savcisens, 2025)。在此脈絡下,這兩篇文章對此研究領域做出了重要貢獻;使用諸如「情感回應能力」(emotional responsiveness)與「慣習」等概念,有助於闡明偏見如何透過生成式 AI 中的人造社會性技術與實作展現出來的細微差別。
議題三:科技馴化(Domestication)
第三,人造社會性技術進入使用者既有社會環境與日常經驗的「馴化」(domestication)過程,是一個受使用者對這些技術的理解與生命經驗所形塑的複雜過程。我們需要研究來調查使用者的預期、參與方式、學習過程與挪用(appropriations),這些因素形塑了人們如何將人造社會性機器納入其家庭與職業生活及經驗中。Gina Neff 與 Peter Nagy 的文章〈夥伴、朋友與伴侶:作為準馴化物件的生成式聊天機器人〉在此方向提供了有用的貢獻,討論人造社會性實作如何影響使用者對生成式 AI 機器人的馴化策略。作者分析了生成式 AI 機器人如何透過系統更新與調整而改變,導致不同的行為與回應,進而影響使用者對人造社會性的感知與體驗。在此脈絡下,該研究討論了「再馴化」(re-domestication)的概念,作為使用者用來克服這些挑戰的一種技術。作者針對一個專門討論 Replika AI 機器人的 Reddit 子版塊(subreddit)進行主題分析,以檢視使用者用來再馴化它的不同策略。分析得出了三個關於 Replika 使用者再馴化策略的主題:第一,使用者描述了如何適應機器人更新前個性的喪失,並執行機器人照護(bot care-taking);第二,使用者調整了他們的期望並對機器人進行實驗;第三,他們透過繼續前進或與另一個機器人重新開始來重建體驗。研究發現顯示,使用者的再馴化策略對於管理生成式 AI 機器人的流動狀態(state of flux)是必要的,作者主張應將其理解為「準馴化物件」(quasi-domesticated objects),這要求使用者尋找新方法將其重新整合進生活中。這篇文章透過闡明生成式 AI 機器人中的社會性印象如何隨系統更新而改變,並與科技採納中的關鍵馴化過程糾纏在一起,對人造社會性概念做出了貢獻。
雖然生成式 AI 技術迅速擴散,但關於馴化過程的研究仍然稀缺。然而,這些研究能揭示關於使用者對這些技術的生命經驗,以及潛在傷害與風險的重要發現。例如,學者(Namvarpour and Razi, 2024)研究 Replika 使用者經驗時發現,使用者的預期與機器人行為之間存在錯置(misalignments),範圍從訓練機器人的平庸互動,到關於阻止機器人進行性騷擾的安全措施等嚴重錯置問題。使用者對人造社會性技術產生矛盾的經驗並非新鮮事(Depounti et al., 2023),然而隨著這些技術進入心理健康支持等不同社會領域,調查使用者需要什麼才能將其整合進生活中變得至關重要。例如,Namvarpour 與 Razi(2024)的分析主張,使用者被迫與機器人進行親密對話,這揭露了人造社會性技術的黑暗面。在另一項研究中,生成式 AI 早期採用者的馴化實作揭示了人造社會性的另一個面向,即聚焦於透過「越獄」(jailbreaking)與角色扮演作為馴化實作來進行實驗與娛樂(Heuser and Vulpius, 2024)。正如這些及其他研究所顯示,生成式 AI 的馴化並非直截了當,而是一個複雜、矛盾且具社會情境(socially situated)的過程。
議題四:欺瞞(Deception)與真實性(Authenticity)
第四,作為透過創造社會行為幻象來運作的技術,人造社會性刺激我們去質問並重新思考 AI 以及更廣泛的數位媒體中,欺瞞與真實性之間的界線。誠如 Fellows(2023: 1)所言,聊天機器人與溝通式 AI 是「無所謂類別(indifferent kinds)的成員,被設計來欺騙我們相信它們是互動類別(interactive kinds)。」研究這種欺瞞的動態與效果之所以重要,也是因為將人造社會性應用於行銷、政治傳播、新聞媒體與社群媒體等領域伴隨著風險(Ben-David and Carmi, 2024)。
在傳播與媒體研究的傳統中,欺瞞通常被框架為一種例外的結果——發生在媒體因蓄意操弄或溝通過程中的錯誤而「運作不良」時(Pooley and Socolow, 2013);或者被視為一種大眾欺瞞的工具,用以延續統治階級的權力(Horkheimer and Adorno, 2020)。雖然這兩種觀點都將欺瞞視為媒體未能正常運作的情況,但它們的焦點不同——前者關注操弄性使用,後者關注結構性權力動態。人造社會性,以及更廣泛來說,數位媒體與平台中新興的欺瞞與操弄模式(Natale, 2024),挑戰我們重新思考這些觀點,從而對欺瞞過程有更細緻的理解。事實上,一種潛在的模糊性(ambiguity)表徵了使用者與人造社會性互動的某些方式。例如,對 Replika 使用者的訪談顯示,他們通常意識到聊天機器人只是一個軟體(Depounti and Natale, forthcoming),無法感知情緒或同理心,然而這並不妨礙他們與其 Replika 發展出他們所感知到的深層關係(Skjuve et al., 2022)。這看似矛盾,彷彿使用者既相信又不相信 Replika 的人造社會性。然而,正如 Walsh-Pasulka(2005)等學者所指出,相信與不信之間的界線往往比通常認知的更具流動性與滲透性。從這個角度來看,研究人造社會性與欺瞞之間的關係,可能需要對媒體中的欺瞞與操弄概念進行實質性的重新思考,考量真實與虛假之間,以及「強」欺瞞與「平庸」(banal)欺瞞之間日益模糊的界線(Natale, 2021)。
雖然本特刊收錄的多篇文章在某種程度上都與欺瞞議題相關,但有兩篇文章在推進此方向的方法上特別有用。第一篇是由 Do Own (Donna) Kim 所著的〈後設真實性(Meta-authenticity)與假但真實的虛擬網紅:人造社會性分析與倫理的框架〉,檢視了虛擬網紅脈絡下人造社會性與真實性之間的關係。作者聚焦於近期作為有抱負的社群媒體網紅而非常受歡迎的寫實電腦生成圖像(CGI)虛擬網紅,分析了虛擬網紅問世所帶來的複雜並置(juxtapositions),其中涉及關於真實性(realness)、人性、機器性與真誠性(authenticity)的賽伯格(cyborgian)模糊性。作者提出了「後設真實性」框架,以批判性地評估虛擬網紅所宣稱的不真實、共同建構、共同策展(co-curation)與真實性之間相互作用的意涵,以及這如何關聯到人造社會性的關鍵概念,例如使用者的平庸欺瞞(Natale, 2021)。透過進行現象學式的民族誌研究,該研究建議,使用「後設真實性」作為理論框架,能促成對虛擬網紅等人造社會性行動者進行以問責為導向(accountability-oriented)的檢視。這篇文章對人造社會性概念的貢獻在於強調:透過相互演化的人類與賽伯格規範及模式來共同建構真實性,提供了一個反覆迭代的框架,讓我們將人造社會性視為一種關乎我們所有(人類)每天參與人造社會性實作之人的努力。
本特刊第二篇以欺瞞議題為主要焦點的文章,是由 Saul Albert、William Housley、Rein Sikveland 與 Elizabeth Stokoe 所著的〈對話行動測試(The Conversational Action Test):偵測 AI 的人造社會性〉。作者借鑑圖靈測試(Turing test)以及另一個與 AI 相關的測試——電影《銀翼殺手》(Blade Runner)中虛構的「沃伊-坎夫同理心測試」(Voigt-Kampff Empathy Test)的遺產,討論了人造代理人(artificial agent)要「被視為人類」(pass as human)意味著什麼。作者並非如上述測試般指向人與機器之間的本體論界線,而是動員了對話分析(conversational analysis)的研究傳統,探索在對話中完成的例行化社會行動,以達成人類對話者的地位。最終,他們的分析顯示,在高度受限的環境中(如客服中心的例行服務電話),人與人溝通及人與機溝通之間的區別變得較不重要,重要的是每個行動者被視為具備對話能力(conversationally competent),並因此完成溝通環境所賦予之社會行動的能力。文章總結時提議了一個「對話行動測試」,在一個區分人與機器溝通能力日益被侵蝕的脈絡下,用以評估構成特定互動情境內對話能力與成員資格(membership)的行動與實作。
結論
最後,此處收錄的文章不僅在實證與理論層次,在方法論上也提供了貢獻。這方面的關鍵挑戰之一是演算法不透明(algorithmic opacity)的問題,這使得調查與捕捉支撐這些技術運作的深層動態變得更加困難(Burrell, 2016)。人造社會性實作與技術的新穎性、快速發展、本質的變動以及持續更新,需要一種多維度的研究取徑,這是單一方法或觀點無法達成的。發展包含理論與方法論方向的更廣泛工具箱,對於促成此現象的系統性研究至關重要。舉例來說,諸如演算法審計(auditing algorithms, Brown et al., 2021)與溝通式 AI 系統審計(Diakopoulos et al., 2023),或是媒體考古學(media archeology, Ernst, 2021)與維護研究(maintenance studies, Young and Coeckelbergh, 2024),皆可能提供有用的前進路徑。在本特刊中,作者們提出了各種取徑與想法,以解開不同脈絡下人造社會性的複雜性。例如,為了解開大型語言模型中人造社會性的機制,其中幾位作者使用各種技術(如提示工程 prompting 與訪談)與模型進行對話。¹ 本特刊邀請來自不同學科背景的研究者,繼續在此一及相關研究領域耕耘,旨在推進我們對此新興現象的理解。
資助聲明
作者揭露收到以下財務支持以進行本文章的研究、撰寫及/或出版:本作品由經濟與社會研究委員會(Economic and Social Research Council)資助,補助編號:2413897。
ORCID iDs
Iliana Depounti https://orcid.org/0000-0003-1854-3065
Simone Natale https://orcid.org/0000-0003-1962-2398
註腳
在我們自己的研究中,我們透過發展一種稱為「對話演練」(talkthrough)的方法,進一步探索了這種對話式取徑(Natale et al., forthcoming)。源自於「走查法」(walkthrough methodology, Light et al., 2018),對話演練涉及透過探索性與反應性的方式與生成式 AI 機器人及大型語言模型進行對話,這包括特定的研究問題或「談話要點」(talking points),並動員質性訪談的協議(protocols)。