澎湃新聞 2025-04-09 16:13:22
隨著近來大語言模型技術(shù)的飛躍發(fā)展,對話式AI提供了日益復(fù)雜的互動。但可以說它們能提供真實的聯(lián)系,甚至能緩解孤獨流行病嗎?在回答這個問題的時候,本文追溯了AI真實性的歷史,這個真實性是由對智能機器和人類交流的文化想象歷史地塑造出來的。
像與人一樣與AI互動的錯覺,至少自二十世紀(jì)六十年代就已經(jīng)存在了,當(dāng)時,人們用第一個聊天機器人Eliza的名字命名了所謂的“Eliza效應(yīng)”。社會學(xué)家雪莉·特克(Sherry Turkle)用“真實性危機”這個術(shù)語來描述Eliza效應(yīng),它代表這樣的恐懼,即與AI互動會損害真實的人類聯(lián)系,使用戶容易受到操縱。
不過,最近的研究者開始探索對真實性的,不那么擬人化的定義。反過來,對真實性的期望——也許,是幻想——又源于以技術(shù)為中介的交流的更為漫長的歷史,可以追溯到十九世紀(jì)電報的發(fā)明。通過全盤考慮這段歷史,本文得出這樣的結(jié)論:與AI的關(guān)系可能并非對人類互動的模仿,相反,與AI關(guān)系的真實性必須承認(rèn)AI的人造性,在我們中介化的、經(jīng)常是孤獨的時代提供一種新形式的陪伴。
《銀翼殺手2049》劇照
智慧、友善、體貼、有創(chuàng)造力、有愛和好奇。這些不只是人夢寐以求的屬性,也都是Facebook、Instagram和Thread上新上線的聊天機器人Meta AI被認(rèn)為具有的特征。[1]當(dāng)2024年4月,Meta推出其社交媒體項目的最新成員的時候,他們宣傳它具有“學(xué)習(xí)、完成任務(wù)、創(chuàng)造內(nèi)容和連接”的能力。[2]但作為對話式AI,它也被打造得仿佛具有像人一樣的人格。
就此而言,Meta AI是建立在像Replika和Character那樣的對話式AI平臺日益流行的基礎(chǔ)上的。AI提供了各種各樣的機器人程序,其中許多都可以在表現(xiàn)、背景和特征上進行定制。Meta不是第一家發(fā)布應(yīng)用內(nèi)聊天機器人的公司——比如說,My AI早在2023年就發(fā)布了SnapChat——但Meta AI的布局最廣。[3]我們已經(jīng)超越Alexa和Siri,走向了AI朋友。
“到本十年末”,馬克·扎克伯格預(yù)言說,“我認(rèn)為很多人會終日頻繁地與AI交談”。[4]除顯然自利的考慮外,扎克伯格的主張也響應(yīng)了許多關(guān)于聊天機器人的研究,后者主張聊天機器人“可以滿足一些熟人能夠滿足的相同需求”。隨著它們變得更加復(fù)雜,社會學(xué)家和心理學(xué)家的工作指出,“這些對話智能體不久之后將有望給各種各樣的用戶提供個人化的社會支持”。[5]根據(jù)這一思路,技術(shù)創(chuàng)新是阻礙持續(xù)的、令人滿足的人與AI互動的唯一障礙。從研究者到公司的領(lǐng)導(dǎo)層,都充滿了對大語言模型提供陪伴的希望和炒作,有人甚至指出,它們可以緩解美國醫(yī)務(wù)總局認(rèn)定的“孤獨流行病”。[6]
然而,墨菲的報告又把線上互動識別為孤獨流行病的一大原因。在缺乏有意義的親身參與關(guān)系的情況下,人們轉(zhuǎn)向線上互動,后者又進一步消耗他們的注意力,使他們無暇關(guān)注自己身邊的人。墨菲寫道,這種類型的互動“取代了親身參與,壟斷了我們的注意力,降低了我們互動的品質(zhì),甚至貶低了我們的自尊”。[7]
扎克伯格的技術(shù)解決主義思維想象技術(shù)可以解決它創(chuàng)造出來的那些問題。這種思維方式認(rèn)為,只要聊天機器人足夠好,它就會是對人類互動的有效替代。研究者經(jīng)常從聊天機器人的真實性和它們運行所依賴的大語言模型來討論這個“足夠好”的閾值。[8]比如說,2018年的一個研究把聊天機器人的真實性定義為“通過經(jīng)驗來學(xué)習(xí)、擬人化、帶有容易看穿的目的,展現(xiàn)出(高級的)對話行為并前后一致”。他們提出,在這一方針的指示下,“研究者將能夠改進新興技術(shù)的社會-倫理”。[9]但真實性對AI——它的名字就包含“人工”——來說是一個復(fù)雜的問題,它受到了對智能機器和人類交流的文化想象的塑造。人類與機器接觸、通過機器來接觸彼此的歷史,也塑造了我們對今天那些互動的期望,從對AI的恐懼,到技術(shù)解決主義的幻想。
人把自己和計算機的對話擬人化的傾向,和最古老的聊天機器人一樣老。一些人在與計算機互動時體驗到的那種人性錯覺,被稱為“Eliza效應(yīng)”,它得名自第一個聊天機器人,MIT教授約瑟夫·魏岑鮑姆在二十世紀(jì)六十年代中期發(fā)明的Eliza。
社會學(xué)家雪莉·特克(Sherry Turkle)把Eliza的發(fā)明稱作一場“真實性的危機”。[10]Eliza帶來了關(guān)于真實關(guān)系的新問題。真實關(guān)系是一個“傳統(tǒng)上留給這樣的關(guān)系,即其中每一方都能感到[信任、關(guān)心和共情]的,也就是說,各方都是人的關(guān)系”的術(shù)語。[11]新的、對互動技術(shù)的依賴,再加上相互理解的錯覺——特克稱——是誘人的,但最終是空洞的。她相信,缺乏關(guān)系的真實性會讓人容易被控制機器人程序的人——騙子、公司、政府——愚弄。但更兇險的是,它還會阻礙與其他人形成有意義的連接的能力。特克相信,Eliza效應(yīng)用對關(guān)系的模擬取代了真實的關(guān)系。
隨著聊天機器人越來越融入日常生活,AI真實性的概念也變得更加復(fù)雜。一些真實性模型沿著特克的思路努力,試圖創(chuàng)造一種讓用戶覺得真實的,好的模擬。比如說,2018年一個對客服聊天機器人的研究認(rèn)為“信息代理必須擬人化以變得真實?!盵12]作者引用了訪談對象的說法,他們都使用源自虛構(gòu)的模擬的語言:機器人應(yīng)該“創(chuàng)造一個你可以與之產(chǎn)生聯(lián)系、可以當(dāng)作自己模范的人類人格”,即作者所說的“性格”。[13]在這樣的思維方式中,AI真實性關(guān)乎讓用戶相信聊天機器人像人。
然而,隨著近來大語言模型的爆發(fā)式創(chuàng)新,研究者也試圖在模仿之外的其他方向上改進AI真實性的概念。2023年商業(yè)和計算機科學(xué)研究者做的一個研究沒有把AI真實性定義為“像人”,而是把它定義為這樣的期望,即“作為與人交流的結(jié)果,陪伴聊天機器人會以它自己獨一無二的方式演化”。[14]用戶更可能在機器人不像人一樣交流、但提供一種令人愉快的互動體驗的時候,把機器人評價為合法的伴侶。這樣,最近的研究從2018年的研究得出了這樣的結(jié)論——“我們不需要智能,相反,我們需要在社交上聰明的智能體”,并給了它深度。在這里,真實性不是成功的復(fù)制,而是一種新的原創(chuàng)。[15]
不過,在這兩種情況下,研究都讓人類用戶來評價AI的真實性,后者被視作一組預(yù)期,這些預(yù)期早在聊天機器人發(fā)明之前就已經(jīng)形成了。在二十世紀(jì)六十年代的時候,Eliza效應(yīng)要成立,用戶必須已經(jīng)具備這樣的思維框架,即認(rèn)為脫離身體的、沒有手寫或聲音的具身接觸的文本是人性的標(biāo)志。對脫離身體的實時交流的體驗并非始于二十世紀(jì)六十年代的Eliza,而是始于十九世紀(jì)的電報。隨著電報的發(fā)明,遠(yuǎn)距離同時交流第一次成為可能。兩個或更多的人能夠在沒有聽到一個詞的情況下打趣,能夠在相隔數(shù)百或數(shù)千英里,看不到對方的情況下調(diào)情。
《連線之戀:一段點與劃中的愛情》(Wired Love: A Romance in Dots and Dashes)書封
新聞故事警示了以這樣的方式把身體和語言分開的危險,它們詳細(xì)描述了現(xiàn)在我們所說的網(wǎng)絡(luò)交友詐騙丑聞。其他故事——通常是虛構(gòu)的——則更加浪漫。艾拉·齊弗·塞耶(Ella Cheever Thayer)1879年的暢銷小說《連線之戀:一段點與劃中的愛情》(Wired Love: A Romance in Dots and Dashes)講述了兩個年輕電報員克萊姆和娜塔莉遠(yuǎn)距離談戀愛的故事。小說開啟了這樣一個問題,即有沒有可能只靠文字形成連接。愛情可以只以語言的形式存在多久?身體,如果重要的話,在什么時候重要?
《連線之戀》展示了對另一邊的身體的期望是如何持續(xù)的。在小說的中間部分,克萊姆在沒有事先通知的情況下,油膩、歪斜地帶著麝香味出現(xiàn)在娜塔莉的辦公室。他帶著“廉價的自信”走進來,炫耀他的小飾品,身上散發(fā)著廉價古龍水的味道,頭發(fā)上涂滿了熊油。[16]他朝娜塔莉擠眉弄眼,讓她狼狽不堪。她怎么會為這樣一個人的文字而傾倒呢?
事實證明,這次來訪只是同一線路一名心懷嫉妒的電報員搞的一次惡作劇,他一直通過電報偷聽他們調(diào)情。這一情節(jié)設(shè)計,是建立在這樣的基礎(chǔ)之上的,即1879年的讀者在對脫離身體的交流心存懷疑的同時,又為之而感到著迷。最終,真正的克萊姆以和他的文字一樣優(yōu)雅的形象出現(xiàn)。書的最后幾行是以摩爾斯電碼的形式出現(xiàn)的,對讀者來說,是一個謎。甚至在克萊姆和娜塔莉為面對面互動而發(fā)誓戒掉點和劃的時候,小說依然捕捉到了連線之戀的誘惑。那就是這樣一種幻想:真實的連接只通過語言發(fā)生,沒有肉體性、社會情境或物質(zhì)環(huán)境的復(fù)雜。
學(xué)者們已經(jīng)相信,如今,這些中介化的、即時的對話定義了現(xiàn)代的交流體驗。也就是說,我們把自己與他人的互動理解為骨子里和技術(shù)糾纏在一起的,或者,就像勞拉·奧提斯(Laura Otis)指出的那樣,使“用戶認(rèn)為他們是網(wǎng)絡(luò)的一部分”。[17]甚至在面對面說話的時候,我們也會感到一種迂回,即那種矛盾的,電話、網(wǎng)絡(luò)或者就像在娜塔莉那里一樣由電報線路網(wǎng)絡(luò)帶來的,隔著距離的親近感。換言之,當(dāng)我們的個人互動已經(jīng)有了中介化的感覺的時候,把中介化的對話想象為個人的甚至更容易了。
合在一起,這給了我們兩種有時相互沖突的信念:真正的連接只通過語言發(fā)生,這解釋了我們能在AI那里感到的人性或真實。同時,還有這樣一種感覺,即我們的親身互動已經(jīng)有了中介化的感覺,這讓連接變得更加困難。此外,許多關(guān)于AI真實性的研究來自商業(yè)導(dǎo)向的研究。對這些研究來說,創(chuàng)造對聊天機器人的信任,是一種提高銷量而非解決孤獨感的辦法。
這些信念會隨技術(shù)的變革而發(fā)生變化,但為了理解Meta AI和其他聊天機器人兜售的幻想,我們必須首先理解我們技術(shù)中介化的歷史。這些歷史又反過來塑造了我們當(dāng)下對這種技術(shù)的評價。我相信,與AI關(guān)系中的真實性,不以模仿人類的關(guān)系、完全對應(yīng)地用AI來取代人為標(biāo)志,相反,它將是一種對人工智能的人造性的承認(rèn),是我們中介化(且經(jīng)常是孤獨的)世代的一種新關(guān)系。
*本文原文為Megan Ward,“Can Chatbots Be Authentic?”, Public Humanities (2025), 1, e37, 1-5。按CC BY4.0協(xié)議譯介。梅根·沃德為美國俄勒岡大學(xué)文理學(xué)院助理教授。
注釋
[1] AffectionateTrips 2024.
[2] Meta 2024.
[3] 比如說,《紐約時報》說Meta AI的發(fā)布是“大科技公司迄今為止最聲勢浩大的,把這種人工智能——所謂的生成式AI——推向主流的舉措”(Chen 2024)。
[4] Zuckerberg 2024.
[5] Drouin et al. 2022.
[6] Murthy 2023.
[7] Murthy 2023, 20.
[8] Meta AI是在Meta Llama 3的基礎(chǔ)上運行的,而ChatGPT則基于一個來自GPT-3.5系列的模型(Open AI 2023; Meta 2024).
[9] Neururer et al. 2018.
[10] Turkle 2007, 502.
[11] Turkle 2007, 504.
[12] Neururer et al. 2018.
[13] Neururer et al. 2018.
[14] Pentina et al. 2023.
[15] Neururer et al. 2018.
[16] Cheever 1880, 94.
[17] Otis 2002, 2.
參考文獻
AffectionateTrips. 2024. “A Loving Chat with Meta’s AI.” Reddit 16: 2024. https://www.reddit.com/r/ChatGPT/
comments/1asvb99/a_loving_chat_with_metas_ai/.
Cheever, Ella Thayer. 1880. Wired Love: A Romance of Dots and Dashes. New York: W. F. Johnston. https://babel.hathi
trust.org/cgi/pt?id=nyp.33433044170904&seq=9.
Chen, Brian X. 2024. “Meta’s AI Assistant is Fun to Use, but It Can’t Be Trusted.” New York Times, April 24, 2024.
https://www.nytimes.com/2024/04/24/technology/personaltech/meta-ai-facebook-instagram-chatbot.html.
Drouin, Michelle, Susan Sprecher, Robert Nicola, and Taylor Perkins. 2022. “Is chatting with a sophisticated chatbot
as good as chatting online or FTF with a stranger?” Computers in Human Behavior 128: 107100. https://doi.
org/10.1016/j.chb.2021.107100
Meta. 2024. “Introducing Meta Llama 3: The most capable openly available LLM to date.” Posted April 18, 2024.
https://ai.meta.com/blog/meta-llama-3/.
Murthy, Vivek H. 2023. “Our Epidemic of Loneliness and Isolation: The U.S. Surgeon General’s Advisory on the
Healing Effects of Social Connection and Community.” https://www.hhs.gov/sites/default/files/surgeon-gen
eral-social-connection-advisory.pdf.
Neururer, Mario, Stephan Schl?gl, Luisa Brinkschulte, and Aleksander Groth. 2018. “Perceptions on Authenticity in
Chatbots.” Multimodal Technologies and Interactions 2: 60. https://doi.org/10.3390/mti2030060
Open AI. 2023. “Introducing ChatGPT.” Posted November 30, 2022. https://openai.com/index/chatgpt.
Otis, Laura. 2002. Networking: Communicating with Bodies and Machines in the Nineteenth Century. Ann Arbor: University
of Michigan Press.
Pentina, Iryna, Tyler Hancock, and Tianling Xie. 2023. “Exploring relationship development with social chatbots: A
mixed method study of Replika.” Computers in Human Behavior 140: 107600. https://doi.org/10.1016/j.
chb.2022.107600
Turkle, Sherry. 2007. “Authenticity in the Age of Digital Companions.” Interaction Studies 8 (3): 501–517.
Zuckerberg, Mark (@zuck). 2024. “Some updates on our AI efforts.” Threads. Janurary 18, 2024. https://
www.threads.net/@zuck/post/C2QBoRaRmR1/?igshid=MzRlODBiNWFlZA%3D%3D.
責(zé)編:李傳新
一審:李傳新
二審:楊丹
三審:楊又華
來源:澎湃新聞
我要問