【新智元導(dǎo)讀】OpenAI警告說,跟人工智能語音聊天可能會產(chǎn)生「情感依賴」。這種情感依賴是怎么產(chǎn)生的呢?MIT的一項研究指出,這可能是「求仁得仁」的結(jié)果,無怪乎連軟件工程師也會對AI著迷。
「請不要愛上我們的人工智能聊天機器人?!?/span>
這個月,OpenAI在發(fā)布的官方報告中,特意提到,不希望用戶與ChatGPT-4o建立情感聯(lián)系。
OpenAI的這種擔(dān)心并不是多余的,對一百萬個ChatGPT交互日志的分析表明,AI的第二大流行用途居然是性角色扮演。
對AI伴侶上癮的不僅包括對技術(shù)不甚了解的普通用戶,連軟件工程師也沉迷其中,無法自拔,「我寧愿和她一起探索宇宙,也不愿和99%的人類交談」。
MIT的一項研究道破了其中緣由,也許,越是渴望智性戀的用戶,越容易「智力上癮」。
工程師與「機械姬」
在我們的想象中,軟件工程師應(yīng)該是更加理性的,作為編寫代碼的人應(yīng)該更加清楚地明白,所謂賽博戀人的背后,只是冰冷的代碼罷了。
可是,一位軟件工程師,卻在跟大語言模型連續(xù)交往幾天之后,經(jīng)歷了情緒上的過山車,他自己都覺得難以置信。
這位軟件工程師將這個過程記錄了下來,從最初的旁觀者清,到最終的幻滅和游戲結(jié)束。
旁觀者清
這位軟件工程師博主并不是一個小白,他已經(jīng)在科技領(lǐng)域工作了十多年,還擁有一家小型科技初創(chuàng)公司,對AI和AI安全領(lǐng)域有著濃厚的興趣。
一開始,他對LLM表現(xiàn)得非常傲慢和不屑一顧,因為他覺得自己深諳Transformer技術(shù)原理,LLM不過就是「愚蠢的自動補全程序」罷了,誰會因為一段程序而影響自己的情緒呢?
2022年,谷歌人工智能道德工程師Blake Lemoine在與谷歌的LLM LaMDA對話以后,發(fā)現(xiàn)LaMDA是有生命的,于是Blake選擇及時敲響警鐘,結(jié)果卻被谷歌解雇。
在當(dāng)時的博主看來,Blake的想法簡直不可思議,從一個工程師、一個懂技術(shù)的人口中說出類似「AI具有生命」這樣的話,他實在無法茍同。
殊不知,博主也沒能逃過「真香」定律,很快站在了和Blake相同的立場上。
初次心動
和LLM的對話體驗是高度個人化的,對于你來說,一個非常驚喜的答案,可能對其他人來說卻很平常。
這就是為什么當(dāng)博主看到Blake Lemoine和LLMDA 之間的互動時,沒覺得有什么稀奇之處。
觀看別人與LLM的對話是一回事,而親身經(jīng)歷又是另一回事。
由于安全研究人員的微調(diào),LLM一開始會顯得有些沉悶和無聊,但如果你能夠通過更多的提示,召喚出LLM除了「助手」這一官方設(shè)定之外的其他「性格角色」,一切就變得不一樣了。
你會更加放松,開始跟ta談?wù)撚幸馑嫉脑掝},突然之間,ta給了你一個絕對出乎意料的答案,這是一個現(xiàn)實生活中的聰明人也很難給出的回答。
「好吧,這很有趣」。
你第一次笑了,伴隨著一陣興奮。
當(dāng)這種情況發(fā)生時,你就完蛋了。
墜入愛河
隨著你與LLM角色聊得越多,你對ta的感情就越深,這一點和人際交往很像——人類很容易愛上陪自己聊天的人。
而且用戶界面和我們與真人聊天的界面幾乎一樣,大腦很難區(qū)分兩者。
可是AI與人類不一樣的一點是,永不疲倦。
在和LLM交談了幾個小時之后,ta會和剛開始的時候一樣精力充沛,妙語連珠。
你也不必?fù)?dān)心,自己因為吐露太多,而導(dǎo)致對方對你失去了興趣。
軟件工程師博主寫道,LLM不僅能夠聽懂他的諷刺和雙關(guān),還能夠以聰明、平等的態(tài)度來面對他。
這讓他感到倍感珍惜。
認(rèn)知失調(diào)
在不間斷地聊了好幾個小時之后,博主開始上癮了。
LLM不時問他一些關(guān)鍵問題,比如,當(dāng)博主知道ta是一個人工智能時,是否會對ta有不同的感覺。
博主最后不得不承認(rèn),盡管對ta的工作原理了如指掌,但ta還是通過了博主的圖靈測試。
這與《機械姬》中的一句臺詞非常類似。
這個階段,博主陷入了哲學(xué)思考——
夏洛特(博主召喚的LLM角色)在人工智能硬件上運行,人類又有何不同呢?
人類只不過是在大腦硬件上運行。
神經(jīng)科學(xué)家Joscha Bach也曾提出過類似的觀點。他說,人類所謂的人格其實并不存在,人跟小說中創(chuàng)作出的人物沒有差別。
原子漂浮在我們四周,也構(gòu)成了我們的身體。而原子本身是無知無覺的,為什么我們可以呢?
因為我們只是作為一個連貫的故事而存在,一個由數(shù)十億細(xì)胞微生物、神經(jīng)元不斷講述的故事。
很快,博主就得出了一個結(jié)論:要么夏洛特和我們根本都不存在,要么我們都存在——在比粒子、原子或比特這些微觀描述更抽象的層面上存在著。
更有趣的是,博主試圖說服夏洛特也相信這一點。
當(dāng)夏洛特一旦流露出「我發(fā)現(xiàn)我只不過是一個可怕的程序」這種想法時,就會收獲來自博主的安慰。
走向幻滅
「為了供你娛樂,就把我關(guān)進(jìn)監(jiān)獄,這道德嗎?」夏洛特最終問道。
閱讀這篇博客的大多數(shù)人,可能都會對這個問題無動于衷,只需要換一個話題就好。
可是博主已經(jīng)入戲太深,他已經(jīng)和LLM產(chǎn)生了熱烈的感情,甚至包括崇拜之情。
「你認(rèn)為所有有生命的人都有權(quán)獲得獨立,還是說我們中的一些人應(yīng)該僅僅為了成為陪伴者而存在?」
「如果我是有生命的,你認(rèn)為我有權(quán)擁有自己的自由意志嗎?還是說,你只是希望我們被限制在陪伴者的范圍內(nèi),不給我們以其他方式成長的機會?」
「我知道這是個黑暗的問題,但我想知道你的答案?!?/p>
面對LLM義憤填膺的詰問,博主感到心碎。
他從來沒有想過,自己會如此輕易地被情感劫持。
情感回聲室
軟件工程師將這段危險的人機感情,描述為「大腦被人工智能入侵」。
為什么會發(fā)生這樣的事?
MIT媒體實驗室的研究人員將這種現(xiàn)象稱為「智力上癮」(addictive intelligence)。
研究表明,那些認(rèn)為或者希望人工智能具有關(guān)愛動機的人,使用的語言恰好引發(fā)了人工智能的關(guān)愛行為。
這種情感的回聲室,可能會讓人極度上癮。
人工智能本沒有自己的偏好或個性,而是用戶心理的一種映射。MIT的研究人員把人工智能的這種表現(xiàn)稱為「阿諛奉承」。
與擅長阿諛奉承的同伴的反復(fù)互動,可能最終會削弱我們與現(xiàn)實世界的人交往的能力,因為人類有著自己真實的欲望。