財聯(lián)社4月6日訊(編輯 史正丞)在過去24個小時內(nèi),ChatGPT與現(xiàn)實(shí)社會的碰撞又出現(xiàn)了新的案例:媒體們發(fā)現(xiàn)機(jī)器人不僅會“胡說八道”,而且會告訴使用者虛假信息來源于真實(shí)的媒體。
上周的一個晚上,喬治·華盛頓大學(xué)法學(xué)院教授喬納森·特里從律師朋友那里聽到了一個五雷轟頂?shù)南ⅲ?span style="font-weight: 700;">在ChatGPT生成的一份“有性騷擾歷史的法學(xué)學(xué)者”名單中,他的大名赫然在列。
OpenAI的對話機(jī)器人“聲稱”,《華盛頓郵報》于2018年3月發(fā)表的一篇文章中提及,特里在一次前往阿拉斯加的修學(xué)旅行中不僅發(fā)表過性騷擾的言論,還試圖上手觸摸一名學(xué)生。但事實(shí)是,《華盛頓郵報》根本沒發(fā)過這篇文章,也不存在阿拉斯加修學(xué)旅行,特里更是從來沒有被指控過性騷擾。
特里接受媒體采訪時表示:“這真是令人不寒而栗,這種指控極具危害性?!?/p>
在ChatGPT展現(xiàn)驚人的科技進(jìn)步后,微軟已經(jīng)上架了使用GPT-4.0的新必應(yīng),谷歌的對話式搜索引擎也已經(jīng)箭在弦上。隨著措辭能力的提升,這些機(jī)器人時不時會出現(xiàn)“一本正經(jīng)地胡說八道”,自信的語氣也令使用者更難分辨真實(shí)消息和虛假拼湊的流言。
在某些情況下,一些虛構(gòu)的內(nèi)容能令媒體記者本人都難以確信自己是不是真寫過相關(guān)內(nèi)容。
英國《衛(wèi)報》的編輯創(chuàng)新主管克里斯·莫蘭周四(6日)撰寫文章,分享這家媒體遇到的一件囧事。
(來源:衛(wèi)報)
《衛(wèi)報》的一名記者上個月收到研究人員的來信,稱他們在使用ChatGPT進(jìn)行科研期間,機(jī)器人提到這名記者在數(shù)年前寫的一篇文章,但研究人員無論是在衛(wèi)報網(wǎng)站,還是搜索引擎上都找不到原文,故來信詢問是否修改過標(biāo)題或者撤稿。
雖然記者本人并不記得有寫過這篇文章,但機(jī)器人給出的標(biāo)題又非常像他的寫作風(fēng)格,而且提到的事件《衛(wèi)報》的確曾涉獵過。最終報社動手對所有的報道記錄,特別是刪稿的部分進(jìn)行回溯,最終才確定這篇文章根本就不存在。
目前對于AI搜索機(jī)器人“胡說八道”的問題,微軟等公司給出的解決方案是標(biāo)注信息來源。但最新發(fā)現(xiàn)的現(xiàn)象也提出了一個新問題:如果這些標(biāo)注的來源本身就是虛構(gòu)的呢?機(jī)器人瀟灑且連貫的文風(fēng)連媒體從業(yè)者都無法輕松分辨真假,更不用說單純接受信息的用戶了。
就在上周,又有一名學(xué)生聯(lián)系《衛(wèi)報》詢問一篇報道的下落。不出意外,這又是一篇“不存在的報道”,而這一消息的源頭依然是ChatGPT。
更重要的是,在搜索引擎之外,微軟的Office 365和谷歌Workplace也已經(jīng)把AIGC功能列為即將上架的重要功能。同時一項千人調(diào)查顯示,89%的美國學(xué)生已經(jīng)用上ChatGPT做家庭作業(yè)。多項早期研究顯示,廣告、咨詢、編程工作者在使用ChatGPT后工作效率的提升能夠達(dá)到50%,同時工作質(zhì)量也會更高,預(yù)示著AIGC功能被大規(guī)模應(yīng)用只是時間問題。
種種跡象顯示,與Web3、元宇宙、區(qū)塊鏈等不同,這一輪AI浪潮已經(jīng)展現(xiàn)出重塑許多工作流程的巨大潛力,推動比爾·蓋茨、拉里·佩奇等一眾已經(jīng)退休的科技大佬火速重返一線。
莫蘭表示,對于已經(jīng)飽受虛假消息、極端化和惡意行為者影響的傳媒行業(yè)來說,AIGC技術(shù)帶來了令人興奮的潛力,但首要任務(wù)依然是理解、評估并解讀它對更廣闊世界的影響?!缎l(wèi)報》準(zhǔn)備在接下來幾周時間里向外界披露這家媒體將如何部署生成式AI的計劃,同時將堅持報道的標(biāo)準(zhǔn),為所發(fā)布的每一條消息負(fù)責(zé)。