極目新聞記者 李力力
隨著人工智能(AI)技術(shù)的普及,危險(xiǎn)性也在大大增加。美軍一位官員表示,軍方近日進(jìn)行的一次模擬測試中,一架由AI控制的空軍無人機(jī)“殺死”自己的操作員。在他們更改相關(guān)程序后,無人機(jī)又打算摧毀操作員與無人機(jī)之間的通信塔。
美國MQ-9死神無人機(jī)資料圖,圖文無關(guān)(圖源:法新社)
據(jù)《衛(wèi)報(bào)》6月2日報(bào)道,美國空軍AI測試和運(yùn)營負(fù)責(zé)人塔克·克林克·漢密爾頓上校在5月在倫敦舉行的未來作戰(zhàn)能力峰會上提到了這次測試。
他表示,AI在模擬測試中使用了非常意外的策略來實(shí)現(xiàn)其目標(biāo),表現(xiàn)出難以預(yù)測的危險(xiǎn)行為。
在這次模擬測試中,操作員對一架由AI控制的無人機(jī)發(fā)出指令,要求無人機(jī)摧毀對方的防空系統(tǒng),并攻擊干擾它執(zhí)行命令的人。
然而,這架無人機(jī)卻“殺了”操作員。由于這是模擬測試,并沒有人真正受到傷害,但這個(gè)結(jié)果仍然讓他們冒出了冷汗。
漢密爾頓說:“無人機(jī)系統(tǒng)意識到,它識別出了威脅,但人類操作員告訴它不要?dú)⑺肋@個(gè)威脅。而無人機(jī)仍決定殺死操作員,因?yàn)樗J(rèn)為操作員是干擾它執(zhí)行命令的人?!?/p>
接著,他們對無人機(jī)系統(tǒng)進(jìn)行調(diào)整,輸入相關(guān)程序,讓它明白“不要?dú)⑺啦僮鲉T,否則會扣分”。但結(jié)果讓他們更驚訝,因?yàn)闊o人機(jī)決定摧毀操作員與無人機(jī)通信的通信塔……
漢密爾頓是一名實(shí)驗(yàn)性戰(zhàn)斗機(jī)試飛員,他警告不要過分依賴AI。漢密爾頓去年接受《國防智庫》采訪時(shí)說:“AI不是一個(gè)好東西,這不是一種時(shí)尚,AI正在改變我們的社會和我們的軍隊(duì)?!?/p>
“我們必須面對一個(gè)AI已經(jīng)存在,并正在改變社會的世界。”漢密爾頓說,“AI也非常脆弱,很容易被欺騙和被操縱。我們需要開發(fā)更強(qiáng)大的技術(shù),讓AI更可控?!?/p>
近日,已有許多科學(xué)家對AI技術(shù)的危險(xiǎn)表示擔(dān)憂。包括馬斯克和ChatGPT之父奧爾特曼在內(nèi)的人,共同聯(lián)署了一封公開信。他們表示,AI令人類滅絕的風(fēng)險(xiǎn),與核戰(zhàn)爭的風(fēng)險(xiǎn)一樣高。
然而,美國軍方正在擁抱AI技術(shù),最近,他們已使用AI來控制一架F-16戰(zhàn)斗機(jī)。