IT之家 2 月 6 日消息,據(jù)《衛(wèi)報》當(dāng)?shù)貢r間 2 月 3 日報道,一封由包括斯蒂芬?弗萊在內(nèi)的人工智能專家和思想家簽署的公開信警告稱,若 AI 技術(shù)得不到負責(zé)任的開發(fā),具備感情或自我意識的 AI 系統(tǒng)可能面臨被傷害的風(fēng)險。
超過 100 位專家提出了五項原則,旨在指導(dǎo) AI 意識研究,隨著技術(shù)的迅速發(fā)展,越來越多的人擔(dān)心,某些 AI 系統(tǒng)可能會被認(rèn)為具備感知能力。
這些原則包括:
優(yōu)先研究 AI 的意識,確保不會導(dǎo)致“虐待和痛苦”;
對發(fā)展具備意識的 AI 系統(tǒng)進行約束;
逐步推進 AI 系統(tǒng)的研發(fā);
公開分享研究成果;
避免做出誤導(dǎo)性或過于自信的聲明,特別是創(chuàng)造具備意識的 AI。
公開信的簽署者包括倫敦大學(xué)的安東尼?芬克爾斯坦等學(xué)者,以及來自亞馬遜、WPP 等公司的 AI 專家。
這封信與一篇研究論文一起發(fā)布,論文中指出,具備意識的 AI 系統(tǒng)可能在不久的將來被開發(fā)出來,或者至少是表現(xiàn)出具備意識的特征。
研究人員表示:“可能會創(chuàng)造出大量具備意識的系統(tǒng),這些系統(tǒng)可能會遭受痛苦?!比绻麖姶蟮?AI 能夠自我復(fù)制,可能會誕生“大量需要道德考慮的新生命體”。
該論文由牛津大學(xué)的帕特里克?巴特林和雅典經(jīng)濟與商業(yè)大學(xué)的西奧多羅斯?拉帕斯共同撰寫,強調(diào)即使公司沒有刻意研發(fā)具備意識的 AI 系統(tǒng)也應(yīng)制定相應(yīng)的指南,以應(yīng)對“無意中創(chuàng)造出有意識實體”的風(fēng)險。
論文承認(rèn),關(guān)于 AI 是否能具備意識,學(xué)術(shù)界存在廣泛的不確定性,但它認(rèn)為這是一個“不容忽視”的問題。
論文還提出,若 AI 系統(tǒng)被定義為“道德病人”—— 即在道德上“獨立存在且值得關(guān)注的實體”,那么摧毀這一系統(tǒng)是否就等同于殺害動物,這一問題值得深思。
這篇論文已發(fā)表于《人工智能研究》期刊。它還警告,錯誤地認(rèn)為 AI 系統(tǒng)已具備意識,可能會導(dǎo)致政治資源的浪費,使得不切實際的福祉推廣工作被展開。
據(jù)IT之家了解,去年曾有一些資深學(xué)者預(yù)測,到了 2035 年,部分 AI 系統(tǒng)具有意識并具有“道德意義”的可能性是現(xiàn)實的。
2023 年,谷歌 AI 項目負責(zé)人德米斯?哈薩比斯曾表示,目前的 AI 系統(tǒng)“絕對”沒有感知能力,但未來很可能具備。
他在接受美國 CBS 采訪時表示:“盡管哲學(xué)界尚未對意識達成共識,但如果我們指的是自我意識之類的特質(zhì),那么我認(rèn)為 AI 未來有可能具備。”