IT之家 12 月 8 日消息,谷歌表示,其新的人工智能模型系列有一個奇特的功能:能夠“識別”情緒。
谷歌周四發(fā)布了其最新 AI 模型系列 PaliGemma 2,該模型具備圖像分析能力,可以生成圖像描述并回答有關照片中人物的問題。谷歌在其博客中介紹,PaliGemma 2 不僅能識別物體,還能生成詳細且與上下文相關的圖片說明,涵蓋動作、情感以及整體場景的敘述。
PaliGemma 2 的情感識別功能并非開箱即用,需要進行專門的微調(diào),但專家們?nèi)匀粚Υ吮硎緭鷳n。
多年來,許多科技公司一直在嘗試開發(fā)能夠識別情感的 AI,盡管一些公司聲稱已經(jīng)取得突破,但這一技術的基礎仍然存在爭議。大多數(shù)情感識別系統(tǒng)都基于心理學家 Paul Ekman 的理論,即人類有六種基本情緒:憤怒、驚訝、厭惡、喜悅、恐懼和悲傷。然而后續(xù)的研究表明,來自不同文化背景的人們在表達情感時存在顯著差異,這使得情感識別的普遍性受到質(zhì)疑。
倫敦國王學院專門研究人工智能的研究員 Mike Cook 表示,情感識別在一般情況下是不可行的,因為人類的情感體驗非常復雜。雖然人們可以通過觀察他人來推斷他們的情緒,但不能做到全面且完美地解決情緒檢測問題。
情感識別系統(tǒng)的另一個問題是其可靠性和偏見。一些研究表明,面部分析模型可能會對某些表情(如微笑)產(chǎn)生偏好,而最近的研究則表明,情感分析模型對黑人面孔的負面情緒判斷比白人面孔更多。
谷歌表示,PaliGemma 2 在進行“廣泛測試”后,評估了其在人群偏見方面的表現(xiàn),結果顯示其“毒性和粗俗內(nèi)容的水平低于行業(yè)基準”。但該公司并未公開測試所依據(jù)的完整基準,也沒有明確表示所進行的測試類型。谷歌披露的唯一基準是 FairFace—— 一個包含數(shù)萬張人像的面部數(shù)據(jù)集。谷歌聲稱,PaliGemma 2 在該數(shù)據(jù)集上的表現(xiàn)良好,但一些研究者批評 FairFace 存在偏見,認為該數(shù)據(jù)集僅代表少數(shù)幾種族群。
AI Now 研究所首席 AI 科學家 Heidy Khlaaf 表示,解讀情緒是一件相當主觀的事情,它超越了使用視覺輔助工具的范圍,深深地嵌入在個人和文化背景中。
據(jù)IT之家了解,歐盟的《人工智能法案》禁止學校和雇主部署情感識別系統(tǒng),但允許執(zhí)法機構使用。
Khlaaf 表示,如果這種所謂的情感識別是建立在偽科學假設的基礎上的,那么這種能力可能會被用來進一步歧視邊緣化群體,例如在執(zhí)法、人力資源、邊境治理等領域。
谷歌發(fā)言人表示,公司對 PaliGemma 2 的“表征危害”測試充滿信心,并進行了廣泛的倫理和安全評估。