原創(chuàng) 文摘菌 大數(shù)據(jù)文摘
大數(shù)據(jù)文摘出品
作者:Caleb
去年末,谷歌AI倫理團隊聯(lián)合負責(zé)人一事在全球都鬧得沸沸揚揚。
新年伊始,你以為谷歌就會“新年新氣象”了?
天真!
這不,就在幾個小時前,谷歌AI倫理部門創(chuàng)始人Margaret Mitchell在社交媒體上表示,“我被開除了”。
對于這項舉措,谷歌在郵件中表示:
在對該經(jīng)理的行為進行審查之后,我們確認其存在多次違反公司行為準則和安全政策的行為,其中包括泄露機密的業(yè)務(wù)敏感文件和其他員工的私人數(shù)據(jù)。
根據(jù)Axios報道稱,早在1月份,谷歌就撤銷了Margaret Mitchell的公司訪問權(quán)限,原因是其使用自動腳本查找了公司“虐待”Timnit Gebru的相關(guān)證據(jù)。
本月早些時候,Mitchell在推特上發(fā)布了一封電子郵件,郵件中談到了Gebru被解雇的情況,以及該事件似乎“受到了種族主義和性別歧視者們的支持”,“如果AI系統(tǒng)被別有用心的人加以利用,也會受到同樣的影響”。
郵件全文鏈接:
https://docs.google.com/document/d/1ERi2crDToYhYjEjxRoOzO-uOUeLgdoLPfnx1JOErg2w/edit
Mitchell認為,發(fā)生在Gebru身上的事情“似乎源于對于現(xiàn)代技術(shù)缺乏遠見,因此該事件本身就是這個問題的顯現(xiàn)”。
支持Gebru是Mitchell被解雇的原因?
也正如Axios之前所報道的那樣,Mitchell被解雇發(fā)生在谷歌宣布對其AI倫理團隊進行重組的后一天。谷歌工程組織副總裁Marian Croak現(xiàn)在領(lǐng)導(dǎo)著“谷歌研究中心一個負責(zé)任的人工智能新專業(yè)中心”。
根據(jù)Mitchell的LinkedIn資料顯示,她在2016年加入谷歌,擔(dān)任高級研究科學(xué)家。兩年后,她與Gebru一起成立了谷歌AI倫理團隊。
去年12月,Mitchell和Gebru正在撰寫有關(guān)大型語言處理模型的危害的論文,當(dāng)Google Brain副總裁Megan Kacholia要求撤回該文章時,Gebru卻表示,谷歌需要更加開放,思考“為何這項研究不被接受”。
這此后不久,Gebru便被解雇了,盡管谷歌將其描述為主動辭職。
Gebru事件發(fā)生后,Mitchell便開始公開批評谷歌高管,包括谷歌AI部門負責(zé)人Jeff Dean和谷歌首席執(zhí)行官Sundar Pichai。1月,在谷歌開始著手調(diào)查相關(guān)事宜時,Mitchell發(fā)現(xiàn)自己失去了公司電子郵件訪問權(quán)限。
對此,外界普遍猜測,Mitchell被解雇在很大程度上都是因為其與Gebru的關(guān)系,以及在后續(xù)一系列活動中對Gebru的聲援。
在對Gebru事件進行調(diào)查之后,谷歌宣布將對其研究和多元化政策進行更改。在一封內(nèi)部電子郵件中,Jeff Dean向員工道歉,表示他對公司處理Gebru離職一事深表遺憾。
“我聽到并承認Gebru博士的退出對女性技術(shù)人員、黑人社區(qū)人員以及追求技術(shù)職業(yè)的其他代表性不足的群體以及對谷歌負責(zé)任地使用AI表示深切關(guān)懷的人代表著什么。這會使得這些人質(zhì)疑他們在公司的位置,對此我感到遺憾?!?/span>
自Gebru事件于去年12月發(fā)酵以來,谷歌的AI倫理團隊就一直處于危機中。在宣布重組后,高級研究員Alex Hanna寫道,直到周三晚上新聞報道后,團隊才知道Croak的任命。
“他們都讓我們要相信他們的處理方式,相信Marian Croak這樣的決策者,他們會把我們利益最大化,”她在推特上寫到,“但所有的決定都是背著我們做出的”。
谷歌連續(xù)曝出的解雇風(fēng)波在業(yè)界引起巨大轟動,也引發(fā)了人們對谷歌對異議的容忍度的質(zhì)疑。
2018年至今,谷歌內(nèi)部已經(jīng)發(fā)生過多次大規(guī)模的抗議活動。最近,多位谷歌員工宣布共同成立Alphabet工會,希望在薪酬和倫理等問題上向公司施壓。
倫理問題需要得到相同程度的重視
Mitchell以在人臉識別偏見的批評而聞名于世。
去年7月,MIT正在使用的一個高引用圖片數(shù)據(jù)集被曝出存在強烈種族歧視和厭女癥標簽。#p#分頁標題#e#
這個數(shù)據(jù)庫內(nèi),當(dāng)黑人或猴子出現(xiàn)時,標簽顯示為N*gger這一對黑人的蔑稱詞匯;此外,身穿比基尼或抱著孩子的婦女的圖片被標記為b*tch等這一侮辱性詞匯。
這在學(xué)術(shù)圈迅速引發(fā)廣泛關(guān)注和激烈爭議。得知消息后,MIT迅速下線了這一數(shù)據(jù)集,并發(fā)布公告稱,由該數(shù)據(jù)集訓(xùn)練出的AI系統(tǒng),會潛在地使用種族主義、厭女癥和其他激進術(shù)語來描述對象,請所有研究員暫停使用和訓(xùn)練。
下線該數(shù)據(jù)庫后,MIT還表示,將敦促研究人員和開發(fā)人員停止使用培訓(xùn)庫,并刪除所有副本。
ImageNet也有同樣的問題,因為它也是使用WordNet進行注釋的。一項名為“ImageNet Roulette”的實驗允許人們將照片提交給由ImageNet訓(xùn)練出來的神經(jīng)網(wǎng)絡(luò),該神經(jīng)網(wǎng)絡(luò)將使用數(shù)據(jù)集中的標簽來描述這些圖片。不出所料,人們在系統(tǒng)中輸入的是他們最感興趣的照片:自拍,而軟件會輸出一些種族主義和冒犯性的標簽描述他們。
在這些龐大的數(shù)據(jù)集中,有問題的圖像和標簽所占的比例很小,并且很容易將其作為異?,F(xiàn)象清除掉。Prabhu和Birhane認為,如果將這些材料用于訓(xùn)練現(xiàn)實世界中使用的機器學(xué)習(xí)模型,則很可能導(dǎo)致真正的傷害。
他們在論文中寫道:“缺乏對規(guī)范數(shù)據(jù)集的規(guī)范,會對女性、種族和少數(shù)民族以及處于社會邊緣的弱勢個體和社區(qū)造成不成比例的負面影響?!?/span>
少數(shù)群體在AI訓(xùn)練數(shù)據(jù)集中往往沒有得到重視,這也是人臉識別算法在識別女性和膚色較深的人時遇到困難的原因。今年早些時候,底特律的一名黑人被面部識別軟件誤認為小偷嫌疑人,被警察錯誤逮捕。
這也是為什么此前,一個有爭議的人工智能算法從低分辨率的快照中生成高分辨率的圖像,把一張奧巴馬的模糊照片變成更像白人而不是黑人的原因。
盡管隨著技術(shù)的成熟,科技公司都在不同領(lǐng)域取得了不小的進步,但是與技術(shù)相伴生的倫理問題卻并未得到相同程度的重視。
谷歌的系列事件到底會成為導(dǎo)火索,還是倫理問題被提上臺面的引線,我們將拭目以待。
相關(guān)報道:
https://techcrunch.com/2021/02/19/google-fires-top-ai-ethics-researcher-margaret-mitchell/
https://www.theverge.com/2021/2/19/22291631/google-diversity-research-policy-changes-timnet-gebru-firing
https://www.nytimes.com/live/2021/02/19/business/stock-market-today