整理|褚杏娟、核子可樂(lè)
近日,三星員工在使用ChatGPT處理工作時(shí),無(wú)意間泄露了公司的絕密數(shù)據(jù)。
據(jù)悉,三星允許半導(dǎo)體部門的工程師使用ChatGPT參與修復(fù)源代碼問(wèn)題。但在過(guò)程當(dāng)中,員工們輸入了機(jī)密數(shù)據(jù),包括新程序的源代碼本體、與硬件相關(guān)的內(nèi)部會(huì)議記錄等數(shù)據(jù)。不到一個(gè)月的時(shí)間,三星曝出了三起員工通過(guò)ChatGPT泄露敏感信息的事件。
由于ChatGPT會(huì)保留用戶輸入數(shù)據(jù)以進(jìn)一步訓(xùn)練自身,因此三星的這些商業(yè)機(jī)密現(xiàn)已被掌握在ChatGPT背后的AI服務(wù)商OpenAI手中。作為回應(yīng),三星公司現(xiàn)正開發(fā)自己的內(nèi)部AI產(chǎn)品供員工使用。
三星保密數(shù)據(jù)泄露
據(jù)悉,起初三星全面禁止使用ChatGPT,自3月11日開始才部分開放給DS部門使用,卻沒(méi)想到在短短時(shí)間內(nèi)就傳出機(jī)密外泄。
三起泄密事件均發(fā)生在三星電子半導(dǎo)體暨裝置解決方案(DeviceSolutions,簡(jiǎn)稱“DS”)部門。其中,兩起與半導(dǎo)體設(shè)備有關(guān),另外一起與會(huì)議內(nèi)容相關(guān)。
在設(shè)計(jì)晶片設(shè)備的事件中,三星半導(dǎo)體事業(yè)暨裝置解決方案部門(DeviceSolutions,即DS)的一名員工在測(cè)試設(shè)備下載軟體的過(guò)程中,將出現(xiàn)問(wèn)題的原始代碼復(fù)制到ChatGPT,并向其請(qǐng)教解決辦法,但這一操作反而讓三星設(shè)備測(cè)量相關(guān)的原始碼成為ChatGPT學(xué)習(xí)資料。另一起則是有員工為了解設(shè)備良率等相關(guān)資訊,將程式碼輸入ChatGPT,要求其優(yōu)化代碼。
雖然是保密工作,但為了盡量提高效率、為公司節(jié)約時(shí)間以測(cè)試和驗(yàn)證處理器,最終降低開發(fā)成本,三星還是決定允許員工使用外部AI服務(wù)。
第三起則是,有員工使用ChatGPT將會(huì)議記錄轉(zhuǎn)換成演示文稿,但其中卻涉及大量三星明顯不希望對(duì)外透露的內(nèi)容。
由于三星員工在使用ChatGPT查詢問(wèn)題并驗(yàn)證答案時(shí),不慎將這些資訊添加到ChatGPT的學(xué)習(xí)資料庫(kù)里,日后若有其他使用者在ChatGPT上提出相關(guān)問(wèn)題,可能導(dǎo)致三星企業(yè)機(jī)密外泄。
據(jù)悉,三星正在制定相關(guān)保護(hù)措施,并進(jìn)一步加強(qiáng)內(nèi)部管理和員工訓(xùn)練,目前也已將每次向ChatGPT提問(wèn)限制在1,024byte以內(nèi)。若采取信息保護(hù)緊急措施后又發(fā)生類似事故,三星內(nèi)部很有可能會(huì)切斷ChatGPT服務(wù),更不排除對(duì)相關(guān)人員做出處罰。
外媒稱此類數(shù)據(jù)已經(jīng)無(wú)法檢索,因?yàn)槠洮F(xiàn)被存儲(chǔ)在屬于OpenAI的服務(wù)器上。在競(jìng)爭(zhēng)激烈的半導(dǎo)體行業(yè),任何形式的數(shù)據(jù)泄露都可能給廠商帶來(lái)災(zāi)難性打擊。而三星似乎沒(méi)有任何辦法要求OpenAI檢索或刪除當(dāng)前持有的敏感數(shù)據(jù)。
有人認(rèn)為這意味著ChatGPT并不符合歐盟的GDPR,代表管理方存在收集和使用其核心租戶數(shù)據(jù)的行為。也正因如此,目前意大利正在全國(guó)范圍內(nèi)禁止使用ChatGPT。
數(shù)據(jù)安全風(fēng)波不斷
3月31日,意大利數(shù)據(jù)保護(hù)局Garante宣布暫時(shí)禁用ChatGPT,并對(duì)其涉嫌違反隱私規(guī)則展開了調(diào)查。目前,OpenAI已在意大利下線ChatGPT,意大利也成為了全球首個(gè)封禁ChatGPT的國(guó)家(部分國(guó)家和地區(qū)在一開始就無(wú)法使用ChatGPT。)
意大利數(shù)據(jù)保護(hù)局Garante認(rèn)為,ChatGPT平臺(tái)曾在3月20日出現(xiàn)了用戶對(duì)話數(shù)據(jù)和付款服務(wù)支付信息丟失情況。此外,平臺(tái)沒(méi)有就收集處理用戶信息進(jìn)行告知,缺乏大量收集和存儲(chǔ)個(gè)人信息的法律依據(jù)。
意大利個(gè)人數(shù)據(jù)監(jiān)管局(GPDP)指出,由于違反歐盟的《通用數(shù)據(jù)保護(hù)條例》(GDPR)和意大利的數(shù)據(jù)保護(hù)法,他們將立即對(duì)涉及意大利公民的“個(gè)人數(shù)據(jù)處理做臨時(shí)限制”。
GPDP強(qiáng)調(diào),“OpenAI對(duì)其收集用戶及各相關(guān)方數(shù)據(jù)的行為缺乏清晰說(shuō)明。”另外,ChatGPT對(duì)用戶數(shù)據(jù)的處理還可能造成錯(cuò)誤印象,“因?yàn)镃hatGPT提供的信息并不一定與真實(shí)數(shù)據(jù)相對(duì)應(yīng)。”
GPDP還對(duì)OpenAI忽略用戶年齡審查表達(dá)了擔(dān)憂。作為微軟的投資對(duì)象,OpenAI曾提到其ChatGPT是專為13歲或以上的用戶群體所設(shè)計(jì)。但這項(xiàng)服務(wù)在發(fā)布后并沒(méi)有對(duì)用戶做年齡驗(yàn)證,GPDP認(rèn)為“考慮到其發(fā)展程度和自我意識(shí),未成年人在使用時(shí)可能接觸到絕對(duì)不合適的答案?!?/p>
此外,據(jù)報(bào)道,非營(yíng)利組織人工智能與數(shù)字政策中心(CAIDP)不久前向美國(guó)聯(lián)邦貿(mào)易委員會(huì)(FTC)投訴,要求FTC調(diào)查OpenAI違反消費(fèi)者保護(hù)規(guī)則的行為,該組織認(rèn)為GPT-4具有偏見性、欺騙性、對(duì)隱私和公共安全構(gòu)成風(fēng)險(xiǎn)。
CAIDP認(rèn)為,OpenAI違反了FTC對(duì)人工智能產(chǎn)品的指導(dǎo),并違反了FTC法案第5條,該法案禁止不公平和欺騙性的商業(yè)行為。CAIDP敦促FTC對(duì)OpenAI進(jìn)行調(diào)查,并暫停其大型語(yǔ)言模型的商業(yè)部署,包括ChatGPT的最新版本。
OpenAI:AI安全需要技術(shù)和制度雙重創(chuàng)新
顯然,最近不斷爆出的數(shù)據(jù)安全事件和意大利政府明確禁用的態(tài)度,已經(jīng)引起了OpenAI的高度重視。4月5日,OpenAI發(fā)布了一篇文章來(lái)解釋自己實(shí)行的安全措施,文章試圖對(duì)業(yè)界GPDP擔(dān)憂的問(wèn)題作出回應(yīng)。
根據(jù)OpenAI的說(shuō)法,在發(fā)布新系統(tǒng)之前,其會(huì)開展嚴(yán)格測(cè)試,聘請(qǐng)外部專家提供反饋,通過(guò)人工反饋強(qiáng)化學(xué)習(xí)等技術(shù)改進(jìn)模型的行為,并構(gòu)建起廣泛的安全與監(jiān)控系統(tǒng)。例如,在最新模型GPT-4完成訓(xùn)練之后,OpenAI投入6個(gè)多月時(shí)間在整個(gè)組織內(nèi)開展工作,以保證其工作效果更安全、更一致。
OpenAI表示,強(qiáng)大的AI系統(tǒng)應(yīng)當(dāng)接受嚴(yán)格的安全評(píng)估?!斑@方面保障還需要監(jiān)管的協(xié)助,因此我們與政府積極合作,希望制定出最佳監(jiān)管形式?!?/p>
從實(shí)際經(jīng)驗(yàn)中改進(jìn)安全系統(tǒng)
盡管進(jìn)行了廣泛的研究和測(cè)試,但OpenAI也稱自己無(wú)法預(yù)測(cè)人們使用其技術(shù)的所有方式,也無(wú)法預(yù)測(cè)其對(duì)技術(shù)的濫用思路。因此OpenAI認(rèn)為,從現(xiàn)實(shí)世界的使用方式中學(xué)習(xí),才是隨時(shí)間推移構(gòu)建并發(fā)布更加安全的AI系統(tǒng)的關(guān)鍵前提。
“我們謹(jǐn)慎地逐步向更廣泛的人群開放最強(qiáng)大的模型,并根據(jù)我們吸取的教訓(xùn)不斷做出改進(jìn)。我們通過(guò)服務(wù)和API對(duì)外開放最強(qiáng)大的模型,以便開發(fā)人員能夠?qū)⑦@項(xiàng)技術(shù)直接構(gòu)建至自有應(yīng)用程序當(dāng)中。這讓我們得以監(jiān)控濫用行為并采取行動(dòng),不斷建立緩解措施以響應(yīng)人們?yōu)E用我們系統(tǒng)的真實(shí)方式。這樣安全工作才能不止于理論演繹,更要聯(lián)系現(xiàn)實(shí)案例?!?/p>
OpenAI表示,真實(shí)案例促使了其制定越來(lái)越細(xì)致的政策,以應(yīng)對(duì)人們可能引發(fā)風(fēng)險(xiǎn)的行為。“更重要的是,我們認(rèn)為社會(huì)必須有時(shí)間來(lái)更新和適應(yīng)愈發(fā)強(qiáng)大的AI,而且受到這項(xiàng)技術(shù)影響的人們也應(yīng)對(duì)AI的下一步發(fā)展方向擁有發(fā)言權(quán)。有了第一手經(jīng)驗(yàn)的指引,我們能夠通過(guò)迭代部署更有效地將各個(gè)利益相關(guān)方引入關(guān)于AI技術(shù)應(yīng)用的對(duì)話當(dāng)中?!?/p>
關(guān)于兒童和隱私
OpenAI強(qiáng)調(diào),保護(hù)兒童是安全工作的一大重點(diǎn)。OpenAI明確表示,要求用戶必須年滿18歲,或者至少年滿13歲并得到父母同意后,才能使用其AI工具。OpenAI表示正在研究可驗(yàn)證用戶年齡的工具,同時(shí)OpenAI聲稱已經(jīng)建立起強(qiáng)大的濫用監(jiān)控系統(tǒng)。據(jù)悉,與GPT-3.5相比,最新一代模型GPT-4響應(yīng)禁止類請(qǐng)求的可能性降低了82%。
除了默認(rèn)的安全護(hù)欄之外,OpenAI表示還與非營(yíng)利性組織KhanAcademy等機(jī)構(gòu)的開發(fā)人員合作,比如為KhanAcademy開發(fā)出的AI助手提供量身定制的安全緩解措施。
OpenAI的大語(yǔ)言模型訓(xùn)練自廣泛的文本語(yǔ)料庫(kù),這些文本包括公開可用素材、許可內(nèi)容以及由人工審閱者生成的內(nèi)容。OpenAI表示不會(huì)使用這些數(shù)據(jù)來(lái)銷售公司服務(wù)、做廣告宣傳或者建立個(gè)人檔案,并承諾只利用這些數(shù)據(jù)來(lái)改進(jìn)模型,比如ChatGPT會(huì)通過(guò)與用戶間的對(duì)話不斷訓(xùn)練和改進(jìn)自身。
OpenAI承認(rèn),其部分訓(xùn)練數(shù)據(jù)可能包含來(lái)自公共互聯(lián)網(wǎng)的個(gè)人信息,但聲稱不希望自己的模型來(lái)非跟蹤個(gè)人,因此會(huì)努力在可行的情況下從訓(xùn)練數(shù)據(jù)集中刪除個(gè)人信息,微調(diào)模型以拒絕對(duì)個(gè)人信息的請(qǐng)求,并響應(yīng)用戶提出的從系統(tǒng)中刪除其個(gè)人信息的請(qǐng)求?!斑@些舉措最大限度減少了我們模型可能在響應(yīng)內(nèi)容中,包含個(gè)人信息的可能性。”
在提高事實(shí)準(zhǔn)確性方面,OpenAI表示這已經(jīng)成為OpenAI及其他各AI開發(fā)商的關(guān)注重點(diǎn)。OpenAI通過(guò)被用戶標(biāo)記為不正確的主數(shù)據(jù)源的ChatGPT輸出及反饋,提高了GPT-4的事實(shí)準(zhǔn)確性。據(jù)悉,GPT-4生成符合事實(shí)內(nèi)容的可能性比GPT-3.5高40%。
解決AI安全問(wèn)題,需要更多投入
OpenAI認(rèn)為,解決AI安全問(wèn)題的切實(shí)方法,是投入更多時(shí)間和資源來(lái)研究行之有效的緩解與對(duì)齊技術(shù),并測(cè)試它們?cè)诂F(xiàn)實(shí)世界中被濫用的情況。
“我們認(rèn)為AI的安全性與功能性發(fā)展應(yīng)當(dāng)齊頭并進(jìn)。截至目前,我們最重要的安全工作就集中在最強(qiáng)大的模型上,它們更善于遵循用戶指示,但也更容易被操縱或‘引導(dǎo)’。我們將以愈發(fā)謹(jǐn)慎的態(tài)度構(gòu)建和部署更加強(qiáng)大的模型,也會(huì)隨著我們AI系統(tǒng)的發(fā)展而持續(xù)加強(qiáng)安全預(yù)防措施?!?/p>
OpenAI認(rèn)為,雖然自己投入6個(gè)多月才在部署之前大致把握住GPT-4模型的功能、優(yōu)勢(shì)和風(fēng)險(xiǎn),但未來(lái)AI系統(tǒng)的安全提升恐怕還需要更長(zhǎng)的時(shí)間。因此,政策制定者和AI廠商都應(yīng)保證全球范圍內(nèi)的AI開發(fā)和部署活動(dòng)得到有效管理,確保各方不會(huì)為了快速成功而偷工減料?!斑@是一項(xiàng)艱巨的挑戰(zhàn),需要技術(shù)和制度的雙重創(chuàng)新?!?/p>
“安全問(wèn)題的解決還需要廣泛的討論、實(shí)驗(yàn)和參與,包括AI系統(tǒng)的行為邊界?!監(jiān)penAI最后表示,“我們已經(jīng)并將繼續(xù)促進(jìn)各利益相關(guān)方之間的合作和公開對(duì)話,努力打造一個(gè)更加安全的AI生態(tài)系統(tǒng)。”