首頁 行業(yè) 活動(dòng) 項(xiàng)目 快訊 文娛 時(shí)尚 娛樂 科技 汽車 綜合 生活

是時(shí)候給ChatGPT和Dall-E等AI生成內(nèi)容添加水印了

2023-04-03 14:01:44 來源:站長之家

站長之家(ChinaZ.com) 4月3日 消息:在前總統(tǒng)唐納德特朗普即將被起訴的謠言泄露后不久,網(wǎng)上出現(xiàn)了聲稱他被捕的圖片。這些圖像看起來像真實(shí)的新聞?wù)掌鼈儏s是假的。這些虛假照片都是由生成式人工智能系統(tǒng)生成的。

最近,生成式 AI,包括DALL-E、Midjourney和Stable Diffusion等圖像生成器以及Bard、ChatGPT、Chinchilla和LLaMA等文本生成器風(fēng)靡全網(wǎng)。通過機(jī)器學(xué)習(xí)算法與數(shù)十億條人類生成的內(nèi)容相結(jié)合,這些系統(tǒng)似乎可以做任何事情,從根據(jù)根據(jù)創(chuàng)建一個(gè)怪異逼真的圖像,合成喬·拜登總統(tǒng)的語音演講,將視頻中的一個(gè)人的肖像替換另一個(gè)人,或根據(jù)標(biāo)題提示寫一篇連貫的800字專欄文章等等。

即使在早期,生成式 AI 也能夠創(chuàng)建高度逼真的內(nèi)容,很多普通人無法可靠地區(qū)分真人和 AI 生成的人的圖像。一旦AI生成的內(nèi)容成熟的應(yīng)用在音頻和視頻領(lǐng)域,那么可能帶來災(zāi)難性的后果。


【資料圖】

比如,用AI制作一段某公司CEO透露公司利潤下降了20%的視頻,這可能導(dǎo)致數(shù)十億美元的市場份額損失;制作一段世界領(lǐng)導(dǎo)人威脅采取軍事行動(dòng)的視頻,這可能引發(fā)一場地緣政治危機(jī);或者在一段色情視頻中插入任何人的肖像,可能給任何人帶來困擾。制造真人的假視頻的技術(shù)正變得越來越容易。

生成式人工智能的進(jìn)步將意味著,虛假但在視覺上令人信服的內(nèi)容將在網(wǎng)上泛濫,導(dǎo)致一個(gè)更加混亂的信息生態(tài)系統(tǒng)。

隨著生成式人工智能的進(jìn)步,幾乎可以肯定這只是一個(gè)開始。這無疑需要有一些合理的、技術(shù)上可行的干預(yù)措施來幫助減輕這些濫用。一名專門研究圖像取證的計(jì)算機(jī)科學(xué)家、伯克利計(jì)算機(jī)科學(xué)教授主張Hany Farid給出的建議是,關(guān)鍵的方法是給AI生成的內(nèi)容添加水印。以下是他的一些觀點(diǎn):

水印

在文件和其他物品上做標(biāo)記以證明其真實(shí)性、表明所有權(quán)和打擊偽造的做法由來已久。比如攝影巨頭Getty Images,為目錄中的所有數(shù)字圖像添加了可見水印。這樣客戶就可以在保護(hù)Getty資產(chǎn)的同時(shí)自由瀏覽圖像。

不易察覺的數(shù)字水印也用于數(shù)字版權(quán)管理。水印可以添加到數(shù)字圖像中,例如,每10個(gè)圖像像素調(diào)整一次,使其顏色(通常是0到255范圍內(nèi)的數(shù)字)為偶數(shù)。因?yàn)檫@個(gè)像素調(diào)整很小,水印是難以察覺的。而且,由于這種周期性模式不太可能自然出現(xiàn),而且很容易驗(yàn)證,因此可以用于驗(yàn)證圖像的出處。

即使中等分辨率的圖像也包含數(shù)百萬像素,這意味著可以在水印中嵌入附加信息,包括編碼生成軟件的唯一標(biāo)識符和唯一用戶ID。這種相同類型的不可察覺水印可以應(yīng)用于音頻和視頻。

理想的水印是不易察覺的,而且還能適應(yīng)簡單的操作,如裁剪、調(diào)整大小、顏色調(diào)整和轉(zhuǎn)換數(shù)字格式。盡管像素顏色水印示例由于顏色值可以改變而不具有彈性,已經(jīng)提出了許多試圖消除水印的策略。

水印和的AI圖像生成器

通過對所有訓(xùn)練數(shù)據(jù)加水印,這些水印可以被植入到生成式AI系統(tǒng)中,之后生成的內(nèi)容將包含相同的水印。這種嵌入水印很有吸引力,因?yàn)樗馕吨墒紸I工具可以開源——就像圖像生成器Stable Diffusion一樣——而不用擔(dān)心水印過程可能會(huì)從圖像生成器的軟件中刪除。Stable Diffusion也有一個(gè)水印功能,但因?yàn)樗情_源的,任何人都可以簡單地刪除那部分代碼。

OpenAI正在試驗(yàn)一種系統(tǒng),為ChatGPT的作品添加水印。當(dāng)然,段落中的字符不能像像素值那樣進(jìn)行調(diào)整,因此文本水印采用了另一種形式。

基于文本的生成式AI是基于生成句子中產(chǎn)生下一個(gè)最合理的單詞。例如,從“一個(gè)AI系統(tǒng)可以……”這個(gè)句子片段開始,ChatGPT將預(yù)測下一個(gè)單詞應(yīng)該是“學(xué)習(xí)”、“預(yù)測”或“理解”。與這些單詞相關(guān)對應(yīng)出現(xiàn)在下一個(gè)句子中出現(xiàn)的單詞的可能性是有一定概率的。ChatGPT從它所訓(xùn)練的大量文本中學(xué)習(xí)這些概率。

生成的文本可以通過秘密地標(biāo)記單詞子集,然后將一個(gè)單詞的選擇偏向于同義詞標(biāo)記單詞來標(biāo)記水印。例如,可以使用帶標(biāo)簽的單詞“領(lǐng)悟”來代替“理解”。通過以這種方式定期選擇偏置的單詞,基于標(biāo)記單詞的特定分布為文本體加水印。這種方法不適用于簡短的推文,但通常對800字或更長的文本有效,具體取決于水印細(xì)節(jié)。

所有內(nèi)容加上水印,以便更容易地進(jìn)行下游識別,并在必要時(shí)進(jìn)行干預(yù)。如果該行業(yè)不自愿這樣做,立法者可以通過法規(guī)來執(zhí)行這一規(guī)定。毫無道德的人當(dāng)然不會(huì)遵守這些標(biāo)準(zhǔn)。不過,如果蘋果、谷歌應(yīng)用商店、亞馬遜、谷歌、微軟云服務(wù)和GitHub等主要網(wǎng)絡(luò)門戶通過禁止違規(guī)軟件來執(zhí)行這些規(guī)定,危害將會(huì)大大減少。

簽署真實(shí)內(nèi)容

從另一個(gè)角度解決這一問題的話,可以采用類似的方法在捕獲點(diǎn)驗(yàn)證原始視聽記錄。一款專門的攝像應(yīng)用可以在錄制內(nèi)容時(shí)對其進(jìn)行加密簽名。如果不留下證據(jù),就沒有辦法篡改這個(gè)簽名。然后將簽名存儲(chǔ)在受信任簽名的集中列表中。

雖然這個(gè)方法不適用于文本,但可以驗(yàn)證視聽內(nèi)容是否為人類生成。為認(rèn)證媒體創(chuàng)建標(biāo)準(zhǔn)的合作組織內(nèi)容來源和認(rèn)證聯(lián)盟(C2PA),最近發(fā)布了一個(gè)開放規(guī)范來支持這種方法。隨著Adobe、微軟、英特爾、BBC和許多其他機(jī)構(gòu)加入這,C2PA已經(jīng)做好準(zhǔn)備,可以提供有效且廣泛部署的身份認(rèn)證技術(shù)。

對人類生成的內(nèi)容和人工智能生成的內(nèi)容進(jìn)行聯(lián)合簽名和水印處理,雖然不能防止一切形式的濫用,但可以提供一定程度的保護(hù)。任何安全措施都必須不斷調(diào)整和完善,因?yàn)閷κ謺?huì)找到將最新技術(shù)武器化的新方法。

就像幾十年來一直在與垃圾郵件、惡意軟件和網(wǎng)絡(luò)釣魚等其他網(wǎng)絡(luò)威脅進(jìn)行斗爭一樣,我們應(yīng)該為一場同樣曠日持久的戰(zhàn)斗做好準(zhǔn)備,以抵制生成式人工智能各種形式的濫用行為。

(舉報(bào))

關(guān)鍵詞:

上一篇:星輝娛樂:公司游戲產(chǎn)品具備連接ChatGPT能力 將密切關(guān)注相關(guān)技術(shù)發(fā)展

下一篇:華南師范大學(xué)繼續(xù)教育學(xué)院官網(wǎng)登錄_華南師范大學(xué)繼續(xù)教育學(xué)院

責(zé)任編輯:

最近更新

點(diǎn)擊排行
推薦閱讀