制造虛假圖像的Deepfake技術(shù)(深度偽造技術(shù)) 玩起來很有趣,但它潛在危害是巨大的。
Deepfake生成圖像的跡象過去很容易被發(fā)現(xiàn),但生成式人工智能讓我們質(zhì)疑我們現(xiàn)在所見所聞的一切。隨著每一個(gè)新的 AI 模型的發(fā)布,虛假圖像的跡象都在減少,更讓人困惑的是,你現(xiàn)在可以在幾秒鐘內(nèi)創(chuàng)建 deepfake 視頻、你所愛之人的聲音克隆以及偽造文章。
為了避免被 AI deepfakes 技術(shù)愚弄,有必要了解它們會(huì)帶來什么樣的危險(xiǎn)。
Deepfakes技術(shù)的演變
Deepfake 顯示一個(gè)人正在做現(xiàn)實(shí)生活中從未發(fā)生過的事情。這完全是假的。當(dāng) deepfakes 作為模因或笑話在互聯(lián)網(wǎng)上分享時(shí),我們會(huì)嘲笑它們,但當(dāng)它們被用來誤導(dǎo)我們時(shí),很少有人覺得這很有趣。
過去,deepfakes 是通過拍攝現(xiàn)有照片并在 Photoshop 等圖像編輯軟件中對(duì)其進(jìn)行修改而創(chuàng)建的。但 AI deepfake 的不同之處在于它可以使用深度學(xué)習(xí)算法從頭開始生成。
詞典中將 deepfake 定義為:
令人信服地修改和操縱的圖像或錄音,以誤傳某人正在做或說的事情,實(shí)際上某人并未做過或說過。
但隨著人工智能技術(shù)的進(jìn)步,這個(gè)定義開始顯得過時(shí)了。通過使用 AI 工具,deepfakes 現(xiàn)在包括圖像、文本、視頻和語音克隆。有時(shí),會(huì)同時(shí)使用所有四種 AI 生成模式。
因?yàn)樗且粋€(gè)自動(dòng)化的過程,使用起來非常快速和便宜,所以它是以我們以前從未見過的速度大量制作 deepfakes 的*工具——所有這些都不需要我們知道如何編輯照片、視頻或音頻.
AI Deepfakes 的巨大危險(xiǎn)
許多AI 視頻生成器已經(jīng)存在,還有大量AI 語音生成器。加入像 GPT-4 這樣的大型語言模型,你就有了創(chuàng)建迄今為止我們?cè)诂F(xiàn)代歷史上看到的最可信的深度造假的方法。
了解不同類型的 AI deepfakes,以及它們可能如何被用來欺騙你,是避免被誤導(dǎo)的一種方法。這里是幾個(gè)嚴(yán)重的例子,說明 AI deepfake 技術(shù)如何構(gòu)成真正的威脅。
1. 人工智能身份盜竊
你可能見過他們。在世界范圍內(nèi)*批真正病毒式傳播的 AI deepfakes 包括唐納德特朗普被捕的照片,以及身穿白色羽絨服的教皇方濟(jì)各的照片。
雖然這似乎是對(duì)一位著名的宗教人物在羅馬寒冷的日子里可能會(huì)穿什么的天真無邪的重新想象;另一張圖片顯示的是一名政治人物在嚴(yán)重的違法情況下被捕,如果被認(rèn)為是真實(shí)的,后果會(huì)嚴(yán)重得多。
到目前為止,人們?cè)趧?chuàng)建 AI deepfakes 時(shí)主要針對(duì)名人、政治人物和其他知名人士。在某種程度上,這是因?yàn)槊嗽诨ヂ?lián)網(wǎng)上有大量他們的照片,這可能首先有助于訓(xùn)練模型。
對(duì)于像 Midjourney 這樣的 AI 圖像生成器——用于特朗普和教皇的深度造假圖像——用戶只需輸入描述他們想要看到的內(nèi)容文本。關(guān)鍵字可用于指定藝術(shù)風(fēng)格,例如照片或照片寫實(shí)主義,并且可以通過提高分辨率來微調(diào)結(jié)果。
人們可以輕松地學(xué)習(xí)使用 Midjourney并自己進(jìn)行測試,但出于明顯的道德和法律原因,人們應(yīng)該避免公開發(fā)布這些圖像。
不幸的是,作為一個(gè)普通的、不知名的人也不能保證你不會(huì)受到 AI deepfakes 的侵害。
問題在于 AI 圖像生成器提供的一個(gè)關(guān)鍵功能:上傳你自己的圖像并使用 AI 對(duì)其進(jìn)行操作的能力。而像DALL-E 2 中的 Outpainting這樣的工具可以通過輸入文本提示并描述你想要生成的其他內(nèi)容來擴(kuò)展現(xiàn)有圖像的邊界。
如果其他人用你的照片做這個(gè),危險(xiǎn)可能比穿白夾克的教皇的深度偽造圖像要大得多——他們可以在任何地方使用它,假裝是你。雖然大多數(shù)人通常出于善意使用人工智能,但很少有限制阻止人們使用它造成傷害,尤其是在身份盜用的情況下。
2. Deepfake 語音克隆詐騙
在 AI 的幫助下,deepfakes 跨越了我們大多數(shù)人都沒有準(zhǔn)備好的界限:假聲音克隆。只需少量原始音頻——可能來自你曾經(jīng)發(fā)布的 TikTok 視頻,或者你出現(xiàn)在其中的 YouTube 視頻——人工智能模型就可以復(fù)制你*的聲音。
想象一下接到一個(gè)聽起來就像家人、朋友或同事的電話,既不可思議又令人恐懼。Deepfake 語音克隆是一個(gè)非常嚴(yán)重的問題,聯(lián)邦貿(mào)易委員會(huì) (FTC)已就此發(fā)出警告。
不要相信聲音。打電話給應(yīng)該與你聯(lián)系的人核實(shí)故事。使用你知道是他們的電話號(hào)碼。如果你無法聯(lián)系到你所愛的人,請(qǐng)嘗試通過其他家庭成員或他們的朋友與他們?nèi)〉寐?lián)系。
《華盛頓郵報(bào)》報(bào)道了一個(gè)案例,一對(duì) 70 多歲的夫婦接到了一個(gè)聽起來像他們孫子的人打來的電話。他在監(jiān)獄里,急需保釋金。沒有其他理由懷疑他們?cè)诤驼l說話,他們就把錢交給了騙子。
面臨風(fēng)險(xiǎn)的不僅僅是老一代,衛(wèi)報(bào)報(bào)道了另一個(gè)例子,一位銀行經(jīng)理在他們認(rèn)為是銀行董事的人發(fā)出一系列“偽造的電話”后批準(zhǔn)了一筆 3500 萬美元的交易。
3.大量生產(chǎn)的假新聞
像ChatGPT這樣的大型語言模型非常非常擅長生成聽起來像人類的文本,而我們目前沒有有效的工具來發(fā)現(xiàn)差異。在錯(cuò)誤的人手中,假新聞和陰謀論的制作成本很低,揭穿的時(shí)間也更長。
傳播錯(cuò)誤信息當(dāng)然不是什么新鮮事,但2023 年 1 月在 arXiv 上發(fā)表的一篇研究論文解釋說,問題在于使用 AI 工具擴(kuò)大輸出是多么容易。他們將其稱為“人工智能產(chǎn)生的影響力運(yùn)動(dòng)”,他們說,例如,政治家可以利用它來外包他們的政治運(yùn)動(dòng)。
結(jié)合多個(gè) AI 生成的源創(chuàng)建一個(gè)高級(jí) deepfake。例如,人工智能模型可以生成一個(gè)寫得很好且令人信服的新聞故事,以配合唐納德特朗普被捕的虛假形象。與單獨(dú)共享圖像相比,這賦予了它更多的合理性。
假新聞不僅限于圖像和文字,人工智能視頻生成的發(fā)展意味著我們看到更多的深度偽造視頻出現(xiàn)。這是 Robert Downey Jr. 移植到 YouTube 頻道 Deepfakery 發(fā)布的 Elon Musk 視頻中的其中一個(gè)。
創(chuàng)建 deepfake 就像下載應(yīng)用程序一樣簡單。人們可以使用 TokkingHeads 之類的應(yīng)用程序?qū)㈧o止圖像轉(zhuǎn)換為動(dòng)畫化身,這樣人們就可以上傳自己的圖像和音頻,使人看起來就像在說話。
在大多數(shù)情況下,它既生動(dòng)又有趣,但也有潛在的麻煩。它向我們展示了使用任何人的形象是多么容易,使它看起來好像那個(gè)人說出了他們從未說過的話。
不要被 AI Deepfake 愚弄
Deepfakes 可以以極低的成本快速部署,并且所需的專業(yè)知識(shí)或計(jì)算能力也很低。它們可以采用生成的圖像、語音克隆或 AI 生成的圖像、音頻和文本組合的形式。
過去制作 Deepfake 更加困難和勞動(dòng)密集,但現(xiàn)在,隨著大量 AI 應(yīng)用程序的出現(xiàn),幾乎任何人都可以使用用于創(chuàng)建 Deepfake 的工具。隨著 AI deepfake 技術(shù)變得越來越先進(jìn),值得密切關(guān)注它帶來的危險(xiǎn)。