GenAI的進步意味著虛假圖像、視頻、音頻和機器人現(xiàn)在無處不在,然而,研究已經揭示了辨別真?zhèn)蔚淖罴逊椒ā?/span>
你是否注意到上面的圖像是由AI生成的?在技術進步使AI生成的圖像、視頻、音頻和文本越來越難以與人類創(chuàng)作的內容區(qū)分開來的時候,辨別這些虛假內容變得尤為困難,這讓我們更容易受到虛假信息的操控,然而,通過了解用于制造虛假信息的AI技術的現(xiàn)狀以及辨別你所看到的內容可能是偽造的各種標志,你可以幫助自己免于上當受騙。
世界領導人對此表示擔憂。根據(jù)世界經濟論壇的一份報告,虛假信息和錯誤信息可能會在未來兩年內“徹底擾亂幾個經濟體的選舉進程”,而更容易獲取的AI工具“已經導致偽造信息和所謂‘合成’內容的激增,從復雜的語音克隆到假冒網(wǎng)站”。
“虛假信息”和“錯誤信息”這兩個術語都指虛假或不準確的信息,但“虛假信息”是指故意用來欺騙或誤導的信息。
加州大學伯克利分校的Hany Farid表示:“AI驅動的虛假信息問題在于其規(guī)模、速度和啟動的簡易性。”他說,“這些攻擊不再需要國家資助的行為者或資金充足的組織——一個擁有適度計算能力的個體就能創(chuàng)造出大量虛假內容?!?/span>
他指出,GenAI正在“污染整個信息生態(tài)系統(tǒng),使我們讀到、看到和聽到的一切都充滿疑慮?!彼难芯勘砻?,在許多情況下,AI生成的圖像和音頻“幾乎與現(xiàn)實難以區(qū)分”。
然而,F(xiàn)arid和其他研究人員的研究顯示,有一些策略可以幫助你減少被AI生成的社交媒體虛假信息或錯誤信息所欺騙的風險。
如何識別虛假的AI圖像
還記得看到過教皇方濟各穿著羽絨夾克的照片嗎?隨著基于擴散模型的新工具的出現(xiàn),使得任何人都可以通過簡單的文本提示生成圖像,這類虛假的AI圖像變得越來越常見。Google的Nicholas Dufour及其同事的一項研究發(fā)現(xiàn),從2023年初開始,在經過事實核查的虛假信息中,AI生成圖像的比例迅速增加。
“如今,媒體素養(yǎng)需要具備AI素養(yǎng),”伊利諾伊州西北大學的Negar Kamali表示。在2024年的一項研究中,她和她的同事們識別了AI生成圖像中五種不同類型的錯誤,并提供了如何自行識別這些錯誤的指導。好消息是,他們的研究表明,人們目前在識別假AI人像圖像時的準確率約為70%。你可以通過他們的在線圖像測試來評估自己的偵查能力。
AI生成圖像中的五種常見錯誤類型:
? 社會文化上的不合理性:場景是否表現(xiàn)出某些文化或歷史人物中罕見、不尋常或令人驚訝的行為?
? 解剖學上的不合理性:仔細觀察,身體部位如手的形狀或大小是否異常?眼睛或嘴巴是否看起來很奇怪?是否有身體部位融合在一起?
? 風格化痕跡:圖像看起來是否不自然,幾乎過于完美或過于風格化?背景是否看起來很奇怪,或者缺少什么?光照是否不正?;蜃兓欢?
? 功能上的不合理性:是否有任何物體看起來很怪異,或者可能不真實或無法正常工作?例如,按鈕或皮帶扣是否處于奇怪的位置?
? 物理學上的違背:陰影的方向是否不一致?鏡子的反射是否與圖像中的世界一致?
如何識別視頻中的深度偽造
自2014年以來,生成對抗網(wǎng)絡(GAN)這項AI技術已經使技術嫻熟的個人能夠創(chuàng)建視頻深度偽造,通過數(shù)字操控現(xiàn)有的人物視頻,替換臉部、生成新的面部表情,并插入與唇語同步的新音頻,這使得越來越多的騙子、國家支持的黑客和互聯(lián)網(wǎng)用戶能夠制作視頻深度偽造,其中包括名人如Taylor Swift以及普通人可能會在未經同意的情況下出現(xiàn)在深度偽造的色情視頻、騙局和政治虛假信息中。
識別AI假圖像的技巧同樣適用于可疑視頻。此外,麻省理工學院和伊利諾伊州西北大學的研究人員匯總了一些識別深度偽造的技巧,但他們也承認,沒有一種方法是完全可靠的。
識別AI生成視頻的六個技巧:
? 嘴巴和唇部動作:視頻和音頻是否有不完全同步的時刻?
? 解剖學上的故障:臉部或身體是否看起來奇怪,或移動不自然?
? 面部:尋找面部光滑度或額頭和臉頰皺紋的異常,以及面部痣的不一致性。
? 光照:光照是否不一致?陰影是否如預期般表現(xiàn)?特別注意一個人的眼睛、眉毛和眼鏡。
? 頭發(fā):面部毛發(fā)是否看起來很奇怪,或者移動方式不自然?
? 眨眼:過多或過少的眨眼可能是深度偽造的標志。
一種更新的深度偽造視頻類別基于擴散模型——這也是許多圖像生成器背后的AI技術——可以根據(jù)文本提示生成完全由AI生成的視頻片段。公司已經在測試并發(fā)布商業(yè)版的AI視頻生成器,這些生成器使任何人無需特殊技術知識就能輕松實現(xiàn)。目前,生成的視頻通常呈現(xiàn)出扭曲的臉部或奇怪的身體動作。
“這些AI生成的視頻可能比圖像更容易被人們察覺,因為它們包含大量的動作,AI生成的偽影和不合理之處也更容易被發(fā)現(xiàn),”Kamali說。
如何識別AI機器人
由計算機機器人控制的社交媒體賬號在許多社交媒體和消息平臺上變得越來越普遍。自2022年以來,越來越多的這些機器人利用GenAI技術,如大型語言模型。這些技術使得通過成千上萬個機器人輕松且低成本地生成語法正確且根據(jù)不同情況定制的AI撰寫內容變得可能。
“為特定受眾定制這些大型語言模型以傳遞特定信息已經變得容易得多,”印第安納州圣母大學的Paul Brenner表示。
Brenner和他的同事在研究中發(fā)現(xiàn),即使參與者被告知他們可能正在與機器人互動,他們仍然只能在大約42%的情況下區(qū)分AI驅動的機器人和人類。你可以在這里測試自己的機器人識別技能。
Brenner表示,一些策略可以幫助識別技術水平較低的AI機器人。
判斷社交媒體賬號是否為AI機器人的五種方法:
? 表情符號和標簽:過度使用這些元素可能是一個信號。
? 不常見的措辭、詞匯選擇或比喻:不尋常的措辭可能表明是AI機器人。
? 重復性和結構:機器人可能會使用重復的措辭,遵循類似或僵硬的形式,并可能過度使用某些俚語。
? 提問:提問可以揭示機器人對某個話題缺乏知識,特別是涉及本地地點和情況時。
? 假設最壞情況:如果某個社交媒體賬號不是個人聯(lián)系人,且其身份沒有被明確驗證或認證,那么很可能是AI機器人。
如何檢測語音克隆和語音深度偽造
語音克隆AI工具使得生成可以模仿幾乎任何人的新語音音頻變得容易。這導致了語音深度偽造騙局的興起,這些騙局克隆了家庭成員、公司高管和政治領導人(如美國總統(tǒng)Joe Biden)的聲音。與AI生成的視頻或圖像相比,這些語音深度偽造更難識別。
“語音克隆特別難以區(qū)分真假,因為沒有視覺組件來幫助我們的大腦做出判斷,”白帽黑客組織SocialProof Security的聯(lián)合創(chuàng)始人Rachel Tobac說道。
識別這些AI生成的音頻深度偽造尤其困難,特別是在視頻和電話通話中使用時。但你可以采取一些常識性的步驟來區(qū)分真人與AI生成的聲音。
識別音頻是否被AI克隆或偽造的四個步驟:
? 公眾人物:如果音頻片段涉及一位民選官員或名人,檢查他們所說的內容是否與已公開報道或分享的他們的觀點和行為一致。
? 尋找不一致性:將音頻片段與之前經過驗證的視頻或音頻片段進行比較,看看他們的聲音或說話方式是否有任何不一致之處。
? 尷尬的停頓:如果你在聽電話或語音信箱時,發(fā)現(xiàn)說話者在講話時有異常長的停頓,可能是在使用AI驅動的語音克隆技術。
? 奇怪且啰嗦:任何機械化的語音模式或異常冗長的說話方式都可能表明有人在使用語音克隆技術來模仿某人的聲音,并使用大型語言模型來生成精確的措辭。
技術只會越來越先進
目前,還沒有一致的規(guī)則可以始終區(qū)分AI生成的內容與真實人類內容。能夠生成文本、圖像、視頻和音頻的AI模型幾乎肯定會繼續(xù)改進,它們通??梢钥焖偕煽此普鎸嵉膬热?,而沒有明顯的偽影或錯誤。Rachel Tobac表示:“保持適度的懷疑意識,并意識到AI正在快速地操控和偽造圖片、視頻和音頻——我們說的是在30秒或更短時間內完成?!边@使得那些想要欺騙他人的惡意人士能夠快速生成AI生成的虛假信息,并在新聞爆發(fā)后幾分鐘內就發(fā)布到社交媒體上。
盡管培養(yǎng)識別AI生成虛假信息的眼光并學會對你所讀、所見、所聽的內容提出更多問題是重要的,但這最終還不足以阻止傷害,識別虛假的責任也不能完全落在個人身上。Farid和其他研究人員認為,政府監(jiān)管機構必須追究那些開發(fā)出大量充斥互聯(lián)網(wǎng)的虛假AI生成內容工具的大型科技公司和由知名硅谷投資者支持的初創(chuàng)公司的責任。Farid表示:“技術不是中立的??萍夹袠I(yè)向我們兜售的這一觀點,即他們不需要承擔像其他行業(yè)那樣的責任,我完全不接受。”