咨詢服務熱線:400-099-8848
AI年代,目睹還為實嗎 |
| 發(fā)布時間:2026-03-20 文章來源:本站 瀏覽次數(shù):142 |
在AI時代,“眼見為實”這句流傳千年的古訓,正在遭受前所未有的挑戰(zhàn)。視頻電話那頭,出差在外的“伴侶”焦急地索要轉(zhuǎn)賬;班級群里,“班主任”用了解的聲響發(fā)布緊迫繳費通知……現(xiàn)在,在人工智能(AI)的加持下,普通人也能在幾分鐘內(nèi)生成足以以假亂真的內(nèi)容。AI學會了模仿人的筆跡、復刻人的聲響、合成人的面容,這類技能一旦被歹意使用,會令人“眼睜睜”地被騙。這不禁讓人懷疑,AI年代,目睹還為實嗎? AI造假侵入公共回憶 近期,一段“以色列士兵躲在墻后痛哭”的視頻在交際媒體渠道X上廣泛傳達。發(fā)布者稱以軍在伊朗火箭彈和無人機突擊下遭受重創(chuàng),該視頻播放量敏捷打破160萬。德國電視二臺調(diào)查發(fā)現(xiàn),該視頻系典型的AI生成產(chǎn)品。視頻中士兵佩帶的徽章時隱時現(xiàn),上面的文字更是一串毫無意義的亂碼。多名網(wǎng)友也指出,視頻中制服樣式、哭聲響效和槍械細節(jié)都與真實場景存在明顯偏差。 生成式東西進入新聞報導流程后,專業(yè)新聞組織的把關(guān)機制同樣面臨考驗。2月,德國電視二臺緊迫召回并解職了該組織一名駐紐約記者,因為其發(fā)回的一則關(guān)于美國移民與海關(guān)執(zhí)法局執(zhí)法舉動的報導中,混入了一段由視頻生成模型Sora生成的虛偽視頻,畫面旮旯清晰可見Sora水印。事情發(fā)生后,德國電視二臺宣布為員工開設強制性訓練課程,規(guī)范AI東西在新聞報導中的使用!盁o視新聞原則造成的危害是巨大的。這關(guān)乎報導的公信力!钡聡娨暥_總編輯貝蒂娜·紹斯滕說。 AI造假甚至侵入前史回憶。今年年初,達豪、布痕瓦爾德等約30家德國集中營紀念組織和博物館聯(lián)合簽署一封公開信,敦促交際媒體渠道嚴厲打擊使用AI生成大屠殺相關(guān)內(nèi)容的行為。德國前史學家伊麗絲·格羅舍克說,使用AI生成的圖畫和視頻看起來像極了前史相片——是非底色,瘦骨嶙峋的人,鐵絲網(wǎng)后呼號的孩子……但仔細看就會發(fā)現(xiàn)反常,這類圖畫和視頻中的人長相相似,身高相仿,并且都十分漂亮。 “AI讓納粹受害者變得更年輕漂亮,這種美化扭曲了前史,卻使用大眾同情心取得廣泛傳達。”格羅舍克說,這類假造的帖子會削弱紀念館、檔案館、博物館和研究組織作業(yè)的權(quán)威性,危害它們的公信力。 操作制造“社會一致” 比假造內(nèi)容更危險的,是AI能夠假造“大都人的意見”。一個世界團隊近期在美國《科學》雜志“方針論壇”欄目發(fā)表文章說,數(shù)字控制正進入新階段。分布虛偽信息的不再僅僅單個賬號,而是偽裝成真實用戶的AI集群。這類集群能夠互相互動、回應真人、習慣情緒改變,并在不斷相互附和和強化中制造出一種并不存在的“社會一致”。 德國康斯坦茨大學研究人員達維德·加西亞解說說,這類AI集群由一組可被個人或組織控制的AI智能體構(gòu)成。它們擁有相對穩(wěn)定的身份和回憶,能夠模擬人類行為,既能夠圍繞特定目標協(xié)同舉動,也能夠依據(jù)實時事情和用戶反應調(diào)整表達方式。這類AI集群與前期的僵尸網(wǎng)絡有著顯著差異,后者一般行為機械,較簡單辨認;而前者能夠跨渠道運行,并通過互相呼應不斷擴大影響。 加西亞以為,真正的危險將不再局限于單個虛偽信息,而是“操作者”或許憑借大模型虛擬出“另一種社會”。他說:“AI集群能夠通過緩慢而繼續(xù)的進程,制造某種態(tài)度已獲廣泛支撐的假象,進而影響人們的觀念甚至改變社會規(guī)范。當許多看似互相獨立的聲響不斷表達相同態(tài)度時,大都派的錯覺就會形成,即便這種大都原本并不存在。” 從被動駁斥謠言到自動辨認 面臨這種能夠假造“社會一致”的新威脅,研究人員和組織現(xiàn)已開始舉動,使用技能手段予以辨認,并通過健全監(jiān)督機制,及時辨別和揭穿虛偽信息和內(nèi)容。 加西亞以為,應使用模式辨認等技能手段,檢測內(nèi)容傳達中是否存在反常同步、相互呼應和跨渠道聯(lián)動,以更快發(fā)現(xiàn)由AI驅(qū)動的群體性操作。 除了技能辨認,研究人員還主張建立獨立監(jiān)督機制,繼續(xù)觀察AI智能體如安在不同渠道上影響公共討論,及時揭穿虛偽內(nèi)容。加西亞說,這類網(wǎng)絡越早被揭穿出來,就越難腐蝕大眾信賴,也越難把原本多樣的社會意見偽裝成單一一致。 德國人工智能研究中心(DFKI)和萊茵蘭-普法爾茨州政治教育中心等組織日前推出尚處于測驗階段的深度防偽檢測東西,以進步大眾對可疑內(nèi)容的辨認才能。與僅依靠像素反常辨認假造痕跡的傳統(tǒng)辦法不同,該東西不只會對圖畫和音頻進行取證剖析,還會結(jié)合上下文打開穿插核驗。后臺的AI智能領會并行檢索網(wǎng)絡信息,并調(diào)用通過核實的現(xiàn)實資源庫輔助判別,包含德新社現(xiàn)實核對團隊提供的數(shù)據(jù)。 DFKI在新聞公報中說,用戶只需點擊兩下,就能將交際媒體上的可疑圖片轉(zhuǎn)發(fā)給檢測體系,體系隨后會剖析相關(guān)資料是否由AI生成或通過篡改,并向用戶反應其為虛偽內(nèi)容的或許性以及相應線索。 萊茵蘭-普法爾茨州政治教育中心主任伯恩哈德·庫卡茨基說,虛偽信息已成為當前信息傳達中的杰出問題,公民每天都或許接觸到被操作的內(nèi)容,因而辨別和核驗信息的才能尤為重要。真正的“實”,不再僅僅是我們看到了什么,而是我們?nèi)绾瓮ㄟ^多維度的驗證,去無限接近那個無法被輕易偽造的真相。 |
|