“張文宏”深夜帶貨,女孩照片被熟人“換臉”
本報(bào)記者 朱高祥
張文宏開始直播帶貨了?
近日,不少網(wǎng)友發(fā)文稱,短視頻平臺(tái)上,疑似知名醫(yī)生張文宏正在售賣一種蛋白棒,家中老人信以為真而大量下單。但仔細(xì)辨認(rèn)可以發(fā)現(xiàn),帶貨視頻為AI合成。張文宏本人回應(yīng)稱,這些假的AI合成信息就像蝗災(zāi)一樣,一次又一次發(fā)生,像漫天飛過來的蝗蟲一樣害人。
不僅是張文宏,網(wǎng)絡(luò)上的“AI名人”已成泛濫趨勢:“假靳東”迷倒一眾大媽、“假雷軍”辣評(píng)世間百態(tài)、“假拜登”宣布第三次世界大戰(zhàn)開始、“假馬克龍”直播回答“政府聘用滅霸”……
而更早之前的韓國Deepfake(深度偽造)性犯罪事件,不僅讓韓國全體女性陷入“換臉恐慌”,更是引發(fā)全球關(guān)注,大眾擔(dān)心一種更廣泛的、充滿敵意的網(wǎng)絡(luò)環(huán)境開始滲入真實(shí)世界。
人工智能方興未艾,公眾該如何面對(duì)新一代的“施虐者”?
女孩照片被盜成色情視頻
群組內(nèi)容不堪入目
河北保定女孩欣欣(化名)從未想過Deepfake會(huì)發(fā)生在自己身上。
今年7月9日,正在刷抖音的欣欣突然收到了一條私信,被網(wǎng)友告知有自稱其男友的人在外網(wǎng)盜用她的照片后進(jìn)行AI換臉并傳播。
“我聽到這個(gè)消息之后有些震驚且不敢相信,但真的看到這些照片后,我感到無比憤怒!毙佬栏嬖V記者,對(duì)方不僅制作大量AI換臉的不良照片與視頻,還隨意泄露了自己的個(gè)人信息,包括網(wǎng)名、真名、年紀(jì)、學(xué)校、專業(yè)等等。
欣欣隨后通過多個(gè)途徑進(jìn)行了查證,這些照片和視頻均是對(duì)方從自己的小紅書搬運(yùn),經(jīng)加工處理,制作出不堪入目的色情影像。欣欣第一時(shí)間選擇報(bào)警并咨詢律師,開始固定更多證據(jù)。
“當(dāng)天晚上8點(diǎn)多,我報(bào)警備案,當(dāng)時(shí)我沒有排除熟人或者陌生人的各種可能性。后續(xù)我經(jīng)過各種賬號(hào)套話,得知對(duì)方了解我的家屬關(guān)系等更隱私的信息,我就逐步縮小了嫌疑人范圍,心中也有了懷疑的對(duì)象。”欣欣隨后發(fā)布了一條僅對(duì)方可見的朋友圈,且把內(nèi)容做了特殊標(biāo)記,很快這條內(nèi)容出現(xiàn)在外網(wǎng)。
欣欣把這條直接證據(jù)交給了警方,不久后警方給出處理結(jié)果:對(duì)方因傳播淫穢物品,被處以行政拘留十日。
“沒想到Deepfake離自己如此之近,更沒想到施害者就是身邊的熟人!毙佬勒f,在處理這件事情的過程中,她了解到身邊有很多女孩子在遭受類似的事件,甚至更嚴(yán)重。她們被泄露個(gè)人隱私、被造謠、被AI換臉、被性騷擾等等。
欣欣告訴記者,因?yàn)檫@段經(jīng)歷,短暫接觸過幾個(gè)軟件,上面有成百上千的群組,群組里多的有上萬人,里面內(nèi)容不堪入目,充斥著各種女生的AI換臉照片與視頻,以及污蔑、詆毀、造謠的話,惡心程度超出想象。
“由于造謠成本低,他們甚至不需要完整圖片,只需要一張臉部圖片就能完成所有,而且很難被抓到,這使得他們更加肆意妄為!毙佬勒f。
普通人難識(shí)別深度偽造內(nèi)容
專家:請(qǐng)勇敢舉報(bào)
正如欣欣所言,發(fā)生在身邊的Deepfake犯罪事件并非個(gè)案。
由英文“deep machine learning”(深度機(jī)器學(xué)習(xí))和“fake photo”(假照片)組合而成的Deepfake(深度偽造),能基于人類行為特征如面部、聲音等合成圖像、視頻、音頻。當(dāng)前這一技術(shù),正被濫用成為針對(duì)婦女暴力、詐騙犯罪的新前沿。
據(jù)新華社報(bào)道,韓國教育部9月9日說,韓國今年已發(fā)生400多起涉及中小學(xué)生的相關(guān)案件,受害者累計(jì)超過600人。
與此同時(shí),韓國用戶使用的社交媒體Telegram上,被發(fā)現(xiàn)存在多個(gè)傳播和分享該類型色情內(nèi)容的群聊,其中已知最大的一個(gè)聊天室成員超過22萬人。這類性犯罪事件的受害者人數(shù)尚難以統(tǒng)計(jì)。已知的被波及群體,包括女學(xué)生、女教師等,其中包含大量未成年人。
近段時(shí)間,在一些國內(nèi)的短視頻平臺(tái)上,除了“AI名人”,“AI接吻視頻”也十分流行。有博主宣稱只需要下載一個(gè)軟件,花費(fèi)9.9元就可以完成?粗鴥蓚(gè)毫無關(guān)系的照片人物“活生生”親吻擁抱在一起,不少網(wǎng)友直呼可怕。
融力天聞律師事務(wù)所高級(jí)合伙人劉赤軍律師告訴記者,Deepfake之于視頻,就像Photoshop之于圖片,兩者都直觀沖擊了真實(shí)和虛擬之間的界限。但Deepfake能夠?qū)崿F(xiàn)以極低的成本,制作出完全虛構(gòu)又極其逼真的視頻。
奇安信行業(yè)安全研究中心主任裴智勇表示,深度偽造,一般是指利用人工智能技術(shù),生成高度逼真的視頻、音頻、圖片、文案等內(nèi)容。這些內(nèi)容多被用于網(wǎng)絡(luò)欺詐、制造謠言、擾亂公共秩序和生成各類色情內(nèi)容。這些偽造內(nèi)容大多使用了人工智能技術(shù)中的深度計(jì)算技術(shù),識(shí)別難度很大。
“讓普通人用肉眼或耳朵來識(shí)別深度偽造的視頻、音頻內(nèi)容是不現(xiàn)實(shí)的,因?yàn)樯疃葌卧毂旧砭鸵馕吨y以識(shí)別,沒有經(jīng)過專業(yè)訓(xùn)練的普通人很難從技術(shù)角度識(shí)破深度偽造內(nèi)容。”裴智勇說。
在他看來,雖然想要阻止人們使用AI生成偽造視頻或圖片不現(xiàn)實(shí),但這并不意味著對(duì)惡意造假者無計(jì)可施:“國內(nèi)對(duì)于網(wǎng)絡(luò)色情視頻和圖片都有非常成熟的治理方法,即便不能用技術(shù)鑒別真?zhèn),也可以從平臺(tái)一側(cè)阻止色情內(nèi)容的傳播,定位色情內(nèi)容的傳播源頭并實(shí)施打擊。”
裴智勇提醒,在自拍、短視頻盛行的時(shí)代,當(dāng)公眾遇到有人使用偽造視頻、音頻等內(nèi)容對(duì)財(cái)產(chǎn)侵害、名譽(yù)損害時(shí),最好的辦法還是及時(shí)報(bào)警或向平臺(tái)進(jìn)行舉報(bào),減少深度偽造內(nèi)容帶來的影響。
責(zé)任編輯:王雨蜻