發(fā)展和治理,兩手都要抓。
作者 | 張語格
編輯 | 趣解商業(yè)TMT組
看到好萊塢的標志牌著火的圖片,還以為好萊塢陷落了,結果竟然是AI偽造的。
影迷橙子(化名)之前時常和朋友吐槽,社交平臺上AI生成的圖片是一眼假,然而,在前兩天洛杉磯山火相關的新聞圖中,橙子完全沒意識到里面摻雜了大量AI假圖。
圖源:微博截圖
好萊塢標志牌著火的那張圖,各個影迷群幾乎都傳瘋了,大家還調侃這是在電影市場之外,先在物理層面‘陷落’了,結果,第二天就看見媒體辟謠說這張照片是AI偽造的。橙子表示,這張假圖本身就有情緒性,和新聞報道放在一起更顯得真假難辨。
趣解商業(yè)注意到,雖然已經辟謠,但至今仍有不少網友將這張AI圖當作真實照片。
01.你被AI騙過嗎?在好萊塢標志牌著火之前,西藏定日6.8級地震發(fā)生后,也曾有一張AI生成的小男孩被困圖片在社交媒體上瘋狂流傳。
橙子無奈表示,當時我還吐槽這種人物圖AI味道太重,手指數目不對,臉部虛化過于嚴重,只有完全不了解AI的中老年群體才會信。結果沒幾天,我就被好萊塢著火的AI圖給‘騙’過去了。
在近日的社會新聞里,好萊塢標志牌著火和地震被埋男孩欺瞞了不少人的眼睛,盡管兩張圖都已經被官方辟謠,但仍有不少用戶深信不疑,其中也包括很多年輕人。
圖源:抖音截圖
據媒體報道,經查,青海某網民為博取眼球,將小男孩被埋圖與日喀則地震相關的信息進行關聯拼湊、移花接木,混淆視聽、誤導群眾,致使謠言信息傳播擴散。目前,涉案人員已被屬地公安機關依法行政拘留。
1月10日晚間,抖音官方發(fā)布公告稱,平臺已嚴肅處置23652條涉地震不實信息并配發(fā)了辟謠內容。公告中還提到,2023年和2024年,抖音就曾發(fā)布AI內容治理相關公告,明確平臺不鼓勵利用AI生成虛擬人物進行低質創(chuàng)作,將嚴格處罰違規(guī)使用AI生成虛擬人物發(fā)布違背科學常識、弄虛作假、造謠傳謠的內容。
圖源:今日頭條截圖
此前,趣解商業(yè)曾在《2024年,多少人被AI割韭菜?》文中提到,AI生成的內容正在占領社交網絡。小貓張嘴唱歌甄嬛機關槍掃射四郎這類虛擬內容尚能分辨出是AI制作,但如今很多AI生成的的真人圖片和視頻,已經到了肉眼難辨真假的地步。
經常刷短視頻的陳沐(化名)表示,現在刷到AI創(chuàng)作的內容概率越來越高了,你看完一個換臉視頻以后,平臺就會瘋狂給你推類似的AI換臉二創(chuàng)。然而,目前社媒平臺的審核并不能完全精準識別到所有AI創(chuàng)作內容,還需要用戶發(fā)布時自覺勾選標注;而因為AI內容聲明的標識并不顯著,有些內容即使明確標識是AI創(chuàng)作,仍會被很多用戶當作真實內容。
據媒體報道,2024年6月中旬,一家MCN機構的實際控制人王某某因利用AI軟件生成虛假新聞并大肆傳播,擾亂公共秩序,被警方行政拘留。據警方通報,王某某共經營5家MCN機構,運營賬號842個,自2024年1月以來,王某某通過AI軟件生成虛假新聞,最高峰一天能生成4000至7000篇。
圖源:微博截圖
2024年下半年,有網友稱自己在小紅書上通過賬號矩陣管理軟件同時操控1327個AI美女賬號,沒有任何一個被平臺識別出來。由于AI真人賬號過多,小紅書上還出現了專門打假的博主。
圖源:小紅書截圖
有網友表示,為了避開技術bug,很多AI生成的真人圖通常會避免出現手指,很多人都是用提示詞讓手伸出畫面,放在身后,握拳,用東西遮擋雙手等;如果是真人視頻,則要注意口型,AI生成視頻一般口型和臺詞會對不上,或是不太自然。
然而,也并不是所有人都在乎照片、視頻里的形象是不是真人。有網友表示,好看、能提供情緒價值就可以了,難道那些真人博主就長得和照片一模一樣?既然都不真實,是不是AI又有什么所謂?
由于對數字人警惕性不足,通過AI換臉的詐騙案也層出不窮。
據《北京商報》報道,2024年2月有詐騙犯運用Deepfake 深度偽造技術,制作出公司高層發(fā)言視頻,誘導職員先后15次將2億港元轉至指定賬戶。
除此之外,還有用AI換臉真人制作色情影片、盜刷醫(yī)保的違法案例。杭州曾有人通過AI換臉偽造女明星涉黃視頻,甚至還組建群聊,滿足定制換臉色情影片的需求,根據時長、視頻難度收取相應的費用。杭州蕭山檢察在該群內查獲的淫穢視頻高達1200余部。
圖源:央視新聞截圖
AI模糊了真實與虛假的邊界,也給越來越多的人帶來困擾。
北京周泰律師事務所張子航律師表示,在公共事件中,故意歪曲事實,用AI或者其他技術手段制作圖片、視頻,并在社交平臺傳播造成負面影響的,首先要追究的是制作者的責任,制作者面臨的可能是行政責任,也可能是刑事責任。
此外,發(fā)布虛假信息的社交平臺,也有可能要承擔法律責任。張子航律師表示,平臺雖然不是技術和內容的提供者、制作者,但負有審核和監(jiān)管義務,社交平臺如未能盡到義務,導致虛假圖片傳播并造成嚴重的負面影響,監(jiān)管部門有權對發(fā)布平臺做出罰款、責令整改等形式的處罰。
02.AI正污染互聯網社交平臺上,不止一個網友表達過對AI入侵的擔憂。
有小紅書網友表示,現在AI大模型迭代速度很快,2023年用AI畫人類的手和腳還亂七八糟,2024年Flux模型畫手的正確率就明顯提升了很多,再過幾年,說不準AI就能正確畫出人體各部位,還有各種肢體動作了。若不加強管理,到時社交網絡上恐怕會變得烏煙瘴氣。
圖源:小紅書截圖
AI生成的內容,同樣也充斥著海外的社交網絡,有些嚴重侵害了明星、名人的權益,有些甚至在經濟層面產生了嚴重影響。
2024年1月,由AI生成的明星泰勒·斯威夫特不雅照在X(原推特)、臉書等社交媒體上流傳,瀏覽量已過千萬,引發(fā)公眾關注。
據網絡安全公司Home Security Heroes2023年發(fā)布的數據,2023年網絡上可監(jiān)測到的Deepfake視頻有95280個,其中98%都是色情內容,而這類內容的主角99%都是女性。
2023年5月,一張五角大樓發(fā)生爆炸的照片曾在Twitter上被大范圍轉發(fā),其中包括很多投資相關的網站和社媒賬戶;據媒體報道,照片發(fā)布正趕上美國股市當天的開盤時間,一度引發(fā)美股恐慌性短暫下跌。
圖源:微博截圖
當AI生成的內容頻繁地與真實新聞?chuàng)诫s在一起,不僅普通民眾很難辨別真?zhèn)危恍I(yè)機構甚至也難以招架。
互聯網觀察基金會IWF的分析師曾表示,AI生成的非法內容(包括兒童受虐圖片、AI名人換臉視頻等)正在急劇增加,像我們這樣的組織或者警察,可能會被成百上千張新圖片的鑒別工作壓垮,我們并不總能知道,在這其中是否真的有一個孩子需要幫助。
圖源:twitter截圖
張子航律師認為,AI逐漸讓人意識到,眼見并不為實。AI技術的推廣,有可能使得網民對網絡信息從一個極端到另一個極端,也就是從全信到全不信。
除了入侵互聯網內容生態(tài),AI生成的內容也給大模型訓練帶來了風險。中國信通院發(fā)布的《人工智能治理藍皮書(2024年)》提到,近年來,人工智能內生風險加大,模型缺陷、幻覺等問題凸顯;人工智能應用風險不斷蔓延,人機倫理、勞動替代、能源短缺等問題突出。
圖源:《人工智能治理藍皮書(2024年)》
OpenAl前首席技術官Mira Murati曾指出,底層大型語言模型的最大挑戰(zhàn)是會編造錯誤或不存在的事實。
牛津大學的伊利亞?舒梅洛夫博士及其團隊在《Nature》上發(fā)表的論文提到,當生成模型開始接受AI內容訓練時,最終生成內容的質量會明顯下降,反饋循環(huán)可能導致模型輸出偏離現實、甚至有明顯偏見的內容,研究人員將這種現象稱為模型崩潰。
此前,國內領先的AI實驗室DeepSeek發(fā)布新的AI模型DeepSeek V3模型就出現在測試中竟然聲稱自己是OpenAI的ChatGPT的情況,并且能夠詳細闡述OpenAI API的使用方法。
圖源:微博截圖
參與過文本生成模型研究的子璐(化名)表示,大模型訓練的數據在投喂前都會進行篩選和清洗,圖片、視頻的生成在技術上更復雜,訓練數據的樣本也更容易去做清洗,比如固定去找一些攝影師的作品。相比之下,文本生成的訓練數據會更雜一些,也更容易被污染,如果沒有人工仔細篩選,很可能會收錄進一些虛假的新聞。
如果AIGC的增加是必然趨勢,那普通用戶該如何對這類內容有效甄別?某互聯網大廠AI安全研究員Lisa(化名)對此表示,普通用戶可以從圖像的視覺紋理特征來區(qū)分AI創(chuàng)作。一般生成的圖片顏色更加鮮艷、紋理更加平滑,而生成的視頻運鏡緩慢,畫質模糊,經常出現類似文字的亂碼內容。
圖源:小紅書截圖
除此之外,文本和圖像還可以借助第三方工具來辨別。《人工智能治理藍皮書(2024年)》提到,以技治技正在成為平衡人工智能安全與創(chuàng)新的必要工具。
據趣解商業(yè)了解,現在已經有AIGC檢測工具根據相似檢索、內容檢測和水印追溯等方法,支持文本、圖片等AI生成內容的檢測。Lisa表示,如今生成內容越來越逼真,真實圖片與生成圖片的特征差異越來越小,檢測工具的模型學習難度其實也在增加。
不過,大部分用戶都是不熟悉AI技術的普通人,不具備鑒別意識和能力,識別AIGC、鑒別真假不應成為用戶的負擔和責任。創(chuàng)作者應自覺聲明內容屬性,平臺擁有更完善的技術資源和團隊,更應承擔起識別和審查AI內容的主要責任。
03.發(fā)展和治理兩手抓張子航律師認為,想要防范AI創(chuàng)作內容帶來的風險,除了用戶增強核實意識與能力,平臺也應當加強規(guī)范。尤其要關注短時間內被頻繁關注、轉發(fā)的內容,如果發(fā)現是AI創(chuàng)作,確認為虛假信息后應當予以刪除,如果不能確認真假,也應當提示和標注該內容為AI創(chuàng)作。
據趣解商業(yè)了解,目前已有多家社媒平臺針對AIGC內容做出了相應的監(jiān)管規(guī)范。
小紅書在2023年啟動了AIGC治理體系建設,對識別為疑似 AI 生成的內容進行顯著標識;抖音也在2023年、2024年陸續(xù)發(fā)布了《關于人工智能生成內容的平臺規(guī)范暨行業(yè)倡議》《 AI生成虛擬人物治理公告》等一系列公告,并持續(xù)對多種AIGC造假內容進行嚴厲打擊;今年1月,快手還在站內開設了辟謠榜位,通過官方賬號轉發(fā)辟謠作品,利用算法優(yōu)化,增加辟謠內容曝光量,同時將辟謠信息精準推送給曾瀏覽過相關謠言的用戶。
圖源:微博截圖
中國企業(yè)資本聯盟中國區(qū)首席經濟學家柏文喜認為,除了加強監(jiān)管和治理,平臺還可以完善用戶舉報機制,以及建立版權保護機制,要求用戶在使用AI生成內容時必須遵守相關的版權法規(guī),明確標注內容的來源和版權歸屬,防止侵權行為的發(fā)生;同時也要注重用戶教育,通過平臺的官方渠道,如發(fā)布指南、教程、案例分析等形式,提高用戶對AI內容的識別能力和辨別真?zhèn)蔚囊庾R和能力。
張子航律師還表示,AI生成工具要有提供顯著標識的功能,像人臉替換、人聲合成等顯著改變個人身份特征的編輯服務,應當強制標識為AI創(chuàng)作。如果這類服務未強制標識,創(chuàng)作者也不聲明為AI創(chuàng)作,我個人認為是構成共同侵權的,需要承擔一部分的侵權責任。
圖源:微博截圖
以從業(yè)者的角度來看,子璐認為,防止AI虛假內容的泛濫,還需要對使用者進行限制。‘harmless’(無害性)和‘helpful’(有用性)是我們之前做文本生成主要權衡的兩個標準,特別安全的內容可能不夠有用,特別有趣、有用的內容可能會有風險,所以企業(yè)也很重視生成內容的安全性。
AI工具企業(yè)會避免生成含有色情、暴力等價值觀扭曲的內容,但卻管不了內容的用途。如果有人要求AI生成一張性感女孩的換臉照片,照片本身并沒有危害,但用戶拿這張照片造謠中傷女孩,這其實是使用者的問題,也是AI企業(yè)很難管轄的領域。
如今,國內外都愈加重視對AIGC的監(jiān)管與合規(guī)性問題,目前至少有60多個國家制定和實施了人工智能治理政策。
2023年1月10日,國家互聯網信息辦公室、工業(yè)和信息化部和公安部聯合發(fā)布的《互聯網信息服務深度合成管理規(guī)定》正式施行,旨在加強互聯網信息服務深度合成管理,維護國家安全和社會公共利益,保護公民、法人和其他組織的合法權益;此后,國家網信辦聯合國家發(fā)展改革委等多部門公布了《生成式人工智能服務管理暫行辦法》,并自2023年8月15日起施行。
圖源:微博截圖
2024年9月14日,國家互聯網信息辦公室發(fā)布了《人工智能生成合成內容標識辦法(征求意見稿)》公開征求意見的通知,以規(guī)范人工智能生成合成內容標識,維護國家安全和社會公共利益,保護公民、法人和其他組織的合法權益。多項規(guī)定和監(jiān)管政策的相繼落地,讓剛性治理有了更多具體的抓手。
新的技術進步呼吁新的監(jiān)管體系,而這一點并不能完全指望科技商業(yè)公司的自我約束,需要監(jiān)管方、平臺方的共同努力。盡管AI的應用范圍廣泛且難以界定,但法律和道德的邊界始終清晰;未來,政策監(jiān)管和平臺審核的力度必然會更加深入,社交平臺上的內容生態(tài)還會因此發(fā)生哪些改變,值得進一步關注。
看完覺得寫得好的,不防打賞一元,以支持藍海情報網揭秘更多好的項目。