“太可怕了,聲音、口型完全看不出來真假法律。”演員王勁松近日在微博上的控訴,再次將“AI換臉”濫用亂象推向公眾視野。起因是他發現自己的影視原始片段被惡意擷取後,藉助AI深度偽造技術合成了肖像、聲音與口型,使其成為虛假理財廣告的“代言人”。這起事件並非孤例,此前李連杰、姚明等名人也曾被捲入類似的虛假營銷之中。在AI換臉假人“製作易”“監管難”的背景下,頻發的侵權乃至犯罪事件折射出技術迭代與監管治理之間的緊迫張力。
回看AI換臉的技術演進脈絡,早在其快速發展之際,就已埋下了濫用的隱患法律。2014年,生成對抗網路(GAN)的提出奠定了影像生成與篡改的技術基礎;2017年,Deepfake因炮製名人不雅影片而進入公眾視野,儘管當時效果粗糙、“一眼假”,卻開啟了該技術普及之門。2018年後,FakeApp等開源工具進一步降低使用門檻,而英偉達等企業對生成技術的最佳化則極大提升了偽造內容的逼真度。進入2022年,大模型技術與開源生態的爆發使換臉技術實現質的飛躍:僅需一張照片和幾秒語音,即可生成肉眼難以辨識的“聲形合一”的虛假影片。雖然技術的開發往往出於“中立”,但AI與生俱來的工具屬性和開源帶來的私人性,從一開始就很難避免其被濫用的風險。也正是由此,AI換臉在影視製作、虛擬主播等正面用途中得到廣泛應用的同時,也在快速淪為詐騙、仿冒營銷的工具,其技術雙面性愈發突出。
當前,AI生成與檢測技術的對抗正陷入“螺旋升級”法律。一方面,AI“魔改”影片的製作門檻持續降低,電商平臺上“1分鐘無痕對口型”的服務報價僅數百元,已形成成熟的灰色產業鏈。另一方面,檢測技術雖在迭代,仍存在顯著短板。研究顯示,在複雜場景下,現有AI檢測器的準確率可能從90%驟降至60%,不法分子還可透過本地執行開源模型、修改原始素材等方式規避平臺審查。噹噹事人的家人都無法分辨造假影片真偽時,技術濫用對社會信任的侵蝕已觸目驚心。
平臺治理亦陷入“防不勝防”的困境,暴露出行業協同機制的缺失法律。儘管部分頭部平臺已建立名人肖像保護庫,累計處置數萬條侵權內容,但治理難度依然巨大。其核心癥結在於技術濫用的隱蔽性與跨平臺傳播能力——侵權影片可在多個平臺間交叉擴散,但AI生成內容缺乏統一的識別標準,同時小型造假工具與開源模型則遊離於監管體系之外。在此背景下,單個平臺的“單打獨鬥”難以奏效。只有打通行業壁壘,推動檢測技術與侵權特徵庫的共建共享,建立跨平臺的協同治理機制,將先進經驗轉化為行業通用標準,方能在技術攻防中佔據主動,從生態層面壓縮濫用空間。
另一邊,強化追責應成為遏制亂象的關鍵突破口法律。此次事件中,涉事CRC、RWA等專案早已被多地監管部門警示涉嫌非法集資,卻仍藉助AI換臉技術持續招搖撞騙。事實上,偽造代言廣告等侵權行為本身往往只是冰山一角,這類“見不得光”的糾紛背後可能隱藏著非法集資、詐騙等更為嚴重的違法犯罪活動。類似事件不僅是有關部門進行“侵權追責”的線索,更是深挖源頭犯罪的良機。應建立跨部門間協同機制,將AI仿冒營銷視為深挖犯罪鏈條的重要線索,順藤摸瓜,從虛假廣告追溯到專案方資質,從侵權行為倒查資金流向,對造假者、推廣平臺及背後涉嫌非法集資等犯罪的專案方實施全鏈條打擊。透過將民事侵權追責與刑事犯罪偵查相結合,不僅可以對類似行為形成有效震懾,或許還能有大案要案的“意外收穫”。
所謂“技術無善惡”,不代表其發展就能逾越制度的邊界,就可以踐踏他人的權益法律。王勁松“被AI”事件再次提醒我們,技術創新必須與風險防控同頻共振。既要加速AI檢測技術的研發應用,推動行業協同治理形成合力,更要健全法律追責體系。唯有技術防禦和法治懲戒雙輪驅動,匯聚社會多主體共治合力,才能讓AI技術迴歸服務社會的本質,既釋放創新活力,又守護人格權益與社會信任的底線。(作者單位:北京語言大學國際政治與傳播學院)