□ 胡立彪
AI(人工智能)技術是把“雙刃劍”。近日,知名醫學專家張文宏“被帶貨”事件再次印證了這句話。據媒體報道,有網友稱在網絡賣貨視頻中看到張文宏在售賣一種蛋白棒產品,仔細分辨能看出這是AI合成視頻。對此,張文宏回應,他已發現多個以他的形象帶貨的賬號,并向相關平臺投訴,但屢禁不絕。
被AI技術假冒,張文宏并非第一個“躺槍者”。今年“十一”期間,短視頻平臺出現大量“雷軍AI配音”視頻,視頻中“雷軍”言辭犀利,還常爆粗口,這讓雷軍本人很無奈;11月,演員黃曉明在某節目中坦言,看到一段用AI換臉技術生成的“黃曉明”為某品牌代言的視頻;同月,胖東來創始人于東來發現自己被人用AI技術生成聲音賣藥,他嚴厲譴責這種欺騙行為,表示將訴諸法律追究相關者法律責任。
AI技術快速發展,使得視頻換臉、仿聲等技術門檻越來越低。據了解,AI聲音合成主要應用的是AI深度學習算法,通過AI模型對采集的聲音樣本進行處理,從而實現聲音“克隆”。目前市面上有一些AI軟件,讀取一個人的聲音,經過大約30分鐘的分析和訓練之后,再輸入一段文字,就可以模仿其聲音讀出來,足可以假亂真。
AI合成圖像、視頻、聲音技術日益成熟,讓“耳聽為真、眼見為實”的經驗不再靈驗,這也帶來諸多問題。擬聲、換臉等AI合成技術逼真的一個負面指向是“亂”真。不法分子可以利用此類技術輕易偽裝成他人,并通過快速篩選目標人群,精準制定詐騙腳本。相關數據顯示,全球基于AI技術的深度偽造欺詐事件在過去幾年呈激增之勢,2023年發生合成身份欺詐事件比2021年增加了兩倍以上。相關研究機構提醒,目前,業界對AI潛在風險的研究與重視程度遠遠不夠,在積極擁抱大模型等AI技術的同時,各界對其安全風險應保持警醒。
我國民法典規定,聲音、肖像等都屬于民事主體的人格權利,受到法律保護。未經允許,民事主體的聲音、肖像等不僅不能被直接使用,也不能被加工處理,進行深度合成,放入合成物料庫或場景庫里。對民事主體的人臉信息、聲音信息等進行編輯并展示,屬于偽造信息行為,按照民法典和網絡安全法的相關規定,相關當事人應承擔包括精神損害賠償在內的民事責任,甚至承擔刑事責任。最高人民法院、最高人民檢察院、公安部聯合發布的《關于依法懲治網絡暴力違法犯罪的指導意見》明確,對利用深度合成等生成式人工智能技術發布違法信息的,依法從重處罰。
為有效防范AI技術被濫用,2022年11月,國家互聯網信息辦公室、工業和信息化部、公安部聯合發布《互聯網信息服務深度合成管理規定》,明確深度合成技術的使用規范,包括不得利用深度合成服務侵犯他人合法權益,深度合成服務提供者對深度合成的內容添加顯式或隱式水印等規定。2024年9月,國家互聯網信息辦公室發布《人工智能生成合成內容標識辦法(征求意見稿)》,并配套發布國家標準《網絡安全技術 人工智能生成合成內容標識方法》,提出AI生成合成內容須作出標識,并就標識方式和內容作出具體要求。
我國不斷完善AI技術應用相關法規標準,將其裝入規范的“籠子”里。但AI技術日新月異,應用場景快速擴展,相關法規和監管也要與時俱進,跟上節奏步伐,讓AI技術應用始終“戴著鐐銬舞蹈”。法律層面,立法機關應及時關注AI技術的發展動態,有針對性地完善相關法律法規,明確AI應用違法構成要件和法律責任,對使用AI技術虛假宣傳、欺詐消費者的行為進行詳細界定,規定相應的處罰措施,提高不法分子的違法成本;互聯網平臺層面,要承擔起監管責任,加大技術研發投入,建立一套高效、精準的審核系統,利用AI技術反制AI違法行為,快速識別虛假AI直播內容,并對相關責任人進行處罰。
【觀象臺】