近日,一條李玟被ai「復活」的視頻引起廣泛討論。在她去世八個月後,有網絡博主利用數字技術,還原出她生前一顰一笑,聲音和影像均由ai生成。
△ai生成視頻截圖
除了李玟,被ai「復活」的還有高以翔、喬任梁等已故明星。他們衣着各異,面向鏡頭卻幾近統一地都是先問好,再訴說對粉絲的思念等暖心話語。
發佈者自稱,這是一種情感撫慰方式,利用高科技,給活着的人提供情緒價值;但是在視頻評論區,很多網友卻質疑:這種行為打着溫情的名義,實則是在消費已經離去的人。
那麼,用ai「復活」逝者,是否涉及侵權?在人工智能大力發展之下,相關的法律法規如何更完善?中國政法大學數據法治研究院張凌寒教授進行了解讀↓↓
用ai「復活」已故明星,是否涉及侵權?
張凌寒表示,對於死者人格權益的保護,包括肖像權、隱私權和名譽權,民法典已有相關規定。只是現在對於ai如何侵犯死者權益,包括死者在ai技術之下「復活」的情況,提出了一些新的挑戰。如果按照傳統的民法典規定,沒有取得死者近親屬的同意,就是侵權行為,可以通過事後侵權責任追究的方式來對其進行法律責任的規制。
此外,在《互聯網信息服務深度合成管理規定》(以下簡稱「規定」)當中,要求「深度合成服務提供者和技術支持者提供人臉、人聲等生物識別信息編輯功能的,應當提示深度合成服務使用者依法告知被編輯的個人,並取得其單獨同意」。
張凌寒:顯然,粉絲如果想去「復活」明星,很難真正取得死者家屬的知情同意,毫無疑問這就是一個侵權行為。
關於我國人工智能領域的治理,張凌寒表示,我國已有的人工智能法規是強制性的,也有符合我國本土特色的制度。但即便如此,現在對人工智能的治理還存在法律上的不足。
比如大部分是以部門規章為主,這樣效力位階比較低。另外,很多監管部門基於本身監管職能出台部門規章,缺乏統籌協調的機制和視角。「後續要做的工作就是讓這些部門的職能更好地協調,讓相關治理更好地落地。」
如何讓規範和監管跟上,甚至走在前面?
對此,張凌寒表示,人工智能技術發展非常快,讓監管和技術發展儘可能同步,聽起來似乎是一個不太可能完成的任務。
去年,chatgpt快速發展,用戶數量增長很快,現在又出現了很多人工智能大模型。目前,人工智能治理面臨最大的困難,就是技術發展的快速性,以及風險的不確定性。
如何讓監管走到前面,比較穩妥可行的方法是始終劃定技術發展的紅線和底線,始終要求技術的發展不能突破國家安全、社會公共利益和公民個人權益保護的底線。
面對ai技術,哪些法律需要跟上?
眼下,人工智能技術迅速發展,也正在為社會創造更多價值。然而,人工智能在改變我們生活的同時,在應用中也出現傳播虛假信息、侵害個人信息權益、數據安全等問題。比如,「ai換臉」已經從娛樂蔓延到詐騙,「ai歌手」已經從娛樂涉及侵權。新技術發展的同時,法律體系如何及時跟進?
2023年6月,國務院辦公廳公布的國務院2023年度立法工作計劃中,首次將人工智能法草案納入預備提請全國人大常委會審議的範圍;
2023年9月,十四屆全國人大常委會立法規劃發佈,儘管在立法規劃中並未明確列明人工智能立法,但在公布的第一類立法項目工作部署中,也提到要推進科技創新和人工智能健康發展。
由於人工智能發展迅速,針對其中出現的新問題,目前也有相關部門出台規章制度,不斷對應用中的亂象進行調整規範。
ai「復活」技術,對服務提供者提出怎樣的約束和提醒?
張凌寒稱,我國對製作方有很多規範要求,其中《規定》稱,若能夠提供生成音頻視頻等深度合成,首先要對數據安全進行嚴格管理,同時要盡到對用戶的提示義務,即當用戶上傳敏感個人信息,用人臉人聲進行編輯時,進行提示需取得相關個人同意。
與此同時,這對平台或者服務提供者而言比較難,因為有海量用戶生成不同內容,若要求其挨個審核,在體量上較為困難。
即使有難度,互聯網信息服務深度合成的提供者,還是要承擔起監管義務。首先在用戶協議方面,做好相關提示工作;其次在用戶上傳名人敏感個人信息時,若沒有取得授權同意,就需要做相關屏蔽和處理。
來源:央視新聞公眾號