午夜精品欧美,欧美日韩国产三级,久久人人插,a级免费观看视频,亚洲v精品,欧美日本二区,亚洲精品第六页

關注我們
荊楚網 > 最新播報

剎住AI“盜聲”的歪風

發(fā)布時間:2025年08月23日12:21 來源: 新華每日電訊

據央視新聞報道,某社交平臺上,有博主利用AI仿冒奧運冠軍全紅嬋的聲音賣土雞蛋;孫穎莎、王楚欽的聲音也被“克隆”,用來給“嬋寶家土雞蛋”高調帶貨……評論區(qū)顯示,不少網友誤以為這就是奧運冠軍本人,紛紛下單購買。此外,還有博主“克隆”演員靳東等的聲音,進行24小時語音直播。

隨著AI技術的普及,“盜聲”正成為越來越嚴重的問題。與普通網民相比,名人或者配音演員的音源豐富,比較容易獲取,是聲音侵權的重災區(qū)。對普通人來說,AI克隆聲音如果被詐騙分子利用,危害將非常嚴重。聲音侵權行為的泛濫,不僅會對個人生活造成影響,還可能侵蝕社會信任的基礎。因此,必須采取切實措施打擊此類行為,維護安全、清朗的網絡空間。

民法典第1023條明確了對自然人聲音的保護。任何自然人的聲音未經許可使用或授權他人使用權利人的聲音均屬侵權。但是,由于取證困難且過程繁瑣,一些受害者往往會出于無奈放棄維權。侵權者也正是鉆了這個空子,更加肆無忌憚地使用AI“盜聲”。

剎住“盜聲”的歪風,不能簡單地對侵權行為一禁了之。《生成式人工智能服務管理暫行辦法》明確規(guī)定,提供和使用生成式人工智能服務,不得侵害他人肖像權、名譽權、榮譽權、隱私權和個人信息權益。從技術層面,“聲音克隆”軟件在開源過程中,需要對聲音的使用時長、應用場景等做具體限制,從源頭堵住侵權行為。平臺層面,要切實履行監(jiān)管責任,建立健全審核和侵權舉報機制,及時發(fā)現并攔截相關內容。

即將于9月1日施行的《人工智能生成合成內容標識辦法》,明確要求AI服務提供者在生成內容中添加標識,防范利用人工智能技術制作傳播虛假信息等風險行為,推動人工智能健康有序發(fā)展。公眾自身也要增強保護意識,一旦發(fā)現自己的聲音被盜用,要勇于拿起法律武器維護權益。

只有明確使用AI技術的底線與紅線,才能真正讓科技向上、向善,為人類造福。(黃佳瑜)

【責任編輯:李琛】