陕西日报新媒体
通版阅读请点击:
展开通版
收缩通版
当前版:08版:评论
发布日期:2025年09月19日
当心!你看到的“名人”可能是“提线木偶”

张丹

知名的国学大师正滔滔不绝讲述人生哲理,突然话锋一转,开始推荐股票基金;熟悉的中医名家解读黄帝内经,到最后竟是为推销某款保健品……生活中我们经常会刷到诸如此类的视频,岂不知这些看似“权威”的视频,竟然是用AI技术伪造的。某些不法经营者通过AI技术克隆名人声音,生成逼真形象,把国学大师、中医名家变成为他们卖课、卖货的“提线木偶”。

这一现象从表面看,是技术滥用导致的虚假内容传播——AI语音克隆和图像生成让造假门槛变得更低,几个按键就能让名人为其代言;更深层次折射出数字时代的文化失范与信任危机,已经突破人文伦理和法律约束的底线。当技术撕碎了真实与虚构的界限,当国学大师开始推销理财产品,当中医名家为保健品站台,这些不仅是对被使用者肖像、声音的恶意侵权,还是对信息传播和流量聚集的粗暴挟持,更动摇了整个社会知识体系和价值基础。

要遏制这股歪风,需从筑牢法律防线、压实平台责任、提升公众辨别能力三方面入手,维护数字产业生态良性发展。

首先,法律必须“亮剑”,并随着数字技术的发展而不断完善。当前,我国已出台《生成式人工智能服务管理暂行办法》,但针对AI克隆特定人声音、形象的行为,约束仍显模糊。需要进一步完善立法,明确未经授权使用名人声音、形象的法律责任,相关法规和措施要随着技术发展和实践经验的积累而不断完善。同时,要加大对侵权行为的处罚力度,提高违法成本。

其次,内容平台必须“管事”,建立AI生成内容强制标注制度。内容平台应强制要求创作者明确标识视频是否使用AI技术;投入技术力量开发检测工具,通过算法识别深度伪造内容,建立违规内容快速响应下架机制。

最后,受众要“擦亮眼”,提高对AI生成内容的辨识能力。我们在刷视频时要时刻保持批判性思维,对看似“权威”的内容多一份质疑,少一份盲从;看到虚假视频及时举报,让其无处遁形。

技术本身并无善恶,但技术的应用必须有边界。面对AI技术带来的挑战,我们既不能因噎废食,也不能放任自流。唯有在创新与规范之间找到平衡点,才能确保技术发展真正造福社会。

分享到:

联系我们

  • 陕西省西安市长安区郭杜街道西长安街2888号
  • 新闻热线:029-82267123

  • 广告热线:029-82267715

  • 互联网新闻信息许可证:61120170001     陕ICP备18008419号-7    增值电信业务许可证:陕B2-20180005

    广播电视节目制作经营许可证:(陕)字第626号         手机举报APP下载

    陕西互联网违法和不良信息举报电话 029-63907152 陕公网安备 61010302000086号

    Copyright ©2012-2026 群众新闻网版权所有 未经书面授权不得复制或建立镜像