近日,国家网信办、工业和信息化部、公安部、国家广播电视总局联合发布《人工智能生成合成内容标识办法》(以下简称《办法》),将于今年9月1日起施行。《办法》聚焦人工智能“生成合成内容标识”关键点,通过标识提醒用户辨别虚假信息,明确相关服务主体的标识责任义务,规范内容操作、传播各环节标识行为。

  总结《办法》的核心内容,就是要求给人工智能生成合成内容“打水印”,让人能够有效区分是否为“人工智能生成合成内容”。通过建立“生产即标注”的强制性规则,将技术透明度转化为法律义务,既保障公众知情权,也为评估、追溯等监管建立制度锚点。这种治理模式在技术应用中嵌入法治思维,跳出了“事后灭火”的传统路径,体现了“以透明度对冲风险性”的治理智慧。

  放在现实情境中,这种制度设计无疑正当其时。当前,我国人工智能迅猛发展,在赋能千行百业、促进经济社会高质量发展的同时,技术狂飙突进带来的“算法黑箱”“数据偏见”“深度伪造”等问题也日益凸显。某地公安机关破获的“AI换脸”诈骗案中,犯罪分子伪造企业负责人面容,10分钟内骗取100多万元;某短视频平台上,AI生成的“虚拟专家”散布养生谣言,误导众多中老年人。这些乱象警示我们,缺乏法治规范的技术创新可能成为脱缰野马;没有正确价值引领的算法进步,极易陷入工具理性陷阱。

  人工智能治理不仅仅是技术命题,也是深刻的法治课题,需要构建“法律规范+技术标准+价值共识”的多维制度体系。法律规范层面,既要不断夯实完善网络安全法、数据安全法等基础性法律,也要针对深度伪造、算法歧视等新问题有针对性地制定专门规则。在技术标准层面,需建立涵盖数据采集、模型训练、内容生成的全流程安全评估体系,将抽象的法律规则转化为可操作的技术指引。在价值共识层面,则应推动形成以人为本的价值共识,防止技术异化为侵害人的权利、破坏公序良俗的工具。

  人工智能治理还需汲取法治“刚柔并济”的治理之道。在明确禁止深度伪造生物特征、生成违禁信息等“负面清单”的同时,也要建立“容错机制”包容和鼓励有益创新。例如,在处理人工智能生成内容侵权类案件时,既要充分把握现行法律中的“实质性相似”“合理使用”等原则,也要不断探索新型权利的认定规则。这种治理智慧在于:既以制度刚性守护安全底线,又以机制弹性释放创新活力;既强调技术的可控性,又尊重技术发展规律,在恪守秩序与鼓励创新的动态平衡中,寻求治理效能的最大公约数。

  网络空间从来不是法外之地,人工智能技术的应用和发展在法治轨道上运行,才能行稳致远。更好发挥法治对于人工智能治理的引领、规范和保障作用,将法治精神融入技术应用,让制度创新紧跟技术迭代,既为技术创新铺设“快车道”,又为安全发展安装“缓冲带”,方能真正实现“以人为本、科技向善”,让人工智能更好地造福人民。

国际绿色品牌联盟
Avatar photo

作者 绿色经济网

  “绿色经济网”是以绿色经济大市场为导向,以传统产业经济为基础,以高新技术为支撑,弘扬绿色发展理念,推动绿色经济发展,服务于不同领域群体。绿色经济网为绿色新政、绿色企业、绿色消费、绿色品牌、各行各业的绿色人物服务。为了绿色经济网更好的发展壮大,欢迎各界有缘人士,友情参与共同发展。

发表回复