1. 首页 > 快讯  > 代表委员建言加强AI虚假信息治理

代表委员建言加强AI虚假信息治理

  甘肃洪某利用ChatGPT编造虚假新闻牟利,四川“山体滑坡致8人遇难”等AI造谣案例引发社会恐慌,西藏地震后AI合成的灾害场景视频被抖音平台处理超2万条……

  今年全国两会上,人工智能技术的滥用与虚假信息治理成为热议焦点。多位代表委员指出,随着生成式AI技术的迅猛发展,虚假视频、音频、图文等内容“李逵”“李鬼”难辨,不仅误导消费者、侵犯公民权益,更扰乱社会秩序,亟须通过完善立法、强化技术监管、压实平台责任等手段构建综合治理体系。

  AI虚假信息泛滥成风险隐患

  全国人大代表、美的集团副总裁兼首席财务官钟铮在调研中发现,网络上有大量AI生成的视频模仿明星或专家的形象、声音,虚构人设、推销商品,误导消费者购买不必要的商品,造成财产损失,甚至产生信任危机。还有些视频通过流量变现的形式去获利,加剧乱象。

  “AI技术降低了视频合成和制作的门槛,使得虚假内容的生成变得容易。”钟铮近日在接受《法治日报》记者采访时说。

  全国人大代表、小米集团创始人雷军注意到“AI换脸拟声”带来的问题。

  雷军在建议中指出,AI深度合成技术的快速发展,推动了“AI换脸拟声”在影视、广告、社交等领域广泛兴起,成为社会喜闻乐见、传播力强、易成热点的技术应用。但同时“AI换脸拟声”不当滥用造成了违法侵权行为的重灾区,易引发侵犯肖像权、侵犯公民个人信息以及诈骗等犯罪行为,甚至造成难以挽回的大规模形象和声誉损害,带来社会治理等风险。AI深度合成技术所需素材获取便利、技术使用门槛低、侵权主体及其手段隐蔽性强等特点,给治理带来较大挑战。

  责任归属与处罚标准须明确

  多位代表委员指出,当前AI治理的法律体系仍存空白。

  钟铮认为,现在生成式人工智能在法律法规体系上存在不完善之处,特别是在界定AI生成内容的版权归属,以及侵权责任认定、隐私保护标准方面存在空白。此外,目前生成式人工智能视频的审核技术还不够健全,虽然已有一些AI技术用于视频审核,但仍存在一定的差错率。

  全国政协委员、安徽省律师协会监事长周世虹介绍,我国于2023年8月15日起施行《生成式人工智能服务管理暂行办法》,从而形成以该暂行办法为核心,辅以数据安全法、个人信息保护法等单行法的人工智能规范,但缺乏高位阶的专门立法,覆盖范围有限,难以应对技术发展可能引发的各种社会问题。

  全国人大代表,TCL创始人、董事长李东生带来的《关于加强AI深度伪造欺诈管理的建议》提到,随着生成式人工智能技术的发展,深度伪造技术也快速发展。要规范对于这一新兴技术的不当利用,有必要要求深度合成服务提供商对人工智能生成的内容进行强制标识,减少恶意滥用,并有助于厘清责任、对违法犯罪行为追责。

  “近年来,我国相关立法虽有关注这一议题,但已出台的规章制度尚不成体系,还不具备可操作的细则和明确的处罚标准。”李东生在建议中指出。

  审核机制与处罚力度双升级

  如何加强AI虚假信息治理?代表委员一致认为,须通过完善立法、强化技术监管、压实平台责任等举措构建综合治理体系。

  周世虹建议,将生成式人工智能纳入专项立法,明确开发者、运营者、用户三方责任;完善监管协同机制,建立网信、工信、公安等多部门联动的动态监管体系;设立AI生成内容标识制度,强制标识AI生成内容,防范虚假信息传播。

  雷军的建议是,加快单行法立法进程,安全与发展并重。《互联网信息服务深度合成管理规定》《生成式人工智能服务管理暂行办法》等法律法规已颁布实施,《人工智能生成合成内容标识办法(征求意见稿》完成社会意见征集,对人工智能立法进行了有益探索。但目前“AI换脸拟声”的有关规定,尚存在效力位阶偏低、内容偏原则且分散、多个部门职责交叉或职权定位有待明晰等不足,导致现阶段针对“AI换脸拟声”造成的侵害,只能依靠基础法律中关于隐私权、肖像权、名誉权等的零散法条来规制。

  “建议针对‘AI换脸拟声’等某一代表性问题,探索推出人工智能单行法,提高立法位阶及其效力,在分级分类的基础上进行务实治理,明确‘AI换脸拟声’应用边界红线,完善侵权证据规则,加大对利用人工智能技术实施犯罪行为的刑事处罚力度。与时俱进探索新议题的细化监管措施,凝聚人工智能伦理规范共识。”雷军提出。

  代表委员普遍认为,AI治理需兼顾技术创新与风险防控,平台责任是治理焦点。

  钟铮认为,平台应加强对AI生成视频的审核和监督,确保内容的真实性。对于AI生成的视频,应强制标注警示性提示,提醒消费者注意辨别。此外,利用AI技术审核AI合成的视频内容,同时投入更多资源开发高效的AI审核工具,并结合人工审核,通过双重校验提高识别准确率。

  “平台企业开发可精准识别人工智能深度合成内容的技术能力,创新直接有效的治理工具供给。加大人力物力投入,优化升级通信软件和内容平台巡查审核机制、投诉举报机制、应急处理机制,确保及时阻断问题内容传播。”雷军建议。

  在李东生看来,除了加快人工智能深度合成内容标识管理规章制度的出台外,还需明确对人工智能深度合成服务商未履行标识义务的惩罚制度,完善对深度合成内容服务提供商未按要求进行标识的行为界定、分类细则,以及相应的处罚标准。加强深度合成内容标识技术标准和发布的管理,出台深度合成内容标识的技术标准,保证标识的有效性。此外,对相关内容平台出台要求,用户在发布深度合成的视频、音频等内容时,有义务对其进行标识。还需加强国际合作,形成人工智能生成合成内容的有效监管。