日前,国家互联网信息办公室等四部门联合发布《人工智能生成合成内容标识办法》(以下简称《标识办法》),提出AI生成的文字、图片、视频等内容必须强制添加显式和隐式标识,生成的相关内容都需要亮明“身份证”。《标志办法》出台后,将重点解决“哪些是生成的”“谁生成的”“从哪里生成的”等问题,推动由生成到传播各环节的全流程安全管理。
当前,AI浪潮正以前所未有的速度影响着社会的方方面面,然而伴随着技术门槛的降低,也产生了一些不良现象。譬如:网络上曾出现AI合成的张伯礼院士为某美白护肤品宣传的视频,视频中使用张院士的形象和声音,无任何标识,难辨真假。出现这些现象的原因,一方面是检测技术的滞后性,“偷跑”的违法信息难以在短时间控制其流动性,等到监测到相关情况再来处理时,已造成一定程度的负面影响。另一方面监督管理存在空白区域,难以追上AI技术快速迭代的步伐,比如:针对AI生成内容的版权归属、责任界定等问题还不清晰,对于部分违法信息追踪难、追溯难、追责难。
治理AI乱象依然需要法治先行。需要通过明确技术应用的“禁区”和“红线”,防止技术失控滥用;同时加大对相关违法行为的处罚力度,提高犯罪成本,让当事人在面临抉择时主动避开不法选项。也应考虑建立动态平衡机制,例如通过“监管沙盒”鼓励可控范围内的创新,同时设置底线规则,避免过度监管导致抑制创新。
监测技术手段也应动态更新。AI带来了诸多可能性,是否也应考虑用“用魔法打败魔法”的手段来对抗相关乱象,例如构建“AI对抗AI”的动态监测体系,结合《标识办法》利用AI模型识别AI生成内容,开展实时对抗训练等;记录AI训练数据来源等,以便快速追根溯源,从源头上制止事态进一步扩散。
法治和技术的有效实施离不开全民教育。没有良好的群众基础和道德滋养,法治就缺乏活力和温度,技术就难以走上正途。可通过典型案例宣传、AI技术微课堂等多种方式强化学习,把AI的运作原理摆在明面上,让大众知晓AI、了解AI、能区分AI,从而以正确的三观去对待每一个AI产品。当不法、错误内容诞生的那刻,却没有其生长的土壤,自然就无法引起波澜。
AI乱象的治理应是多方联手,而非一家“独唱”,需要结合法律法制、技术伦理、行业自律和公众参与形成多元共治,既要守住伦理底线,又要为技术演进预留空间。唯有如此,才能实现“科技向善”的终极目标。
稿源:荆楚网(湖北日报网)
作者:王亚闻(宜昌宜都)
责编:丁楚风