“AI换脸”是利用人工智能等信息技术手段,操纵、修改视频、影像数据,将某人的面部更换为他人的面部。随着人工智能的发展,“AI换脸”应用场景越来越多,其在满足人们猎奇、美颜、社交等需求的同时,也被一些不法分子利用,发生侵犯他人肖像权、损害个人声誉、传播假消息,甚至实施诈骗、危害国家安全等违法犯罪行为。亟待引起重视,加强网络空间安全治理,营造风清气正的网络环境。一是人工智能法律体系不健全。近年来,虽然我国先后出台了《互联网信息服务深度合成管理规定》《生成式人工智能服务管理暂行办法》,但我国目前仍然缺乏对人工智能的总体立法,以及人工智能伦理的行业规范。中国青年报2023年6月6日报道,苏州大学竞争政策与反垄断研究中心研究员方翔指出,构建完善的人工智能法律体系,我国目前仍在探索阶段。中国信息通信研究院云计算与大数据研究所所长何宝宏则指出,在具体落实《互联网信息服务深度合成管理规定》中,对于深度合成服务提供者如何落实内容管理需要进一步细化,对深度合成信息内容增加标识的具体规范也需要进一步细化。红网2023年5月28日报道,虽然我国法律法规已明确规定了“AI换脸”行为应当遵守的边界,但目前仍然缺乏对人工智能的总体立法。二是事前监管体系未建立。虽然《互联网信息服务深度合成管理规定》要求深度合成服务提供者在生成或者编辑的信息内容的合理位置、区域进行显著标识,《生成式人工智能服务管理暂行办法》要求利用生成式人工智能产品向公众提供服务前,应按照规定向国家网信部门申报安全评估,但就目前来看,标识要求难以有效落实,标识监管体系尚未有效建立,难以提前厘清“AI换脸”所带来的“模糊边界”,不利于后续监管防范。央广网2023年6月1日报道,浙江大学国际联合商学院数字经济与金融创新研究中心联席主任盘和林认为,目前的监管相对于“AI换脸”技术发展确实略有滞后,当前的“AI换脸”的标识监管体系还没有形成。北京嘉维律师事务所律师、IT法律专家赵占领认为,从长远来看,监管与处罚措施还需要随着技术发展不断“迭代”,才能形成立体有效的治理方案。三是网络平台责任不到位。部分网络平台没有尽到把关人职责,没有严格审核用户身份,有的应用商店仅仅需要提供照片或者关注就可以随意下载、学习,对“AI换脸”发布内容也没有预先审查,导致侵权、诈骗等违法犯罪行为发生。法治网2023年6月30日报道,记者检索发现,许多网站上有“AI换脸”的工具或教程,有的需要付费,有的仅通过点赞、关注、评论就能获取。齐鲁晚报网2022年12月31日报道,在手机应用商城、社交平台、短视频平台上,都能看到不少提供“AI换脸”服务的App和小程序,只需上传一张照片,经过深度合成算法处理,就能秒变视频主人公,没有任何平台审核程序。四是群众自律防范意识待提高。一方面,部分群众法律意识和公序良俗底线意识淡薄,滥用AI换脸工具制作照片或者视频,出现诋毁、造谣、贬损他人名誉等行为,带来社会道德和法律风险。另一方面,部分群众不注意保护个人信息,遭遇AI技术新型骗局时防范意识较低,轻易受骗造成财产损失。检察日报2023年6月21日报道,虞某某从互联网非法获取众多人脸信息,利用“AI换脸”等深度合成技术非法处理、制作淫秽视频,在社交软件上进行传播并获利,被公安机关移送萧山区检察院审查起诉。光明网2023年5月24日报道,福州市某科技公司法人代表郭先生防范意识淡薄,骗子通过智能AI换脸和拟声技术佯装其好友,10分钟内被骗走430万元。为此,提出以下几点建议:一是健全人工智能法律体系。加强人工智能领域法律法规的制定和完善,明确“AI换脸”技术的适用范围和规范标准,构建完善的人工智能法律体系,切实保障公民合法权益,为AI技术发展保驾护航。二是加强事前监管规范。控制“AI换脸”技术源头,健全完善对人工智能技术应用的审批备案,要求技术开发者在程序中预留“技术水印”,便于网络平台识别并标注通过“AI换脸”技术制作而成的视频内容,严格控制后续使用范围。三是强化网络平台监管。网络平台需严格审核用户身份,严格履行预先审查义务,通过视频、音频、关键词、图形结构等方式进行事先过滤、删...