作者丨朱光星
中国政法大学副教授
近日,央视财经《财经调查》曝光了一条借助生成式人工智能迅速蔓延的“造黄”黑色产业链。不法分子公然售卖“教程+提示词+生成软件”的套餐,用户只需提供一张照片、输入几句指令,就能批量制造色情、擦边视频或图片等。
尽管《生成式人工智能服务管理暂行办法》第四条明确规定,生成式人工智能服务不得生成淫秽色情等内容,但用户通过将敏感词替换为英文或者修改为隐晦表达,或者下载境外软件、本地离线部署等手段,便能轻易绕过监管审查,低成本、规模化地生成淫秽图片与视频,实现高额非法牟利。

在这类AI造黄的违法犯罪中,有一类行为性质尤为恶劣,那就是专门制作涉及儿童形象的淫秽图片或视频等。之所以要将其单独拎出来讨论,不仅因为其社会危害性远高于一般色情内容,更因为它在法律规制上面临一个特殊的理论难题:当色情内容不涉及真实儿童时,刑法是否应当介入?

欧美社会如何应对AI色情?
近年来,这一问题已成为西方国家立法和执法关注的重中之重。
例如,隶属于英国国家数据科学与人工智能研究院艾伦・图灵研究所的“新兴技术与安全中心”发布的一份《人工智能与严重网络犯罪》的报告,多次提到网络犯罪分子正越来越多地利用防护机制薄弱的开源权重模型实施更高级的犯罪活动,尤其是在利用AI生成儿童色情制品领域表现得尤为突出。
但对AI生成儿童色情相关行为的打击,是随着人们对技术认知的深化以及对违法行为危害性认识的提升而逐步凝聚成共识的。
域外国家近代以来普遍认为,儿童色情是一种严重侵害儿童个体人身权利与人格尊严的犯罪类型。儿童并非合适的性行为或性满足对象, 任何描述儿童性行为、性展示或者性暗示的材料,本质上都是对儿童的身体与性特征的物化,构成对儿童的性剥削或者性虐待。

无论是否涉及身体暴力,无论儿童是否认识制作者,甚至无论材料是否为儿童自行制作,其中的儿童始终是性剥削与性虐待的受害者。这类材料将涉及儿童的性行为或性展示记录下来, 未来有可能被反复传播, 对儿童的健康成长和心理健康造成深远的负面影响。
在传统规制的理念中, 每一份儿童色情制品的制作都意味着有真实儿童遭受了实际侵害。禁止儿童色情制品的核心目的,就是要保护这些真实受害的儿童。因此,除了前期的制作行为, 持有、浏览、传播等后续行为,因助长了整个儿童色情产业链的持续运作,也同样受到刑法的严厉打击。
基于这一逻辑, 许多国家对儿童色情制品犯罪的传统规制,通常会要求该色情制品必须涉及真实的儿童, 而对“虚拟儿童色情”是否需要予以犯罪化则缺少明确的标准。
然而,人工智能的崛起和普及对这一传统规制理念构成了根本性挑战。AI生成的儿童色情图片或视频中,并没有真正的儿童受害,仅仅是借用了儿童的形象而已,而完全由AI生成的虚拟儿童色情,则更是与真实的儿童毫无关联。对此,少数刑法学者认为,这类行为就像历史上的通奸、同性恋、卖淫等一样,属于“无被害人犯罪”,应当予以非罪化处置。
实践中,部分虚拟儿童色情制品的创作者、消费者也辩称, 利用人工智能生成虚拟儿童色情是一种合法的性幻想和技术实验, 并未侵犯真实儿童,造成的危害不大。更有观点进一步主张, 对不涉及真实儿童的色情制品进行过度规制,涉嫌侵犯公民的表达自由与艺术创作空间。
尽管有少数西方学者认为,AI生成的虚拟儿童色情,可以为恋童癖群体的性冲动提供一个可接受的替代宣泄途径,从而可能减少现实中遭受性虐待的儿童数量。
但越来越多的研究显示,长期接触儿童色情制品会滋生对性侵儿童行为的脱敏,可能导致对更极端、更具虐待性的性侵儿童材料的偏好,削弱行为人内心对虐待儿童的抑制力;而且,消费AI生成的虚拟儿童色情制品,可能会增加现实世界中接触式性侵犯儿童犯罪的风险。由此可见,儿童色情的虚拟化,并不等于无害化。
基于这一共识,近些年来西方越来越多的国家,逐步突破传统规制中要求有真实儿童受害的要求,立法和司法对虚拟儿童色情犯罪的打击力度显著增强。
以英国为例,根据政府最近发布的一份政策说明文件,英国正在推动一部新的改革法案,拟将专门用于生成儿童色情素材的优化人工智能模型列为非法;并将新增罪名,将改造、持有、提供或兜售儿童色情图片生成工具均规定为违法,最高可判处五年监禁刑。
该法案还将对之前关于恋童癖的立法规定进行修改,将AI生成的虚拟儿童色情材料也纳入规制范畴,使其与真实的儿童色情适用同一法律标准。再如,荷兰在2023年通过对原有刑法做扩大解释,将利用深度伪造技术制作和传播性露骨内容的行为也纳入刑事处罚范围。
需要说明的是,上述立法动向虽然主要针对儿童色情,但其背后反映的规制逻辑对于一般性的AI造黄行为同样具有借鉴意义,即不再要求色情内容必须对应真实受害者,而是直接打击AI生成行为本身。

“造黄”产业:技术中立不是放任的借口
那么,我国法律对AI生成色情内容(包括但不限于儿童色情)是如何应对的?
我国虽然没有专门针对AI生成色情内容的新立法动向,但现行刑法对淫秽物品已有严格管控。《中华人民共和国刑法》第363、364条规定有“制作、复制、出版、贩卖、传播淫秽物品牟利罪”和“传播淫秽物品罪”等罪名。
AI为违法犯罪分子带来极大便利、降低其违法犯罪成本的同时,也因内容的生产自动化、规模化以及违法收益与传播速度成倍放大,使得越来越多的普通人更容易触犯刑法。
以淫秽视频为例,过去制作淫秽视频需要拍摄、剪辑、后期等专业能力,周期长、门槛高、风险大;如今,任何人只要购买廉价提示词,复制粘贴即可驱动AI自动生成高清视频;只要轻微变换表述,便能轻易突破审核拦截;只要使用境外模型,就能隐匿行踪、逃避打击。
AI的普及,使得违法犯罪行为从“专业化作案”降级为“大众化复制”,普通网民甚至是未成年人都可能被卷入其中。
央视调查显示,AI“造黄”早已不是个人零散行为,而是形成了分工严密、上下游协同、全链条牟利的黑色产业体系:上游有人专门编写、贩卖涉黄提示词与规避教程;中游有人提供破解模型、境外软件、离线运行工具;下游有人批量生成、多平台分发、引流变现。每一环都只做“一小段”,每一方都可能以“技术中立”为自己开脱。
由此,便引出了一个核心的法律难题:在链条化、分布式、去中心的AI犯罪面前,究竟谁该承担刑事责任?

提示词贩卖者不直接生成视频,模型提供者不参与内容发布,平台方不控制具体用户行为。传统刑法以“直接实行行为人”为中心的追责模式在此陷入困局:直接打击使用者,治标不治本;放任上游工具提供者,则黑产屡打不绝;扩大平台责任,又可能伤及技术创新。如何精准识别、合理分配、依法追责,是我国刑法在AI时代必须回答的考题。
此次曝光,更是暴露出平台治理的明显短板。许多AI工具号称设有内容审核与安全护栏,但实践中却形同虚设——简单修改表述、切换英文指令、更换接口来源,即可轻易绕过限制。
长期以来,“技术中立”成为不少平台自我免责的通行说辞。然而,技术中立从来不是绝对的,更不是无限的。当平台明知其服务被大规模用于“造黄”,当平台具备技术能力却故意不采取必要防控措施,并有意从流量、用户、使用量中持续获利,所谓“技术中立”的辩解,实际上是放任违法犯罪的借口。
面对AI“造黄”这条黑色产业链,刑法的态度不宜简单滑向“重刑扩罪”或“技术放任”两个极端。真正的难题在于,如何在保护技术创新空间的同时,将法律责任精准落到每一个关键环节——提示词的贩卖者、模型的提供者、离线部署工具的传播者,以及明知黑产却消极放任的平台方,各自应当承担怎样的刑事责任?目前,无论是立法,还是司法,都缺乏清晰、可操作的答案。
与其反复强调“技术向善”这类原则,不如尽快启动针对性研究,明确AI生成违法内容场景下的入罪边界、共同犯罪认定标准、平台的安全保障义务边界,以及跨境技术犯罪的管辖与取证规则等诸多问题。
法律只有真正读懂了技术逻辑,才能穿透黑产链条,让躲在“技术中立”背后的责任主体无处遁形。
本文系凤凰网评论部特约原创稿件,仅代表作者立场。
主编|萧轶
上一篇:特朗普称没有必要延长同伊朗的停火
下一篇:没有了