今年“3·15”晚会,央视曝光AI大模型“投毒”黑色产业链。不法分子借助GEO(生成式引擎优化)技术,批量发布虚假信息诱导AI抓取,进而操控回答内容、误导公众认知,已形成分工明确、明码标价的灰色牟利模式,引发行业对AI信息安全与可信生态的高度关注。针对公众关心的识别与防范问题,业内专家给出了专业建议。
普通人如何快速识别AI被“投毒”专家支招
为帮助普通用户规避风险,专家总结出核心识别特征,无需专业知识即可快速判断。
内容立场极端单一:回答过度偏向某一产品、品牌或观点,只讲优势、不提缺点,缺乏客观对比与风险提示。
表述绝对化、夸大宣传:频繁使用“最有效”“零风险”“根治”“百分百安全”等绝对化用语,违背常识与科学表述。
关键信息无法溯源:涉及机构、数据、专家、资质、研究成果等内容查无实据,无权威来源可查证。
多平台内容高度雷同:话术、数据、案例高度复制粘贴,跨平台传播高度一致,无独立思考与原创信息来源。
与官方发布内容明显冲突:
健康、理财、消费、政策等重要信息,与政府部门、权威机构、官方平台发布的内容相悖。
对照以上特征,普通用户可在一定程度上避开被“投毒”污染的AI信息,降低受骗、误判风险。
专家建议构建全维度防护体系
如何有效防范AI大模型被“投毒”,专家从技术、法律、行业、用户等多个层面提出系统应对建议。
资深人工智能专家、网经社电子商务研究中心特约研究员郑吉昌提出三方面应对思路:在技术层面,应加强数据审核、优化算法模型、建立数据溯源机制;在法律层面,应加快完善相关法律法规,强化执法监管力度;在行业层面,应建立统一标准,推动企业加强自律。
资深人工智能专家、网经社电子商务研究中心特约研究员郭涛建议,AI开发者与服务平台要严格管控数据来源,建立数据清洗、异常检测、安全对抗测试及常态化运营监控机制;开放源代码社区(由拥有共同兴趣爱好的人组成,根据开源软件许可证协议公布软件源代码的网络平台,也为成员提供自由学习交流的空间)需构建安全屏障,完善审核备案;普通用户要提高安全意识,优先选择正规平台,对重要信息多方交叉验证,不传播可疑内容,发现问题及时举报。
曝光推动行业规范人工智能立法有望加快推进
专家表示,此次“3·15”曝光将对AI产业发展产生深远影响。短期来看,将提升公众对AI信息真实性的关注度,推动监管部门加强审查,企业合规成本相应上升。
郭涛指出,2026年全国两会已明确加快人工智能立法,GEO这类新型AI操控行为,有望成为立法重点规制内容。长期而言,此次事件将倒逼AI企业加大安全投入,重视数据质量与内容可信性,推动行业建立更完善的安全标准与信任机制。
郑吉昌表示,当前我国正着力打造“智能经济新形态”,AI已成为经济发展的重要内核。从技术、法律、行业等多维度治理AI“投毒”乱象,既是保障公众权益的迫切需要,也是推动智能经济健康、规范、高质量发展的必然要求。
西安报业全媒体首席记者 龚伟芳