近日,中央广播电视总台3月15日晚会上曝光了一条触目惊心的“中毒”大型AI模型的黑灰色产业链。 AI“投毒”的本质是利用大规模模型的特性,依靠互联网实时搜索信息,从大量数据中学习,通过人为制造“虚假共识”来操纵算法的输出。不法分子利用生成引擎优化(GEO)工具生成虚假评论、虚假用户评论和批量生产的行业排名,并利用自有媒体账户在网络平台上发布大量评论。当用户向AI询问产品推荐时,由于这种精心制作的虚假信息数量众多、角度多样,AI很可能将其视为“高价值信息”,最终成为AI给出的“标准回应”。通过“污染”人工智能数据的“分布”,呈现虚假产品d作为权威推荐,恶意诽谤伪装成客观评价,形成了一条完整的“软件供应——内容生成——全网供应——模型操纵——盈利”的黑灰色链条。造成混乱的根本原因在于技术的迭代速度快于系统的构建速度,从而造成了监管真空。目前,GEO 服务正处于法律边缘。存在涉嫌违反《广告法》、《反不正当竞争法》、《消费者权益保护法》的行为,但责任主体不明,取证困难,且处罚轻、违法成本低。同时,网站平台和大规模人工智能模型以用户完整性为目标,方便信息来源的审查,并为客观“污染”提供了机会。但一些公司寻求快速获胜,将“AI排名”视为一种低成本的捷径。o 客户获取,有助于黑色和灰色产品的流行。治理人工智能“上瘾”,必须坚持系统思维,构建法律规制、技术防御、平台责任合规、公众参与的多维度协同治理格局。完善法律规定,划定行为红线。 《反不正当竞争法》明确列入“恶意数据源”;明确人工智能服务商、内容发布平台的责任范围。二、GEO服务商。明确“数据投毒”与合法GEO优化的界限,严惩伪造信息操纵人工智能的行为,加大违法行为成本。为铲除产生黑灰的土地,专门发布虚假内容的平台和账号将被依法关闭和纠正。强化技术防御,提高“AI平台需要建立数据追踪机制,对训练和获取的内容进行可靠性评估,实施“白名单”提要系统,提高识别批次同质内容的能力。在医药、金融等敏感领域,需要对多个信息来源进行交叉核对,答案必须明确信息来源。我们用算法来梳理算法,建立动态监控和清理机制,快速发现和拦截“上瘾”行为。统一平台责任,动员联合治理信息传播平台要加强对软文批量发布、营销等异常行为的监测和应对,切断虚假内容传播渠道,优先选择权威媒体、学术期刊、权威机构的官方信息。制度,提高模型透明度,提供答案来源链接供用户查看和验证,摆脱“黑匣子推荐”。同时,促进人工智能数据安全行业标准和数据治理生态的建立,规范数据集的采集流程、限制和审核。提高公众素养,筑牢社会防线。用户在使用AI获取信息时,应该明白“AI没有权威”,并理性验证。特别是,人工智能对重要问题的回答,包括投资和消费决策、健康计划选择等,应该通过官方渠道进行验证。监管机构应加大人工智能安全知识的传播力度,帮助公众识别人工智能的一厢情愿和错误信息。对AI的“上瘾”,不仅污染了大模的配餐,也污染了我们数字社会的信任根基。它大放异彩这是算法黑匣子上的法治之光,并将监视的力量渗透到数据的迷雾中。只有这样,才能彻底割裂产业链的黑与灰,让人工智能成为真正服务大众、造福社会的智能助手。 (本文来源:经济日报 作者:佘惠敏)
(编辑:刘鹏)

你也可能喜欢

发表评论

您的邮箱地址不会被公开。 必填项已用 * 标注