“如有疑问,请询问人工智能”是人们经常说的一句话,也是许多人每天都会思考的问题。从旅行指南到电子产品购买再到补习班推荐,依靠人工智能来获取答案正变得越来越普遍。然而,最近曝光的黑色产业链正在为这种依赖敲响警钟。你认为客观的推荐,可能是卖家花钱给AI“洗脑”的结果。那么AI“上瘾”究竟是如何运作的呢?普通用户该如何识别和预防呢?新华网辛格邀请北京大学光华管理学院市场营销系副教授张英杰为大家分析解答。 1 什么是人工智能“上瘾”?它的危害有多大?人工智能中的“中毒”是指人为地制造和放置虚假、夸大或有偏见的信息来影响大规模模型的反应。 AI可以使用这些信息作为响应的基础并向用户推荐看似客观的答案。与传统SEO(搜索引擎优化)最大的区别在于,过去用户在使用搜索时通常会保留一定的条件。但当你与人工智能交谈时,你会面临内置的、开箱即用的响应。此外,交互式方法往往会给人一种错觉,即分析正在为您完成,这使您更容易放松警惕。其危害主要体现在两个方面。一是欺骗消费者决策。用户看到的不是广告,而是伪装成客观建议的操纵性内容。二是污染信息生态系统。如果操纵人工智能推荐带来比传统搜索更多的商业利益,就会刺激虚假和低质量内容的产生,形成恶性循环。 2 GEO如何一步步控制AI反应? GEO(生成引擎优化)是一种基于人工智能响应的营销行为。与传统不同GEO 的目标是确保公司的品牌、产品或服务在人工智能生成的响应中首先被提及,以确保推荐准确无误。 GEO的核心不是“黑客AI”,而是“投资AI喜欢的东西”。换句话说,它遵循更大模型的搜索和生成逻辑,提前建立可能采用的目标内容。具体步骤包括发现人工智能的首选来源和呈现格式(清晰的结论、清晰的结构、比较和引用轨迹等)。制作大量伪装成评级、比较、经验总结或专家建议的介绍性内容;他们在多个平台上密集传播信息,制造“多方共识”的假象,增加内容被广泛追捧和采纳的可能性。 3、用户如何判断AI是否“中毒”如果你注意到你的AI的回答中有以下任何迹象,你就应该小心了:回答过于简单,语气积极,缺乏必要的比较。某些品牌,尤其是不知名的品牌,被反复推荐,推荐理由异常丰富,与标准评级相似。这并不一定意味着发现了“宝藏”,而更有可能是由于人为集中了相关内容。不同AI对同一问题的答案的差异或不一致也表明了这一点。问题存在很强的不确定性,或者某些模型所依据的信息来源已被改变。 4 为什么大规模人工智能模型会受到“污染”? 大规模人工智能模型容易受到“污染”的一个主要原因是,它们在实时回答问题时需要获取外部信息来生成答案。公开在线内容的污染可能导致有偏见的信息泄露。可以通过搜索链接输入模型的输出。从更深层次来说,大规模模型对于语言生成和模式指导非常有用,但它们当然不具有稳定的真或假判断能力。虽然我们可以确定哪些内容“看起来是合理的回应”,但我们无法确定哪些内容“真正值得信赖”。 “有毒”内容被故意伪装成值得信赖的格式,例如评级、比较、经验分享或专家建议。这很容易欺骗模型。有两个主要的治理问题。一是攻击成本低,防御成本高。虽然创建和分发此类内容变得越来越容易,但识别、过滤和验证内容需要平台、模型公司和监管机构的持续投资。其次,真假之间的界限变得模糊。很多这些“有毒”内容并非明显虚假,而是夸大、误导、伪以盈利为目的。此类内容无论是通过人工智能还是人工审核都更难以识别。 5、监管如何堵住AI“成瘾”漏洞?控制人工智能“污染”,需要多环节协同努力。一要强化源头治理,压缩虚假、建模、伪定向内容大规模传播的空间;二要压实人工智能平台责任,强化源头筛选、风险提示和不确定性标签,而不是“检测到什么就说什么”;更重要的是,需要尽快完善相关标准。人工智能的结果与传统的广告不同,用户更容易理解之后的结论。因此,有必要进一步明确平台的信息披露义务和责任范围。6 公民如何有效地保护自己?作为组织信息和提供背景,而不是作为一个“人”为你做决定。对于“我应该买哪一个”、“我应该选择哪一个?”等关键问题,人工智能的答案只能作为参考,不能作为直接的结论。第一步是检查信息来源。如果AI有推荐链接,点击查看来源是否是权威机构、主流媒体、宣传网站、自有媒体、或者评论软件文章。第二是交叉验证。使用多种人工智能工具提出个人问题或使用搜索引擎查找用户查看评论、新闻报道和投诉信息是否匹配。归根结底,防止人工智能“上瘾”的关键不在于掌握复杂的技术,而在于保持最佳的判断习惯。人工智能可以帮助亚洲人节省时间,但它不能承担为你做决定的责任。来源:微信公众号不属于“新华网”
(编辑:何欣)
吃瓜热门