前段时间有个做外贸的朋友发来一张截图,问我现在Google是不是疯了——他搜某个工业阀门的型号,前六条结果标题看着都挺正常,点进去内容几乎一模一样,全部在推荐同一个WhatsApp号码。最离谱的是,这些页面来自不同的顶级域名,每个站长得都像正经的企业官网,还有公司简介、车间照片、甚至员工合影。
他问我,这是不是SEO的什么新范式。
我告诉他,你碰到的算轻的。这种“AI内容农场”去年就已经被玩烂了,2026年的黑灰产早就不靠堆域名来搞排名了,他们正在做的事情,比这要隐蔽得多,也难缠得多。
从我这些年的观察来看,搜索生态走到2026年其实发生了两个根本性的变化。
第一,传统搜索引擎的流量在不可逆转地往AI对话和内容平台内部搜索迁移。第二,平台自己的排序算法越来越依赖于“权威信号”和“用户互动信号”的混合模型。
这两个变化,普通用户可能只感觉搜出来的东西好像变准了一点。但黑灰产那帮人研究的是,这两个变化的漏洞在哪里,以及怎么把它做成自动化的生意。
先说结论。2026年黑灰产SEO的主流形态,我把它叫做“赛博污染”。它不是去攻击某个网站的排名,而是系统性地污染搜索结果所依赖的那层知识底层。
你搜出来的东西是真的,还是别人制造出来的幻觉,界限正在变得模糊。
咱们一层一层拆,顺便把他们的操作链路也抖出来。
寄生型内容矩阵,已经不是采集了
早几年的黑帽SEO喜欢搞站群,几百个域名互相链接,内容全用采集器伪原创。这种玩法在2024年底基本就被一锅端了,搜索引擎对域名信誉度的考核变得异常严格,新域名没个一年半载根本别想拿到像样的排名。
于是那帮人换了个方向:不用自己的域名,用平台的。
知乎、百家号、小红书、抖音百科、甚至GitHub的README和issue页面,都成了他们的寄生宿主。因为这些平台在搜索引擎眼里天然具备高权重,发上去的内容几乎秒收录,而且排序位置往往比一些小网站靠前得多。
他们是怎么操作的?
第一步,搭建一个“关键词需求图谱”。用爬虫去抓百度、抖音、小红书的搜索下拉词、相关搜索和“大家还在搜”,再把这些词扔进大模型里做一次语义聚类,就能筛出那些平台喜欢推荐、但竞争又不算激烈的话题目录。这套东西现在有完整的SaaS工具链,早就不是脚本小子敲代码的阶段了,操作的人可能连HTML都不懂。
第二步,用开源大模型批量生成符合平台调性的“干货”。注意,不是那种一眼假的机翻文本。他们会为每个平台单独调试一套system prompt,让生成的文字带上个人的说话习惯。比如做百家号内容的会要求模型“偶尔插入一段个人经历,用中年人的口吻,带一点感慨”,做小红书的会要求“多用短句和emoji,语气像一个爱分享生活的产品经理,不要用标题党词汇”。大模型生成之后还有一层人工或半人工的“去AI味”润色,通常由兼职的大学生完成,按千字几块钱的价钱,改掉那些“值得注意”“然而”“总而言之”之类的连接词,加几个错别字,把语序调得破碎一点。
这步最关键,叫“人格化洗稿”。他们赌的不是搜索引擎识别不了一两篇AI文章,而是赌在每天数以百万计的新内容里,自己的那两万篇能混过去。
第三步是分发。这里已经不是人工发了,全部走API和模拟器。安卓模拟器跑脚本自动登录账号,每个账号配独立的虚拟手机号和住宅代理IP,发的图文走平台的发布接口或者模拟点击。一个中等规模的工作室,一天能往三到五个主流内容平台铺超过四千篇内容,覆盖大概两万个长尾关键词。
这些东西不发硬广告。文章里夹带的是“私信领取”“看我主页”“评论区找我”这样的引导语,把人拉到微信群或者个人号,后续割什么因人而异。有人卖课,有人做灰色支付,有人在群里推香港保险。
知识图谱污染,比你想的容易
2026年搜索引擎对结构化数据的依赖比任何时候都大。百度、Google都在用知识图谱补全搜索结果,AI Overview一类功能更是直接抽取图谱里的信息来回答用户。
黑灰产当然盯上了这块肥肉。
今年年初业内流转的一个案例是这样的:有一批人发现很多用户在搜“某某银行人工客服电话”,传统搜索引擎在这个场景下很容易把诈骗电话当成客服电话推上去。这帮人就在高权重网站上发布带有schema标记的内容,里面填上伪造的客服号码,并且在多个平台同步发布相同的结构化信息,比如“某某银行信用卡中心电话”加一段正儿八经的银行介绍。
搜索引擎的知识抽取模块把这些零散的数据汇总、交叉验证,最终判定这是一个可信的实体属性,将其纳入知识库。几天后,用户搜这个银行的客服电话,搜索结果顶部直接显示了一个蓝色的卡片,上面赫然就是诈骗号码。
这种手法讲究的不是堆量,而是源头的“可信度背书”。他们会在一些新闻网站的发稿渠道里塞伪原创的企业通稿,在百度百科或者抖音百科里通过编辑战添加虚假信息,甚至跑到一些高校的开放课程论坛里上传伪造的客服公示文档。这些域名的信任权重被搜索引擎继承了,知识图谱就跟着被带偏。
操作教程其实不复杂。现在有开源工具能把文档自动转成JSON-LD格式的结构化数据,你只要给它一篇文档,它就能拆分出实体、属性、关系,然后生成可以在网页里嵌入的代码。配合前面说的平台寄生分发,一条虚假实体信息会在几十个不同来源同时出现,同时出现本身就构成了搜索引擎交叉验证的铁证。
用他们自己的话讲,“搜索引擎替我们撒了谎”。
视频搜索赛道的“幽灵账号”
还有一个很多人没意识到的变化:2026年短视频平台的搜索体量已经大到无法忽视。抖音的日均搜索量早就超过了百度,小红书也在猛追。新一代用户找攻略、找测评的第一反应不是开浏览器,而是打开短视频App的搜索框。
黑灰产自然也重新分配了兵力。他们发现了一个很有意思的现象——平台给视频内容的搜索排序,非常看重点赞、收藏和发弹幕的初级互动数据,但对账号本身是否“活人”的判定,远比文字平台要滞后。
于是一个叫“数字人矩阵”的东西就冒出来了。
操作的人会先注册一批抖音号,每个号选定一个细分领域,比如家电维修、法律咨询、偏方养生。然后用免费的视频数字人工具或者自己部署的开源方案,生成由AI驱动的主播口播视频,声音用TTS,画面就是一张合成的脸在动嘴。
视频内容怎么来?把之前文字平台生成的AI文章扔进视频脚本生成器,输出口播逐字稿,数字人张嘴念一遍,配上几张从搜索引擎抓来的相关图片,一条三分钟的视频不到五分钟就能生成完毕。一个号一天发四条,四十个号就是一百六十条,覆盖的长尾搜索词量级非常可观。
他们的排序逻辑是这样的:首先用大量账号制造内容密度,确保用户不管搜什么,总能碰到他们两三条视频;然后利用互刷系统做第一波点赞收藏,把基础权重拉起来。用户搜到这个视频一看,真人出镜、讲得头头是道,信任感一下就上来了。最后跟着视频里口播提到的“电话我放在评论区”“点我主页加粉丝群”,流量就这么流进了私域。
长此以往,视频搜索的生态会变成什么样子,我其实不太乐观。
伪造权威信号的工业线
Google这几年一直在强调E-E-A-T,百度也有自己的“权威性”评估体系。搜索的未来几乎可以确定地指向一个方向:谁看起来更像专家,谁的排序就更高。
在黑灰产眼里,这句话翻译过来就是——权威性是可以批量伪造的,需要的只是成本。
我见过最让人头皮发麻的一套操作是这样的。他们首先在某个垂直领域,比如营养学,虚构一个人名,配上由AI生成的真人照片。然后在多个平台为这个虚构人物建立立体的人设:有领英档案,有知乎专栏,有百科词条,甚至有ResearchGate上发布的伪造研究论文。这些论文的结构完全按正规学术格式来,参考文献也是真实存在的,只是结论被悄悄篡改过,或者加入了要推广的产品信息。
这套“人造专家”建好之后,搜索引擎的知识图谱会主动把这个人收录成实体。后续只要用这个人名义发布任何内容,都会被算法标记为“行业专家观点”,在健康类、金融类的搜索排序里拿到别人拿不到的加分。
科普文章的署名、视频节目的嘉宾头衔、新闻源里引用的专家评价,全都可以围绕这个虚构人物展开,形成一个足够闭环的权威信号网络。
这个玩法本质上是一种长期渗透。搜索引擎短期内几乎不可能戳破,因为他们用来验证真伪的那套逻辑链条,恰恰就是这个游戏本身制造的。
用户怎么办
我知道很多人看完会觉得,那还搜什么东西,到处都是坑。
但现实没有这么夸张。搜索引擎公司也不是吃素的,百度去年在反垃圾这块的团队规模扩大了两倍不止,Google针对AI生成内容的识别模型更新频率也从季度变成了几周一次。上面说的那些手法会一批一批地被打击掉。
用户能做的最实在的事情,反而是回到互联网最初的那点习惯上去——多看一眼域名,多看一眼发布者的背景是不是能交叉核实,遇到要转钱的事情先回到官方App确认。搜索可以用,但你得意识到搜索结果已经不是真理列表了,它只是一种需要你自行验证的信息来源。
我做SEO这些年,经常被问到搜索引擎会不会被AI彻底废掉。我的答案是,废掉搜索引擎的从来不是技术,而是利用技术的人对流量本身无底线的渴求。2026年的黑灰产把这种渴求包装成了算法理解不了的样子,那就需要我们这些做了一辈子搜索的人,偶尔站出来,把那一层窗户纸捅破。
上面这些操作教程,写出来不是为了教人学坏,而是让更多人知道——有些你以为是天经地义的搜索结果,背后不过是一间写字楼里的几十台手机,在同时闪屏。