@ 2023.08.13 , 16:58

ChatGPT时代的SEO

SEO是许多公司的增长引擎,因此值得特别关注可能改变搜索规则的任何新技术。

虽然SEO并未消亡,但它正在经历实质性的变化,而生成式人工智能的加速发展将加剧这种变化。我们可以尝试一些有根据的猜测,关于SEO在未来可能的形态。

1. 所有搜索结果的竞争将大幅增加

生成式AI将大幅增加每天发布的SEO内容量。

很难提出反对意见。研究和撰写一篇针对搜索优化的文章所需的时间和技能已经几乎降至零:几句指导性的话,几个复制粘贴的例子,以及在免费的SaaS产品中点击几下。这对大多数搜索引擎结果页面(SERP)的竞争力可能会产生重大影响。

发布频率和内容长度趋势上升

发布频率是一个强大的增长杠杆,但在大多数SEO历史中,写作的机械过程一直是瓶颈。现在,这个瓶颈几乎消失了,每个月发布二十篇文章,或者四十篇,甚至一千篇,变得更加容易。

事实上,使用ChatGPT撰写一篇5000字的文章几乎和撰写一篇500字的文章一样容易,因此我们还可以预期发布的内容的平均长度将继续上升。我们将看到更多的公司针对相同数量的关键词创建更多的搜索内容。其中很多内容将无人问津,但并非全部。

ChatGPT时代的SEO

公司将对他们所针对的关键词不那么挑剔

当撰写一篇文章需要大量时间和精力时,有理由在创建文章时要谨慎选择,将精力集中在流量最大、竞争最小或与产品最相关的关键词上。

但生成式人工智能消除了这种限制,并创造了先发布后思考的动力。公司将变得不那么挑剔,更愿意处理与其产品略有相关的任何关键词。正如我们之前所写的:

“当你可以一次创建数百篇博客文章时,为什么还要费心制定战略?当你可以针对每个关键词进行定位时,为什么还要费心优先排序?当你可以在一小部分时间内复制你的竞争对手时,为什么还要费心竞争对手分析?”

程序化SEO变得司空见惯

一些公司将使用人工智能作为创意合作者。其他公司将委托人工智能撰写初稿,将审查和编辑留给人类。还有一些公司将使用人工智能内容作为探索工具,发布数百篇一般般的文章,并改进那些表现最佳的文章。

但这些用例的影响将被程序化SEO的影响所淹没。

对于所有出版商来说,内容量和内容质量之间一直存在着权衡:在一个月内发布一千篇文章通常需要在内容的相关性和独特性上做出巨大妥协。有了GPT-4,这种限制可能不再存在。再加上GPT-4能够编写和排除网络爬虫的Python脚本,可以清楚地看到程序化SEO的准入门槛几乎为零。

2. 谷歌优先考虑页面外排名因素

使用人工智能发布的许多内容将是某种程度上的模仿内容:对特定主题现有内容中相同核心观点的重新表述。

生成式人工智能加剧了一个已经存在的问题:营销人员基于相同的工具和相同的源材料创建内容。GPT-4在大量文本语料库上进行了训练,但对于许多主题(比如“CRM采用的顶级技巧”),生成式人工智能将借鉴其他人使用的陈旧的摩天大楼文章。这个问题被生成式人工智能无法创造新信息的能力所加剧:它无法收集新数据,没有个人经验,也无法进行可靠的行业分析。

这将导致大量文章在实质上难以区分。这对用户体验来说是不好的,使得更难发现新信息,对谷歌来说也是不好的,限制了用户的搜索体验。谷歌将有动力寻找更好的方法来区分相同的内容。

实际上,这可能意味着页面外排名因素变得更加重要。

在存在模仿内容的情况下,即竞争文章之间的页面上的文字基本相同,谷歌可能会更加强调页面外的排名因素,比如反向链接,作为区分相似内容的手段。大型、知名品牌凭借建立的反向链接壕堑可能变得更难挑战。

正如ContentGecko的联合创始人Risto Rehemägi在LinkedIn上的分享所提到的,谷歌可能会采取一种有趣的解决方案来解决模仿内容的问题:信息增益评分。这种评分机制将奖励那些为讨论带来新信息的文章,并惩罚那些没有带来新信息的文章。

这种可能性描绘了一个乐观的前景:与当前的系统不同,该系统奖励公司“摩天大楼”式地复制现有的搜索结果,品牌可以通过提供独特和有价值的内容来脱颖而出。然而,这也意味着竞争越激烈,使用这种策略的公司越多,任何一段时间内获得超额结果的难度就越大。根据我们与数百家SaaS公司合作的经验,今天的SEO比昨天更加困难。

3. 搜索回报率大幅降低

生成式人工智能和ChatGPT可能代表了一个转折点,改变了搜索的本质。搜索引擎不再将搜索者引导到你的网站,奖励你的内容创作投资,而是直接在搜索结果中回答查询。

引用(如下图所示)代表了一种可能的解决方案,但问题仍然存在:如果搜索引擎永远不会将流量发送到你的网站,为什么还要索引你的内容呢?

ChatGPT时代的SEO

搜索更加分散

搜索是一个庞大的生态系统,充满了各种各样的网站、博客和信息源。然而,这个生态系统存在一些问题:搜索结果容易被操纵,而且最重要的是,充斥着错误和不可信的数据。

大型语言模型(LLM)提供了一个有趣的替代方案,正如Dan Shipper的Huberman机器人所展示的那样:

— 选择一个小众话题(例如“健康与健身”)
— 找到一个可信的数据集(例如Huberman的博客文章)
— 使用生成式人工智能生成与该话题相关的新内容

关键是,这些趋势已经存在于今天。生成式人工智能很可能加速我们在搜索中看到的“成熟化”过程:竞争力渗透到除了最小的细分市场之外的所有领域,争夺的关键词越来越少,搜索结果更偏向于大型和已建立的品牌。对于小规模回报,SEO需要更多的努力。

我们该怎么做

这些想法完全属于基于二阶思维的推测领域(对于那些声称有确定性的人,你应该持怀疑态度)。我们自己和我们的客户都在使用SEO,它带来了很好的结果,仍然存在着令人难以置信的机会。只是现在需要更多的思考和更好的执行。

如果你有兴趣,通过采用人工智能技术,公司将有很多机会。现在还处于早期阶段:通过早期采用可以找到杠杆效应,许多公司将在这项技术的支持下建立庞大的流量帝国。从长远来看,也许值得在以下几个方面进行保守:

— 在 "写作 "之外建立团队力量。内容写作只是优秀内容营销人员全部技能中的一小部分。建立一支在更高利用率领域有专长的团队:数据分析、内容发布、行业研究、技术性搜索引擎优化和编辑。聘用愿意尝试的营销通才。

— 开发自己的 "信息增益"。以符合团队优势的方式为内容提供原创信息:建立中小型企业网络、启动年度基准报告,或自如地分享团队的个人经历和见解。

— 在搜索之外实现多样化。想象一下,在最坏的情况下,搜索引擎优化带来的流量会消失吗?对于许多公司来说,答案就在社交内容、社区和媒体营销中,因此值得进行探索。

目前,实验是当务之急:尝试使用生成式人工智能,探索奇特而有趣的用例,并自行发现其优势和局限性。

本文译自 Animalz,由 BALI 编辑发布。

赞一个 (6)