解决您的搜索引擎优化技术问题
SEO的技术问题难住了吗?专栏作家Patrick Stox帮助您诊断并解决一些常见问题的一些提示和技巧。
有了清单,告诉你什么技术SEO项目你应该在你的网站上的评论文章很多。这是不是其中的一个列表。我认为人们需要的不是另一个最佳实践指南,但故障问题有一定的帮助。
信息:搜索算子
通常,[信息:https://www.domain.com/page ]可以帮助您诊断各种问题。这个命令会让你知道,如果一个网页被索引和它是如何索引。有时,谷歌选择折叠页一起在他们的指标和治疗两个或两个以上的重复相同的页面。这个命令显示你的规范化的版本不一定是指定的规范标签,而谷歌的意见,他们想指数版本。
如果你搜索你的页面,这个操作符和看到另一个页面,然后你会看到其他的URL排序而不是这一结果的基本上, 谷歌不希望在他们的索引相同网页的两。(即使缓存的版本显示是其他网址!)如果你做出确切的重复整个国家的语言对hreflang标签,例如,页面可以被折叠成一个版本显示错误的页面位置的影响。
偶尔,你会看到这个养老金以及劫持,在[信息]在一个领域/网页搜索会呈现出完全不同的域/页。我有这个维克斯的SEO英雄大赛在今年年初时发生的,当一个更强大和更建立域复制我的网站,能够让我在SERPs位置一会儿。Dan Sharp也这样做谷歌的SEO指南今年早些时候。
过滤= 0添加到谷歌搜索网址
添加过滤0年底的URL在谷歌搜索将删除过滤器和给你更多的网站在谷歌的考虑集。你可能会看到一个页面,当你把这两个版本,这可能表明,没有卷起,重复页面问题;他们都说他们的版本是正确的,例如,有信号支持。
这个URL附录也表明你其他符合条件的网页网站,可以查询排名。如果你有多个符合条件的网页,你可能有机会巩固页面或添加其他相关网页的内部链接到你要的页面排名。
网站:搜索算子
一个[网站:域名.com ]搜索可以显示丰富的关于网站的知识。我要寻找的网页索引的方式,我不希望,如参数,在网站页面我可能不知道,与页面被索引,不应该有任何问题(如开发服务器)。
现场:domain.com关键字
您可以使用[关键词]:domain.com来检查你的网站一看整理或内部链接机会相关的网页。
有趣的是,这个搜索也会显示如果你的网站是一个合格的精选片段,关键词。你可以搜索许多顶级网站看到什么是包含在他们的精选片段,可以找出你的网站是失踪或者为什么一个人可能出现在另一个。
如果你使用一个“短语”而不是一个关键词,可如果内容被谷歌用捡来的检查,这是很方便的,JavaScript驱动的网站。
静态与动态
当你处理JavaScript(JS),了解JS可以重写一个网页的HTML是非常重要的。如果您正在寻找在查看源代码或谷歌的缓存中,你看到的是未经处理的代码。这些都不是什么实际上可能包括一次JS处理意见很大。
使用“检查”而不是“查看源文件”看到加载到DOM(文档对象模型),并使用“读取和渲染”,在谷歌搜索平台而不是谷歌的缓存获得谷歌如何真正看到网页的一个更好的主意。
不要告诉别人这是错误的因为它看起来有趣的缓存中或者不在源;它可能是<em>你</em>是谁的错。有些时候,你看在源说某事是正确的,但在处理的时候,有部分断裂的和使它提前结束,把许多标签规范或hreflang到<体>部分,在那里他们不会支持。
为什么不在身体支持这些标签吗?可能是因为它将允许其他网站网页劫持。
检查重定向报头响应
你可以将这些检查Chrome开发者工具,或使它更容易,你可能想看看这样的扩展重定向路径或链接重定向的痕迹。看到你将被处理是很重要的。如果你担心某个路径,如果信号被合并,选中“链接到你的网站在谷歌搜索“报告控制台和寻找链接页面的链之前去看看他们在报告的页面显示为“通过这个中间环节。”如果他们,它是一个安全的赌注,谷歌希望链接和巩固的信号,最新版本的网页。
为标题反应,事情会变得有趣。而罕见的,你可以看到典型的标签和hreflang标签在这里可以与页面上的其他标签冲突。使用HTTP报头重定向可以问题以及。我不止一次看到有人把“位置:”重定向不在现场的任何信息,然后把人们在网页上,说,一个JS重定向。好了,用户到正确的页面,但Googlebot处理地点:第一次进入深渊。他们重定向到什么之前,他们可以看到其他的重定向。
检查标签的多套
许多标签可以在多个地点,如HTTP标头的<head>部分和网站地图。检查标签之间的任何不一致。没有什么能阻止多套标签页上,要么。也许你的模板添加索引meta robots标签,然后一个插件有一套为noindex。
你不能只是假设有每个项目的一个标签,所以不要停止你的搜索后的第一个。我已经看到了多达四台机器人Meta标签在同一个页面,其中有三套指标,一套为noindex,但那个noindex每次都赢。
改变UA Googlebot
有时候,你只需要看到谷歌认为。有许多有趣的问题在隐形,重定向用户和缓存。你可以改变这个Chrome开发者工具(指令在这里)或一个插件用户代理切换器。我建议如果你打算这样做,你在隐身模式。你想看看Googlebot是不是被重定向到某处,也许他们不能在另一个国家看到一页,因为他们被重定向基于美国IP到不同的页面地址。
robots.txt文件
检查你的robots.txt文件任何可能被封锁。如果你阻止一个页面被抓取和放置一个典型在该网页到另一个网页或noindex标签,谷歌不能抓取页面并不能看到这些标签。
另外很重要的一点是监控你的robots.txt的变化。可能有人会改变什么,或者有可能是同一开发服务器缓存无意的问题,或任何其他的问题,所以重要的是要注意到这个文件的变化。
你可以用一个页面没有被编入索引有问题,无法找出原因。虽然没有正式的支持,通过robots.txt noindex将页的指标,这是另一个可能的位置检查。
保存自己的头痛
任何时候,你可以设置任何自动测试或清除故障点--那些你知道某人,某处会搞乱做。规模化的东西可以作为最好的因为总是比资源要做更多的工作去做。一些简单的设置为提升安全要求内容安全策略什么时候将HTTPS会让你不得不去告诉你所有的开发商,他们要改变这一切的资源来解决混合内容的问题。
如果你知道改变是可能打破其他系统,权衡的结果,改变所需要的资源和机会,打破的东西和所需的资源来修复系统如果发生。总是有技术的SEO取舍,只是因为某件事是对的并不意味着它总是最好的解决方案(不幸的是),所以学习如何与其他团队的工作来衡量的变化你所建议的风险/回报。
总结
在复杂的环境中,可能会有多个团队项目工作。你可能有多个CMS系统、基础设施、CDN等。你认为一切都会改变,一切都会在某一点上突破。有很多失败的地方,它是一个有趣和具有挑战性的技术的SEO工作。