来源:www.wangzhan.net.cn 时间:2020-10-21 11:06:22 浏览:2162次
网站开始优化的时候我们会都会现在网站的基础代码入手,去剔除哪些冗余的代码,也会增加一些细节标记让网站看起来更完整,便于搜索引擎蜘蛛爬行抓取的时候能够更加快捷的来收录站点,给予页面质量的评分。不过我们也要知道很多站点并不是从开始进入每位SEOer中的,他们可能已经经历了一下“改造”,且不说这些更新是否对网站有利,不同是SEOer在技术操作上的应用是不同的,所以不论站点是否进行了代码的优化,新接手的SEOer都会从开始进行。所以在正式开始一个站点的优化时候,我们开始要做的就是检查网站的技术弊端。
通常情况下,我们会根据网站的爬网,网站索引建立乃至搜索引擎算法的处罚问题来进行站点技术弊端分析,简单来例举一下:
1、网站体系结构问题:不必要的301重定向,孤立的页面,nofollow;
2、网站索引和抓取问题:规范化页面结构,noindex,nofollow,301重定向,robots.txt,服务器错误;
3、网站重复的内容和页面上的SEO问题:页面重复的文本,分页,基于参数,重复/缺少标题页面,h1等。
一般我们根据上面的注意点来逐一检查网站是否存在这样或者那样的技术弊端。通过对一些站点的检查,我们常见的技术弊端大概有这样的几种。大家不妨一起来看看,是否在分析的时候也遇到了同类型的问题。
1、死链接
死链接通俗的解释就断开的链接,我们知道大量的死链会影响搜索引擎对网站质量的评分,不过重点在于数量的。不过大家可能不知道的是,如果重要的链接断开了,那么不管是数量多少都会影响网站的推广优化。这里笔者说到的重要的链接是指内部链接或者是站内的指向外部站点的出站链接。举例来说主页链接,如果主页链接一直良好那么当然就可以确保基本的SEO良好和可用性。如果导航栏目中的任何一个链接成为了死链,那么对站点的评分就会产生影响,但是如果我们对网站设置了404,也就是说当链接成为断开链接的时候返回的代码是404,那么对于站点影响会小很多,所以这也是我们做网站优化的时候一定不会忽略的技术操作。
2、易忽略的重定向
301重定向是SEOer都比较喜欢做的一个细节操作,我们普通认为做好网站的301重定向有助于网站权重集中,更有助于网站排名优化和网站页面收录。但是问题是如果网站搬家的时候,我们常常会忽略掉301页面的重定向。也就是我们常常忘记更正指向旧页面的内部链接也就是具有301重定向的页面。举例来说,一个收录页面重定向到了新的页面,但是很多seoer会忽略到其中包含的超链接的重定向规则,这就造成了很多页面依然指向了旧网站,这容易造成网站权重的分散。
3、多个子域名规范化www或非www版本
虽然子域名规范化是SEO的第一项基本原则之一,但是仍然有大量的旧站点通过不使用将www重定向到非www或反过来将其链接权限分裂了。不论是哪种类型的站点,笔者建议我们对子域名也同样要规范化,简单的操作就是我们可以使用htaccess文件为所有这些子域创建301重定向到www主站点,这样的操作很简答,如果不会书写也不要紧,可以私信笔者可以告诉大家编辑规则。
4、保持URL结构一致
URL的一致性很重要,当然这仅在外部链接指向错误的URL时才成为问题。我们知道每个反向链接都是宝贵的,我们要确保从每个反向链接中获得最大价值。除了我们可以控制我们如何链接到它如,没有www,大写字母或斜杠。无需联系网站管理员进行更改,我们始终可以采用301重定向来利用尽可能多的价值。我们都知道在外部链接源方面,www.a.com/b与www.a.com/B是不同的。作为好的SEOer,我们通常通过使用永久性重定向规则来强制实施URL的一个版本来解决人为错误,如果有人链接到重定向则可能导致不必要的重定向。我们要确定URL结构,它们是否都应带有斜杠www,小写无论我们做出什么决定,都要保持一致,这样可以避免将来出现问题。
5、检查搜索引擎处罚
网站是否被搜索引擎处罚关系到我们下一步的操作和整体的SEO方案的实施。想要知道我们的站点到底有没有被搜索引擎处罚直接的方法是site我们的域名是否在首位,或者是看整体标题排名能否出现在网站的首页。
6、页面规范化,noindex,nofollow,robots.txt
我们都比较了解开发人员的搜索引擎优化方式,并对网站有更多的见解。除非我们有正当理由,否则我们不会详细检查网站的一些细节标签。对于网站细节的优化,尤其是在大型网站上,首先,最重要的是检查robots.txt并浏览一些被阻止的目录,尝试确定为什么被阻止以及它们阻止了哪些bot。接下来,混合使用Screaming Frog,因为它的内部爬网报告将自动检查每个URL的元数据noindex,标头级别nofollow和Follow并在存在的情况下为我们提供规范的URL。如果我们需要立即做出判断,那么我们应该做的第一件事就是了解正在使用哪些标签以及为什么使用它们。去分析一些收录页面的价值,如果这些页面都是有价值的,吸引流量的网页,那么我们建议他们删除NOINDEX。
7、网站页面数量和搜索引擎索引的页数
如果我们真正想知道的是搜索引擎索引了多少页,有两种方法可以使用搜索引擎网站站长工具,通过提交站点地图,我们将获得有关索引中实际包含多少个网址的统计信息。或者,我们可以在没有访问权限的情况下执行此操作,但是效率低得多,就是使用站点工具中的收录页面检查,效率要高于我们人工的逐一排除。当然很多时候我们发现索引数据和收录数据乃至网站页面数据是有所不同的。这我们可能遇到了复杂的问题或者就像使用规范,noindex或301重定向一样简单。不要试图通过robots.txt阻止不需要的页面,因为这不会从索引中删除页面,只会阻止对这些页面进行爬网。
大多的网站技术弊端检查都会通过这些问题来检查,当然还有关于网站内容问题的,虽然大多搜索引擎都对重复页面有不同程度的规则和处罚措施,不过声明过于模糊或者直接是没有直接官方定论。不同于这些搜索引擎,谷歌和百度都对这样的页面有比较正规的算法说明。下面笔者以谷歌的熊猫算法为例来说明一下这方面的技术弊端问题。要知道谷歌的Panda更新绝对是改变内容规则的工具,发布的同时对某些网站造成了巨大损失。避免至少部分破坏Panda破坏性途径的最简单方法之一就是避免网站上所有重复的内容。
1、基于参数的复制,诸如search =keyword=之类的URL参数通常会无意间导致重复。笔者给出一般性建议是首先使用干净的链接,根据站点的复杂程度我们可能会考虑使用301,规范标记甚至NOINDEX。无论哪种方式,我们都要解决这样的重复是的展示形式。
2、重复的文字内容,如果网站在多个页面上使用相同的文字不应构成违规的话那么在发布Panda之后,我们的站点最好还是完全避免这样的内容页面。笔者不想让大家失望,但是找到重复的文本内容并没有确切的科学依据。不过,我们尽可能编写独特的内容或者伪原创高一点将其粘贴在图片中来展示也是可以的。
3、分页引起的重复,第1页,第2页,第3页...我们得到图片。随着时间的流逝,由于这些漂亮的页面链接,站点可以积累成千上万个即使不是数百万个重复页面。笔者曾经见过一个网站,其中一个产品页面就有几百页之多,这样就大量的样板文字页面出现了。这样的情况我们一般建议是使用NOINDEX,FOLLOW指令。这就告诉搜索引擎不要将此页面添加到索引中,而是要在页面中进行爬网。另一种选择是使用规范标签,但这完全取决于存在分页的原因如,如果我们的产品分为3页,则绝对是希望它们全部编入索引。但是,这些示例页面很薄,对于搜索引擎而言可能会被认为是低质量页面。
24小时服务热线:400-1180-360
业务 QQ: 444961110电话: 0311-80740308
渠道合作: 444961110@qq.com
河北供求互联信息技术有限公司(河北供求网)诞生于2003年4月,是康灵集团旗下子公司,也是河北省首批从事网站建设、电子商务开发,并获得国家工业和信息化部资质认证的企业。公司自成立以来,以传播互联网文化为已任, 以高科技为起点,以网络营销研究与应用为核心,致力于为各企事业单位提供网络域名注册、虚拟主机租用、网站制作与维护、网站推广和宣传、网站改版与翻译、移动互联网营销平台开发与运营、企业邮局、网络支付、系统集成、软件开发、电子商务解决方案等优质的信息技术服务,与中国科学院计算机网络信息中心、腾讯、百度、阿里巴巴、搜狗、360、电信、联通、中国数据、万网、中资源、阳光互联、点点客、北龙中网、电信通等达成战略合作伙伴关系。