SEOER每天都有一个固定的任何就是检查网站友链情况,如果出现死链都会立马删除,为什么SEOER对死链那么重视呢?
一、死链对网站SEO影响
1、死链接会损失PR值
PR值是通过链接来传递的。网站中存在死链接无疑会造成网站内部PR值的流失。
假设一个网站的网站结构布局的相当好,但是在网站当中存在不少的死链接,那这个网站的结构设计的再好,也发挥不了用处。
2、损失搜索引擎排名
假设你某个网页没有变成死链接之前,这个页面在搜索引擎上有良好的排位。但如果因为缺乏有效的SEO项目管理,页面变成死链接之后。这个页面的搜索引擎排名,不会超过一个星期的时间,马上就会在搜索引擎上消失掉。
3、损失用户体验
不要无视一个死链接带来的影响,要知道用户忠诚度也是要靠积累起来的。用户体验才是网站最终发展的基石。
二、如何防范死链接
1、网站上传前,利用网页制作工具检查链接情况,以将无效链接扼杀在上传前。
2、提高网站管理人员的意识,定期使用网站死链接检测工具,来查询网站是否存在死链接。
3、解决网站程序错误。
4、制作404页面,跳转到正常页面。
三、如何找到死链接
1、Google网站管理员工具,可以找出Google收录的网页上的死链接总个数以及链接形式,但只能是对经过验证的网站进行检查;
2、Xenu-死链接检测工具,一个需要安装的客户端软件,可以对所有网站进行马上检查。检查结果数据报告非常详细;
3、站长工具死链接检测,一个网页在线死链检测工具;
四、如何处理死链接
1、使用Robots.txt屏蔽或者使用301重定向
对于这个方法是很多站长最长使用的方法之一。但是这个也会遇到一个问题,那就是如果你的站点的内容很庞大,就如笔者观察的站点,在改版升级之前收录 有26万3000,如下图所示,能不能使用这两个方法呢?因为这个站点改版后,内容层次分布有改动,所以没办法用简单的Robots文件屏蔽,只能使用 301重定向,但是这么大的收录量,使用这个方法是最耗时耗力的方法。
2、Disallow:死链接绝对网址
每个死链接地址对应一条命令语句。命令的含义是:禁止搜索引擎访问抓取死链接。文档编辑好后,将robots.txt上传到网站根目录即可实现对死链接的屏蔽。
3、直接使用404错误页面
这个方法对于收录量大的站点还是很有用的,将站点内部存在的死链接直接跳转到404错误页面。然后通过404页面将用户引导到改版后的页面。这 样可以降低网站推广流量的流失,使得用户可以找到站点。对于404页面的跳转时间的设置,最好在5秒左右,而且页面有引诱访客自行点击的链接!