无法正常抓取,就是抓取异常,对于大量内容无法正常抓取的网站,搜索引擎会认为网站存在用户体验上的缺陷,并降低对网站的评价,在抓取、索引、权重上都会受到一定程度的负面影响。
网站经常出现抓取失败、抓取异常等,那绝对就是网站服务器出问题了,可能是服务器配置过低,可能是蜘蛛抓取频次过高等等,都上站长平台看一下蜘蛛抓取情况,也看一下网站日志是否存在被攻击等情况。
什么是抓取异常
例如:Baiduspider无法正常抓取,或者其它的搜索引擎无法正常抓取,就是抓取异常。有的时候是因为Robots封禁导致的,作为站长,我们要及时了解自己的网站抓取情况,如存在抓取失败问题需马上解决。
抓取异常对网站有哪些影响
对于大量内容无法正常抓取的网站,搜索引擎会认为网站存在用户体验上的缺陷,并降低对网站的评价,在抓取、索引、权重上都会受到一定程度的负面影响,最终影响到网站从百度获取的流量。
抓取异常的原因有哪些
原因一、网站异常
1、dns异常:比如当Baiduspider无法解析您网站的IP时,会出现DNS异常。可能是您的网站IP地址错误,或者域名服务商把Baiduspider封禁。请使用WHOIS或者host查询自己网站IP地址是否正确且可解析,如果不正确或无法解析,请与域名注册商联系,更新您的IP地址。
2、连接超时:抓取请求连接超时,可能原因服务器过载,网络不稳定
3、抓取超时:抓取请求连接建立后,下载页面速度过慢,导致超时,可能原因服务器过载,带宽不足
4、连接错误:无法连接或者连接建立后对方服务器拒绝
原因二、链接异常
1、访问被拒绝:爬虫发起抓取,httpcode返回码是403
2、找不到页面:爬虫发起抓取,httpcode返回码是404
3、服务器错误:爬虫发起抓取,httpcode返回码是5XX
4、其他错误:爬虫发起抓取,httpcode返回码是4XX,不包括403和404
网站抓取异常的解决办法
网站抓取异常,一般都是服务器存在问题,比如服务器不够稳定。服务器不稳定的因素可能是服务商,因为某区域的网络波动,网站母鸡被攻击之类的。但大多数情况下,也可能是由于网站蜘蛛抓取频繁,抓取频次过高,抓取压力过大,导致服务器宕机,或者服务器时不时的宕机,就会出现偶尔的抓取失败、抓取异常等。
作为站长,我们不仅要经常关注自己的网站,经常查看网站打开是否正常,经常查看蜘蛛抓取情况等等。是否蜘蛛抓取压力过大,应适当的调整抓取频次,或者升级更高级的服务器配置,只有保证服务器稳定,网站才能更好的获得权重和排名。
本文结束
评论专区
发表评论
评论列表(无评论)