公司新闻常见问题行业动态
搜索引擎不抓取页面 服务器端的五个问题
浏览量:1,728     所属栏目:【行业动态】    时间:2021-09-09

1、错误的封禁

在百度的robots.txt的更新上,如果多次点击“检测并更新”就会出现时常可以更新,但是又时常无法更新的问题。如此一来:不应当被收录的东西,在robots.txt上禁止的被收录了,又删除就很正常了。那么它的问题是什么呢?并非服务器负载过度,而是因为防火墙错误的将部分Baiduspider列入了黑名单。

2、服务器异常

常规的服务器就不说了,大家都知道的,北上广的一般都不错。不过有一些特殊服务器,想必绝大多数的站长都不知道吧?例如西部数码的“港台服务器”就很有趣,真的是港台的吗?本身机房在国内,还算什么港台?为了逃避备案而用一个港台的IP,数据全部在国内。

这样有什么不好呢?我们会发现:站点的服务器是经过CDN的,哪怕是你上传的一张图片,都会显示为“302状态码”,访问速度是提升上去了,可是这样利于SEO吗?

3、获取不到真实IP

规模较大的网站,一般都会使用CDN加速,但是有些站点不仅仅对“设备”使用了CDN加速,而且还对Spider使用了加速功能。后的结果是什么呢?如果CDN节点不稳定,那么对网站spider来讲,这个问题将是致命的。

很多大型站点开放CDN的原因就是容易被攻击,这个时候如果不做“蜘蛛回源”就可想而知了。你的站点做了CDN了吗?请登录百度站长平台查看一下spider是否可以抓取真实IP地址吧!

网站首页 关于我们 产品中心 新闻中心 成功案例 人才招聘 联系我们

Copyright @ 2024 攀升平面设计网 版权所有     
电话:      手机:13124917250
1047557584@qq.com
地址:湛江市麻章区湖光镇赤忏村

    ICP备案编号:粤ICP备2022150169号No:79064

扫一扫  关注微信