1、错误的封禁
在百度的robots.txt的更新上,如果多次点击“检测并更新”就会出现时常可以更新,但是又时常无法更新的问题。如此一来:不应当被收录的东西,在robots.txt上禁止的被收录了,又删除就很正常了。那么它的问题是什么呢?并非服务器负载过度,而是因为防火墙错误的将部分Baiduspider列入了黑名单。
这样的链接其中一个共同的特点是:当打开后,全部都是正常的,那么Spider为什么会报错提醒呢?只是因为在爬虫发起抓取的那一刻,httpcode返回了5XX",你的站点是否频繁有这样的问题呢?有的话需要立即安排技术,或者通报IDC服务商做解决了!
联系人:王女士
手机:189-8878-9544 136-8265-7631
电话:18938867521
邮箱:info@szrl.net
地址: 深圳龙岗区坪地镇六联石碧工业区红岭一路3号A栋
Copyright © 2002-2021 深圳市红叶杰科技有限公司 版权所有粤ICP备17107859号 Sitemap