假设网站选择虚拟空间,就会有一定的流量约束。假设大部分流量被蜘蛛占据,我们需要额外花一些钱购买流量。那么假设一个网站的很多流量都是蜘蛛抓取浪费的,有哪些技巧和方法可以在不影响搜索引擎优化的情况下约束它呢?数字商圈认为我们可以选择以下方法:
1.找出虚假蜘蛛屏蔽IP。
通过对网站日志的分析,我们可以知道,事实上,许多所谓的百度spider或谷歌spider实际上是假的。我们可以通过解决和区分这些虚假蜘蛛的IP来屏蔽它们,这不仅可以节省流量,而且可以降低网站收集的风险。在详细操作中,需要检查IP是否是真正的蜘蛛。操作方法是:单击左下角的开始-操作-CMD-输入指令nslookupip返回车辆以查看结果。假设蜘蛛有蜘蛛符号,而假蜘蛛没有符号。
2.屏蔽无效蜘蛛或搜索引擎优化效果较小的搜索蜘蛛。
比如我们知道谷歌蜘蛛的抓取量很大,但是对于很多职业来说,谷歌的流量很低,搜索引擎的优化效果不好,所以可以屏蔽谷歌蜘蛛的抓取,节省很多流量。比如美丽说网站屏蔽了谷歌蜘蛛的抓取。除了谷歌,还有一些蜘蛛,比如盘古搜索、bing蜘蛛等。这些流量很低,可能几乎没有效果的蜘蛛其实是可以屏蔽的。
3.用robots约束捕获无效页面或重复页面。
有些页面可能曾经存在,但现在没有,也许有动态和静态URL,因为反向链接或数据库有这样的链接,蜘蛛仍然会不时抓取,我们可以找到404页URL,屏蔽这些URL,不仅提高抓取屏蔽也减少流量浪费。
上图为:控制蜘蛛抓取网站抓取页面。
4.限制页面的抓取内容,提高抓取功率和速度,减少抓取流量。
对于任何页面,都有许多无效的噪声区域,如网站登录、注册部分、以下版权信息和一些辅助链接导航,或一些模板有一些蜘蛛无法识别显示模块等,我们可以选择添加Noffollow标签或ajax、JS等方法约束或屏蔽抓取,减少抓取。
5.外部调用或cdn加速蜘蛛抓取,减少服务器响应和流量浪费。
如今,大多数网站使用许多图片、视频和其他多媒体来显示,这些图片缺乏更多的下载流量。假设我们选择外部调用图片,我们可以节省很多蜘蛛抓取流量。现在更好的方法是将图片放在其他服务器上或上传到一些在线磁盘上。
6.利用站长的东西来约束或提高蜘蛛的抓取,或许约束蜘蛛的抓取时间。
现在百度站长渠道和谷歌站长渠道都有站长抓取的东西,可以用来限制蜘蛛抓取的时间和数量。我们可以根据需要合理分配,达到最佳效果。
当然,在实践中,我们也可以根据自己的实际需要进行处理。例如,我们可以在sitemap中为一些抓取量过大的栏目设置较低的抓取频率,如果输入一些重要内容不好,我们也可以添加外部链或内部链进行进步抓取。方法是死的。我们可以根据详细的续期合理设置,以实现更少的抓取和更高的抓取功率。
推荐文章
- 采用多样化的网页加载措施来解决网站优化速度问题。2022-06
- 学会分析外链质量,制定准确的SEO外链策略。2022-06
- 介绍了反向链接与外链的区别与查询方式。2022-06
- 10个平台和方法共享和交换高质量的友情链接。2022-06
- 【新站脱离百度考察期】善用优质内容+优质外链,让新站度过百度考察期。2022-06
- 为什么做页面优化要用静态,静态优化的好处。2022-06
- 介绍企业营销网站早期SEO优化方法。2022-06
- SEO站长坚持SEO优化的目的和意义。2022-06
- SEO优化小白如何将所学的优化知识应用到优化实践中。2022-06
- 网站优化链接:介绍网站标签的选择和布局。2022-06
- 分享搜索引擎抓取手机终端图片的方法。2022-06
- 分析网站白天有快照,晚上没有快照的原因及解决方法。2022-06
- 如何发送SEO外链来提升网站权重?2022-06
- 只要符合修改网站SEO标题的规则,网站就不会降权。2022-05
- 用什么方法可以提高搜索引擎蜘蛛爬行网站的频率。2022-05
- 域名注册信息会不会网站搜索引擎优化排名?2022-05
- 分析付费渠道与免费渠道的区别和优势。2022-05
- 网站内部链接重要吗?如何操作网站内部优化?2022-05