seo文案Robot.txt用法详解和robot.txt问题总结

今日小编将与大家分享文件优化。做网站优化的人应该都知道Robots.txt吧,我们可以通过它直接和搜索引擎蜘蛛交谈,告诉蜘蛛哪些内容可以抓取,哪些内容不能抓取。它与我们今天所说的文件优化有关。第一,站内优化。

详细说明Robot.txt说明和robot.txt问题总结。

为什么要设置Robots.txt呢?

当进行SEO操作时,我们需要告诉搜索引擎哪些网页重要哪些网页不重要,重要的网页让蜘蛛抓取,不重要的网页屏蔽可以减轻网站服务器的负担。

(2)一些常见问题和知识点。

当蜘蛛发现一个网站时,它抓取了网站的Robots.txt文件(当然官方也是这么说的,有时也会出现不遵守的情况);

建议所有网站都设置Robots.txt文件。如果你认为网站上的所有内容都很重要,你可以创建一个空的robots.txt文件;

(3)在robots.txt文件中设置站点地图。

您可以在robots.txt中添加站点地图,告诉蜘蛛站点地图所在地址。

(4)Robots.txt的顺序。

在蜘蛛协议中,Disallow和Allow是有顺序的,这是一个非常重要的问题。如果设置错误,可能会导致抓取错误。

引擎蜘蛛程序将根据匹配成功的Allow或Disallow行确定是否访问URL。一个例子可以让你更清楚地理解:

User-agent:*2.Allow:/seojc/bbs3.Disallow:/seojc/这种情况下,蜘蛛/seojc/bbs目录可以正常捕获,但是/seojc/目录的文件不能捕获。这样,蜘蛛就可以访问特定目录的一部分url。

让我们观察下调位置。

User-agent:*2.Disallow:/根目录下的文件夹/3.Allow:/seojc/bbs/seojc/目录出现在行中,如果目录下的所有文件都被禁止,那么第二行的Allow就无效了,因为行中已经禁止了seojc目录下的所有文件,而bbs目录正好在seowhy目录下。所以比赛失败了。

(5)Robots.txt路径问题。

在蜘蛛协议中,Allow和Disallow可以跟随两种路径形式,即链接和相对链接。链接是完整的网址形式,相对链接只针对根目录。

(6)斜杠问题。

Disallow:/seojc表示禁止在seoicc目录下的所有文件,例如seojc.1.html、seojc/rmjc.php不允许捕获

Disallow:/seojc/表示禁止在seojc目录下捕获文件,即允许捕获seojc.1.html,但不允许捕获seojc/rmjc.php。


上一篇:​从网站初期优化到后期维护的详细描述

下一篇 : ​优化文章标题需要添加排名关键词吗?