网站优化必写的robots协议,robots协议优化WordPress博客站?robots协议写法

seo基础     2020-12-29    浏览:0

robots协议优化WordPress博客站?robots协议写法

如何利用robots协议优化你的WordPress博客站

很多新手建站朋友对robots协议文件的重要性不是很清楚,本篇文章由昆明SEO博主普及一下 WordPress站点robots协议文件编写知识。robots协议(也称为爬虫协议、机器人协议 等)的全称是“网络爬虫排除标准”(Robots Exclusion Protocol),网站通过robots协议告诉搜索引擎哪些页面可以抓取,哪些页面不能抓取。robots协议主要注意以下几大方面:

一、使用robots协议需要注意的几点地方:

1、指令区分大小写,忽略未知指令。

2、每一行代表一个指令,空白和隔行会被忽略。

3、“#”号后的字符参数会被忽略。

4、有独立User-agent的规则,会排除在通配“*”User agent的规则之外。

5、可以写入sitemap文件的链接,方便搜索引擎蜘蛛爬行整站内容。

6、尽量少用Allow指令,因为不同的搜索引擎对不同位置的Allow指令会有不同看待。

7、robots.txt 文件必须放在网站的根目录,不可以放在子目录。

二、robots协议文件写法:

1、User-agent: * 这里的*代表的所有的搜索引擎种类,*是一个通配符

2、Disallow: /admin/ 这里定义是禁止爬寻admin目录下面的目录

3、Disallow: /require/ 这里定义是禁止爬寻require目录下面的目录

4、Disallow: /ABC/ 这里定义是禁止爬寻ABC目录下面的目录

5、Disallow: /cgi-bin*/trackback //屏蔽wordpress分类目录、文章页面的回评路径

11、Disallow: /feed //屏蔽wordpress的内容订阅路径

12、Disallow: feed //屏蔽wordpress分类目录、文章页面的订阅路径

13、Disallow: /comments/feed //屏幕wordpress评论的订阅路径

14、Disallow: /page/ //屏蔽默认的翻页路径

15、Disallow: page/ //屏蔽分类目录的翻页路径

16、Disallow: /page/1$ //屏蔽翻页路径中的数字路径

17、Disallow: /tag/ //屏蔽标签页面

18、Disallow: /?s=* //屏蔽搜索结果路径,主要是避免搜索结果的缓存被搜索引擎收录

19、Disallow: /date/ //屏蔽按日期分类显示的列表页面

20、Disallow: /author/ //屏蔽作者文章列表页面

21、Disallow: /category/ //屏蔽以category为起始路径的分类路径,如果您没有使用插件生成不带category前缀的路径时,请不要使用此项规则。

22、Disallow: /wp-login.php //屏蔽后台登陆页面

四、robots协议设置方法

1、写好之后把文件重命名为:robots.txt 然后用FTP上传到网站的根目录下面,切记不是主题的根目录下而是网站的根目录。

2、利用站长工具自动生成,网址:http://tool.chinaz.com/robots/

3、利用SEO插件设置,比如Yoast SEO、all in one seo

五、robots协议的作用

1、引导搜索引擎蜘蛛抓取指定栏目或内容;

2、网站改版或者URL重写优化时候屏蔽对搜索引擎不友好的链接;

3、屏蔽死链接、404错误页面;

4、屏蔽无内容、无价值页面;

5、屏蔽重复页面,如评论页、搜索结果页;

6、屏蔽任何不想被收录的页面;

7、引导蜘蛛抓取网站地图;

六、如何查看robots协议:

1、WordPress站点默认在浏览器中输入:http://你的域名/robots.txt

2、打开FTP,找到网站根目录查看robots.txt文件

总结:robots协议需要的注意地方,以及写法,设置方法,作用,如何查看就介绍到这里,相信大家对robot协议已经有了比较详细的了解。使用 好robots协议对于我们网站的SEO有着重要作用,做的好可以有效的屏蔽那些我们不想让搜索引擎抓取的页面,也就是对用户体验不高的页面,从而将有利 于关键词排名的内页充分展示个客户,获得搜索引擎对站内页面的权重,从而有利于我们将网站关键词排名做的更好,从而获取更多流量。


如何利用robots协议优化你的WordPress博客站

很多新手建站朋友对robots协议文件的重要性不是很清楚,本篇文章由昆明SEO博主普及一下 WordPress站点robots协议文件编写知识。robots协议(也称为爬虫协议、机器人协议 等)的全称是“网络爬虫排除标准”(Robots Exclusion Protocol),网站通过robots协议告诉搜索引擎哪些页面可以抓取,哪些页面不能抓取。robots协议主要注意以下几大方面:

如何利用robots协议优化你的WordPress博客站 三联

一、使用robots协议需要注意的几点地方:

1、指令区分大小写,忽略未知指令。

2、每一行代表一个指令,空白和隔行会被忽略。

3、“#”号后的字符参数会被忽略。

4、有独立User-agent的规则,会排除在通配“*”User agent的规则之外。

5、可以写入sitemap文件的链接,方便搜索引擎蜘蛛爬行整站内容。

6、尽量少用Allow指令,因为不同的搜索引擎对不同位置的Allow指令会有不同看待。

7、robots.txt 文件必须放在网站的根目录,不可以放在子目录。

二、robots协议文件写法:

robots协议写法

1、User-agent: * 这里的*代表的所有的搜索引擎种类,*是一个通配符

2、Disallow: /admin/ 这里定义是禁止爬寻admin目录下面的目录

3、Disallow: /require/ 这里定义是禁止爬寻require目录下面的目录

4、Disallow: /ABC/ 这里定义是禁止爬寻ABC目录下面的目录

5、Disallow: /cgi-bin*/trackback //屏蔽wordpress分类目录、文章页面的回评路径

11、Disallow: /feed //屏蔽wordpress的内容订阅路径

12、Disallow: feed //屏蔽wordpress分类目录、文章页面的订阅路径

13、Disallow: /comments/feed //屏幕wordpress评论的订阅路径

14、Disallow: /page/ //屏蔽默认的翻页路径

15、Disallow: page/ //屏蔽分类目录的翻页路径

16、Disallow: /page/1$ //屏蔽翻页路径中的数字路径

17、Disallow: /tag/ //屏蔽标签页面

18、Disallow: /?s=* //屏蔽搜索结果路径,主要是避免搜索结果的缓存被搜索引擎收录

19、Disallow: /date/ //屏蔽按日期分类显示的列表页面

20、Disallow: /author/ //屏蔽作者文章列表页面

21、Disallow: /category/ //屏蔽以category为起始路径的分类路径,如果您没有使用插件生成不带category前缀的路径时,请不要使用此项规则。

22、Disallow: /wp-login.php //屏蔽后台登陆页面

四、robots协议设置方法

1、写好之后把文件重命名为:robots.txt 然后用FTP上传到网站的根目录下面,切记不是主题的根目录下而是网站的根目录。

利用FTP上传robots.txt协议文件

2、利用站长工具自动生成,网址:http://tool.chinaz.com/robots/

3、利用SEO插件设置,比如Yoast SEO、all in one seo

五、robots协议的作用

1、引导搜索引擎蜘蛛抓取指定栏目或内容;

2、网站改版或者URL重写优化时候屏蔽对搜索引擎不友好的链接;

3、屏蔽死链接、404错误页面;

4、屏蔽无内容、无价值页面;

5、屏蔽重复页面,如评论页、搜索结果页;

6、屏蔽任何不想被收录的页面;

7、引导蜘蛛抓取网站地图;

六、如何查看robots协议:

1、WordPress站点默认在浏览器中输入:http://你的域名/robots.txt

比如星辰seo博客:http://xxjz001.com/robots.txt

如何在浏览器查看robots协议文件

2、打开FTP,找到网站根目录查看robots.txt文件

总结:robots协议需要的注意地方,以及写法,设置方法,作用,如何查看就介绍到这里,相信大家对robot协议已经有了比较详细的了解。使用 好robots协议对于我们网站的SEO有着重要作用,做的好可以有效的屏蔽那些我们不想让搜索引擎抓取的页面,也就是对用户体验不高的页面,从而将有利 于关键词排名的内页充分展示个客户,获得搜索引擎对站内页面的权重,从而有利于我们将网站关键词排名做的更好,从而获取更多流量。

作者:星辰seo博客


如何制作网站地图并规范robots协议内容
网站地图的制作在seo优化中也是占据很重要一部分的,网站地图制作好了可以更加有利于蜘蛛对我们网站信息的检索与抓取,他会对网页信息进行方向引导,给搜索引擎蜘蛛的爬行提供一个路径,快速准确的抓取网站内容。
我们可以利用小爬虫工具、爱站工具等来生成网站地图。我们首先打开爱站工具包,选择网站地图,然后左侧选择添加网站,将网址输入后选择xml选项,将里面的顶部的所有文件选项勾选之后点击抓爬,完成后生成xml文件,最后将生成之后的sitemap后缀为html、xml、txt的文件上传到网站后台的根目录中即可。这样,只要有用户进入就会抓取了。
robots协议又是什么?该如何书写它呢?robot协议就是给搜索引擎蜘蛛的一个规定,我们利用这个文件来限制搜索引擎的抓取范围,尊重信息提供者意愿并维护其隐私权,保护我们的隐私不被搜索引擎抓取的一份内容。这个有我们自己进行编辑规定。
robots协议的编辑会用到三个标签:1、User-agent: 蜘蛛名称(这里个User-agent 指定搜索引擎蜘蛛名称)2、Disallow: 内容名称(代表要禁止抓取的内容)3、Allow:内容名称(代表允许抓取的内容)。这些标签后书写的就是协议的内容,还会用到3个通配符来编辑:"*"表示涵盖所有搜索引擎;"$"表示以某字符串结尾;"/"表示当前目录下的所有内容。当编辑完协议内容后可在最后添加“Sitemap:网站域名/sitemap.xml”,用地图让蜘蛛更快速的抵达我们的网站。
SEO的日常工作比较细致,查看我们网站的日志也是需要关注的。从网站后台空间找到文件管理,然后打开logs文件,将最新的日志文件载到桌面,然后使用光年日志分析系统等工具对其进行分析,可以看到蜘蛛爬行过的记录以及一些问题,需要及时查看并解决掉。
robots协议是什么?它对搜索引擎优化有什么重要作用?
内链优化是要点。内链建设在网站运营过程中从始至终都存在而且需要细节操作。注意点有,是否有意识在做内链,内链的规划是否围绕关键词,内链锚文本的准确性,内链的数量控制,内链的形式等等。

相关搜索

相似文章

网站改版与优化协议书,robots协议优化WordPress博客站?robots协议写法 2020-12-29

如何利用robots协议优化你的WordPress博客站 2020-12-29

如何利用robots协议优化你的WordPress博客站_1 2020-12-29

详解robots.txt协议,robots.txt文件写法解读 2020-12-29

robots协议的认识与写法 2020-12-29

比较详细的robots.txt协议文件写法 2020-12-29

网站优化利器:robots协议规范书写 2020-12-29

robots协议,什么是robots协议? 2020-12-29

网站优化中robots协议的重要性 2020-12-29

搜索协议robots升级优化视频类网站收录,视频网站将不需要robots 2020-12-29