Z-Blog 博客创建设计robots.txt文件

robots.txt文件,相信大部分站长都知道其作用,通过它可以让搜索引擎蜘蛛不抓取网站的部分目录或文件。(需要提醒的是,网站的目录或文件并不是被抓取得越多越好)。使用Z-Blog 博客的博主很多忽略或者不知道怎么写robots文件,博客吧把自己使用的robots文件放出来供各博主参考下。

Z-Blog robots.txt文件:

以下是我的一个ZB博客使用的robots.txt文件。

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
#robots.txt for gmzhen
#User-agent: *
Disallow: /FUNCTION/
Disallow: /CACHE/
Disallow: /XML-RPC/
Disallow: /SCRIPT/
Disallow: /ADMIN/
Disallow: /CSS/
Disallow: /LANGUAGE/
Disallow: /DATA/
Disallow: /THEMES/
Disallow: /INCLUDE/
Disallow: /wap.asp
Disallow: /cmd.asp
Disallow: /c_option.asp
Disallow: /c_custom.asp
Sitemap: http://www.gmzhen.com/sitemap.xml

提示:对robots.txt文件里的内容不懂的,可以参考下博客吧先前的WP中的robots说明
https://www.boke8.net/wordpress-robots-txt.html

提示:对robots.txt设计的文件或目录不懂的,可以参考博客吧先前的ZB博客文件说明
https://www.boke8.net/z-blog-file-use.html

原创文章,作者:3628473679,如若转载,请注明出处:https://blog.ytso.com/247236.html

(0)
上一篇 2022年4月21日
下一篇 2022年4月21日

相关推荐

发表回复

登录后才能评论