robots.txt文件,相信大部分站长都知道其作用,通过它可以让搜索引擎蜘蛛不抓取网站的部分目录或文件。(需要提醒的是,网站的目录或文件并不是被抓取得越多越好)。使用Z-Blog 博客的博主很多忽略或者不知道怎么写robots文件,博客吧把自己使用的robots文件放出来供各博主参考下。
Z-Blog robots.txt文件:
以下是我的一个ZB博客使用的robots.txt文件。
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 |
#robots.txt for gmzhen #User-agent: * Disallow: /FUNCTION/ Disallow: /CACHE/ Disallow: /XML-RPC/ Disallow: /SCRIPT/ Disallow: /ADMIN/ Disallow: /CSS/ Disallow: /LANGUAGE/ Disallow: /DATA/ Disallow: /THEMES/ Disallow: /INCLUDE/ Disallow: /wap.asp Disallow: /cmd.asp Disallow: /c_option.asp Disallow: /c_custom.asp Sitemap: http://www.gmzhen.com/sitemap.xml |
提示:对robots.txt文件里的内容不懂的,可以参考下博客吧先前的WP中的robots说明
https://www.boke8.net/wordpress-robots-txt.html
提示:对robots.txt设计的文件或目录不懂的,可以参考博客吧先前的ZB博客文件说明
https://www.boke8.net/z-blog-file-use.html
原创文章,作者:3628473679,如若转载,请注明出处:https://blog.ytso.com/247236.html