网站的SEO优化是一门学问,通过系统的优化,网站可以快速被百度等搜索引擎收录。
我也并不是这方面的专家,只是搜集整理了一些主要的优化方法和注意事项,供大家参考。
对于新网站,百度等搜索引擎会有一定的扶持,所以在网站上线之前一定要做好规划,为了网站往什么领域发展、所涉猎的内容等都要提前想好。
1、新网站一定要提前想好TDK,这将对SEO起到非常重要的左右,因为搜索引擎首先抓取的就是这个。
TDK指的是什么呢?
-
T:title 网站的标题,包含网站名称和网站的定位关键词,不宜太长。
-
D:description 网站简介,最好保持在50字以内。
-
K:keywords 网站关键词,最好保持在2-30字以内。
TDK在页面头部的meta标签,还有一些其他的,比如:author 网站的作者等等。
代码如下:
<head> <title>w3h5 - 前端资源网</title> <meta name="description" content="w3h5资源网是一个WEB前端资源分享网站,提供技术经验和一些常用的网站工具等。"> <meta name="keywords" content="WEB前端,前端资源网,w3h5"> </head>
2、习惯使用语义化标签,比如h1、h2…..标题标签等。
url采用绝对网址,或者使用网站伪静态,因为搜索引擎是不会抓去动态内容的。
优化HTML、js、css、php等的代码格式。
3、使用网站地图
网站地图一般是制作XML或者html文件,放在网站的根目录,如:Sitemap.XML和Sitemap.html
4、设置alt属性的值,虽然效果不是很大,但是要合理利用资源。
5、除去导出链接,设置友情链接
导出链接是网站中跳到其他网站的链接,点击直接跳出到别的网站。
如果是新站,最好设置几个友情链接,如果没有可以先设置一些站内的链接,但最好是站外的,权重越高越好。
6、网站备案,虽然不备案也可以访问,但是搜索引擎一定会有限收录已备案的网站的。
7、选择稳定安全的服务器,防止网站间歇性无法访问,对SEO是有很大影响的。
8、设置404页面,如果访问的资源不存在,自动跳转到404页面。
9、机器人协议
生成robots.txt放在网站根目录。robots文件包含User-agent: Disallow: 和 Sitemap:
User-agent:用于描述搜索引擎蜘蛛的名字,在" Robots.txt "文件中,如果有多条User-agent记录说明有多个搜索引擎蜘蛛会受到该协议的限制,对该文件来说,至少要有一条User-agent记录。如果该项的值设为*,则该协议对任何搜索引擎蜘蛛均有效,在" Robots.txt "文件中,"User-agent:*"这样的记录只能有一条。
Disallow:不希望被访问到的一个URL,这个URL可以是一条完整的路径,也可以是部分的,任何以Disallow开头的URL均不会被Robot访问到。
例如:
a:"Disallow:/help"是指/help.html 和/help/目录下的页面都不允许搜索引擎蜘蛛抓取。
b:"Disallow:/help/"是指允许搜索引擎蜘蛛抓取/help.html,而不能抓取/help/目录下的页面。
c:Disallow记录为空说明该网站的所有页面都允许被搜索引擎抓取,在"/robots.txt"文件中,至少要有一条Disallow记录。如果"/robots.txt"是一个空文件,则对于所有的搜索引擎蜘蛛,该网站都是开放的可以被抓取的。
#:Robots.txt 协议中的注释符。
Allow:希望被访问的一组URL,与Disallow项相似,这个值可以是一条完整的路径,也可以是路径的前缀,以Allow项的值开头的URL 是允许robot访问的。例如"Allow:/hibaidu"允许robot访问/hibaidu.htm、/hibaiducom.html、/hibaidu/com.html。一个网站的所有URL默认是Allow的,所以Allow通常与Disallow搭配使用,实现允许访问一部分网页同时禁止访问其它所有URL的功能。
Sitemap:地图文件所在的位置。
综合例子 :
a:通过"/robots.txt"禁止所有搜索引擎蜘蛛抓取"/bin/cgi/"目录,以及 "/tmp/"目录和 /foo.html 文件,设置方法如下:
User-agent: * Disallow: /bin/cgi/ Disallow: /tmp/ Disallow: /foo.html
b:通过"/robots.txt"只允许某个搜索引擎抓取,而禁止其他的搜索引擎抓取。如:只允许名为"slurp"的搜索引擎蜘蛛抓取,而拒绝其他的搜索引擎蜘蛛抓取 "/cgi/" 目录下的内容,设置方法如下:
User-agent: * Disallow: /cgi/ User-agent: slurp Disallow:
c:禁止任何搜索引擎抓取我的网站,设置方法如下:
User-agent: * Disallow: /
d:只禁止某个搜索引擎抓取我的网站如:只禁止名为“slurp”的搜索引擎蜘蛛抓取,设置方法如下:
User-agent: slurp Disallow: /
可以在最后一行加上Sitemap:
Sitemap:https://www.w3h5.com/sitemap.xml
未经允许不得转载:w3h5 » 新网站如何做好SEO优化 尽快被收录
原创文章,作者:kepupublish,如若转载,请注明出处:https://blog.ytso.com/tech/pnotes/150197.html