那么,什么样的网站设计是对搜索引擎友好(Search Engine Friendly)的呢?
我们不妨从搜索引擎蜘蛛的角度去看待一个网站,在抓取、索引和排名时会遇到哪些问题呢?解决了这些问题的网站设计就是对搜索引擎友好的。
1) 搜索引擎蜘蛛能否找到网页?
要让搜索引擎发现网站首页,就必须要有外部链接连到首页,找到首页后,蜘蛛沿着网站的内部链接找到更深层次的内容页面。所以,必须要求网站要有良好的结构,符合逻辑,并且网站内所有页面可以通过可爬行的普通 HTML 链接到好的结构,符合逻辑,并且网站内所有页面可以通过可爬行的普通 HTML 链接到达。
搜索引擎蜘蛛一般不能跟踪爬行 JavaScript 链接、Flash 中的链接等,这就会造成收录问题。
网站所有页面离首页点击距离不能太远,最好在 4~5 次点击之内到达所需页面。要被搜索引擎收录,页面就需要有最基本的权重,良好的网站链接结构可以适当地传递权重,使尽量多的页面达到收录门槛。
2) 找到网页后能否顺利抓取页面内容?
蜘蛛在发现网站的页面之后,作为 SEOer 必须保证 URL 是可以被抓取的,虽然这些 URL 不一定会全部抓取,但需要尽可能地增大页面被抓取的可能性。
数据库动态生成、带有过多参数的 URL、整个页面都是 Flash、框架结构(frame)等都可能使搜索引擎敬而远之。
如果网站内的某些目录或文件不希望被搜索引擎抓取或收录,除了不链接到这些目录或文件意外,更为妥当的方式是使用 robots 协议或 meta robots 标签禁止蜘蛛访问。
3) 抓取页面后能否提取有用信息?
若使搜索引擎抓取页面之后能够快速有效地提取有用的信息,首先必须保证网页代码的精简性,不要过于冗余,也就是网页格式标签所占的比例越小越好,真正的内容所占的比例越大越好,整个网页文件越小越好。
建议将 CSS、JavaScript 通过外部调用的方式写入代码中,尽可能缩减代码行数。
另外,关键词在页面重要位置的合理分布、重要标签的撰写等可以帮助搜索引擎理解页面内容,提取有用信息。
只有搜索引擎能顺利找到所有页面,抓取这些页面并提取其中真正有相关性的内容,网站才可以被视为是对搜索引擎友好的。
原创文章,作者:奋斗,如若转载,请注明出处:https://blog.ytso.com/23545.html