分析*一个因素:
站长对robots文件的写法出现了失误,很多网站的收录有很大一部分是因为robots写法出错,屏蔽了蜘蛛对网页的抓取。
分析第二因素是网站域名整体权重
网站域名的整体权重不够,不同权重的网站蜘蛛抓取网页的时间是不同,权重高自然就时间长,权重低时间就短小。很多权重低的网站 首页和内页达不到网页收录的基本要求。这个就如自然界的动物生存法则一样强者生存,所以提升网站的整体权重对每个网站的网页被收录是十分必要的。
分析第三个因素可能是网站的结构问题
网站的结构设计不合理。网站的结构设计主要体现在网站的物理结构和逻辑结构(URL结构)的设计是否利于搜索引擎蜘蛛的快速引导抓取,同时网站结构的问题会造成不利于网站权重在各个页面之间的传递。这样也会造成网页的收录存在问题。
分析第四个因素是内链的紊乱
一个网页内部的链接可以促使另一个相关页面的*威性和权重提高,这个本来就是建立在一个网页链接要素的基础上,但是网页的内链设计是否有规划也是一个网站整体页面的总体收录是否充分的必要条件,建议每个SEOER应该是先规划在进行网页内链的部署,而不是想到那里链到那里。
分析第五个因素是页面语言搜索引擎不友好
搜索引擎本身是个程序,他只是认识文本类的标签,那些flash、javascript 、ifrmae的元素如果占据网页的主体导入通道都极有可能造成网页无法被收录。
分析第六个因素是网页页面重复的内容多
一个网站很多页面只是标题改改,内容完全一模一样,给用户的感觉这个网站就是在忽悠自己,对搜索引擎来说长久以往就是这个网站内容太单一,因为搜索引擎收录网页索引到搜索数据库是分解成文本文件,这样给蜘蛛的理解就是一个网站的页面有太多的重复,长久以往蜘蛛来的次数也就会越来越少,很大程度影响网站后期页面的收录。 |
|