首页 >> 常见问题

影响网页收录的两个方面

网页收录是SEO中的基础工作,网页有了收录,才能谈到排序,然而,这个SEO基础工作似乎Seoer都没有很好的完成。

我们清楚,搜索引擎的爬虫程序是按照链接依次来寻找新的网页,自动抓取链接的有广度和深度策略,从搜索引擎自身服务器的资源消耗来讲,一般会考虑广度优先抓取策略。

另外,对于搜索引擎来讲,自身服务器中不会存在很多对于用户意义不大的网页内容,首先这样可以降低自身服务器资源的占用,另外对于搜索结果的用户体验,也有很大的帮助,所以,一些被大量转载的文章就算抓取成功(网页日志中的200代码),也会在预处理阶段被过滤。

有了以上的了解,那么,我们找到一些影响网页收录的因素。

链接逻辑结构对网页收录的影响

经常会谈到网页结构,利于SEO的网页结构是扁平的树形网状结构,其中的逻辑结构在很大程度上会给网页收录造成影响,在物理结构上,无论我们的URL层数有多少,有多深,如果在较浅的URL(网页)上面能够能够获取较深的URL网页,同样是可以被收录的,很多大型门户的URL相对都比较深,但其收录都不会收到影响,个人有所了解的是腾讯。

非常典型的作法就是网站地图。很多网站谷歌收录的非常好,除了谷歌对网页质量的判断相对宽泛外,它还支持直接提交地图,一般是在谷歌网站站长工具中提交或者将地图文件放在robots.txt文件中用Sitemap命令来调用,当谷歌搜索引擎在抓取 robots.txt 文件的时候,会检测到其中的地图引用。以前对百度不清楚,就目前来看,百度同样可以检测到Sitemap命令中的地图引用。

除了robots.txt文件,我们可以在网页上放置地图文件,一般是将整个网站的重要目录和更新文件放入其中,这样便于对新网页的收录。

上面主要是从搜索引擎广度策略来建立良好的网页收录方式,同样深度策略我们同样不能忽视。

对于网页中的链接,除了良好的内部链接可以促进爬虫去抓取这些网页外,构造不同纬度的链接同等重要。

内容对网页收录的影响

每个搜索引擎在处理网页的过程中都会消耗自身的服务器资源,对于大量转载的网页,过滤掉这些网页可以很大程度上节约资源用于其他,所以网页质量对于网页收录来讲,非常重要而且是基础,搜索引擎在内容质量的判断上,谷歌明显由于百度,而百度所提到的内容增益的确是有利与用户体验,但最基本的版权维护应该高于所谓的内容增益。

我们为了应对这样的过滤机制,伪原创变得非常好使,因为那样可以让网页正常收录。在没有原创文章思路的基础上,这样的操作方式还是值得尝试,但有时候如何要好好伪一篇文章,往往比写原创还浪费时间,如果没有写作思路,那还是伪原创吧,不过要多了解搜索处理网页的原理,不然辛辛苦苦伪原创结果还是被过滤掉了。

对于网页大小方面,还是适当考虑下,搜索引擎方面认为,内容太少的网页可能带给用户的信息非常少,如果内容够多,那么,可能会给用户带来非常丰富的信息。如果不能写太多的内容,我们可以适当利用相关链接或用户行为来构造网页内容,最常见的做法是文章底部出现相关链接,每篇文章下面有评论或回复功能,这些方式也能为网页增加不少内容,对收录也是很有帮助的。

联系我们
地址:广州市番禺区洛溪沿沙东路丽江商务中心316房
电话:020 - 39173210
传真:020 - 66699715-888
邮箱:iesale@foxmail.com
返回顶部
短信咨询
电话咨询
联系我们