查看原文
其他

SEO实战 | 网站不被百度收录怎么办?

2016-06-19 奔跑的艾米 艾奇SEM

点击上方蓝色字 [ 关注我们 ]

知识 | 产品 | 资讯 | 职场 | 资源 五大版块

从SEM到互联网整合营销

原创作者:奔跑的艾米,艾奇SEM专栏作家
未经授权,禁止转载。欢迎投稿。

微信公众号:奔跑的艾米

收录于SEOER而言,犹如播下的种子开始发芽了。就意味着有机会带来流量。那么,当网站出现不收录的情况是什么原因导致的,应如何解决呢?目前,提升百度收录的常见办法又有哪些?我们一 一来解答。

  • 什么是收录?

  • 网站不被收录的原因有哪些?

  • 如何解决并提升网站收录?

一、什么是收录?

按百度官方最新说法:页面被Baiduspider发现、分析过。简单粗暴的理解。网页被Baiduspider抓取过。

二、网站不被收录的原因有哪些?

1.网站层级结构太深。

可以简单理解为,要达到网站某个页面,需要经过多次点击后才能到达。画个图,方便你理解。如下图,如果首页没有详情页的推荐位,要到达详情页需要经过6次点击方能抵达。于搜索引擎来说,层级越深也越难发现链接的存在,或者说,即便发现了,抓取的优先级也是排在最后面。可以试想下在职场发展,一线员工距离CEO的位置。大概就能理解了。越是一线员工,就越人微言轻。权重当然来不及经理的分量。CEO对一线员工的重视程度,相对而言就会少一些。


网站层级

2.URL规则设置不合理

URL使用多参数的动态链接,导致搜索引擎蜘蛛掉入黑洞。简单理解,因为有多个参数,导致内容雷同,相当于让蜘蛛无限循环的抓取重复页面,浪费抓取资源。导致有效页面没机会被抓取到。最常见的就是组合筛选页面。

3.网站内容质量太差

搜索引擎蜘蛛发现URL,是否会进一步分析,有一部分原因也取决于内容质量。比如,一个采集站,内容全部采集于网络。那么也经常会出现收录不正常。这个容易理解,于百度蜘蛛而言,重复的内容无任何价值可言,抓取也是浪费资源的行为。

4.新站

新站一般都有一定的考核周期,收录周期,短则1个月,长则4个月。经验谈。但如果结合百度推出的最新链接提交建议,也可以解决新站收录问题。

三、如何解决并提升网站收录?

1.层级太深问题:优化网站结构,网站层级结构控制在三层。如,首页-->栏目页-->详情页。如果是已经运营一段时间的老站,仅是部分层级深的页面不收录,可根据页面的重要程度,适当地在首页或者栏目页给增加些入口

2.URL多参数问题:URL伪静态化,与开发GG沟通。同时,对于没有收录价值的页面采用ROBOTS进行屏蔽。

3.内容质量太差:停止采集,甚至外聘高质量写手开始大量投入。(个人站长就没得说了,勤快点的,自己动手写)

4.常见的链接提交方法,可快速提升网站收录。

a.使用sitemap提交。方便搜索引擎蜘蛛发现网站要被收录的链接。
具体做法在此不叨,自行补脑:

b.页面数量较少的,100个以下的,可以使用手动提交。方法:百度站长平台---〉链接提交
--〉手动提交。

c.量级大的,百万级以上。采用主动推送。注册个百度站长平台,按下图指引,让开发GG按下图开发即可。


主动实时推送

简单粗暴教大家,何为收录,不收录的原因及解决办法,不知道大家是否有get?

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存