seo优化中蜘蛛陷阱是什么?如何避免?

- - 阅读:

 
 
         这是本站首次提及搜索引擎蜘蛛这个名词,我们先来看看什么叫做搜索引擎蜘蛛:蜘蛛,是搜索引擎的一个自动程序。它的作用是访问收集整理互联网上的网页、图片、视频等内容,然后分门别类建立索引数据库,使用户能在搜索引擎中搜索到您网站的网页、图片、视频等内容。
 
         解释一下就是:搜索引擎蜘蛛是一个自动爬取网络上的网页信息的一个程序,爬取过的页面会被收录,然后根据页面的信息进行分类,一系列的操作完成后,用户搜索关键词,搜索引擎就会根据用户的关键词来展现相关的页面。实际上,并不是所有的页面都会获得收录或者展现。到底会不会获得收录和展现,这就是seo的工作内容了。
 
         在前面说过,搜索引擎会访问收集互联网上的图片、视频等内容,其实这个说法并不是很严谨,为什么这么说呢?请仔细往下看。
 
         在搜索引擎的工作原理中,我们发现,搜索引擎对于网页信息的判断主要来自于文本内容,也就是说文字写的是啥搜索引擎就会判断为这个网页想要表达的是什么意思。对于网页上的图片,视频,flash,js特效等信息,搜索引擎并不知道这些事什么东西,无法判断出这里面承载的是什么样的内容。无法识别也就不会去抓取,更不要提收录或者关键词排名了。
 
         所以,对于网页上的图片,视频,flash动画,js特效,iframe框架等等我们称之为蜘蛛陷阱。在日常的seo优化过程中,蜘蛛陷阱是一个很大的阻碍因素,熟悉了解,正确的避免蜘蛛陷阱是seo优化人员所必须掌握的技能。
 

         那么,如何避免蜘蛛陷阱呢?

 
         1,网站整体。网站需要一些炫酷的特效作为装饰,例如幻灯片,动画特效,鼠标特效等等,很多都是借助js来实现的。js代码搜索引擎是无法识别的,并不知道这个代码是什么意思。而且大量的应用js会严重拖慢网页的加载速度,影响用户体验。所以百度在mip移动页面中禁止了js代码,不准使用。导航是搜索引擎最先到达最先抓取的地方,是一个网站链接最集中的地方,很多网站为了追求美观,炫酷,在导航中应用了js特效。殊不知这是一种作大死的行为。蜘蛛连导航都无法识别抓取,那其他页面的待遇可想而知。
 
         网页的轮播图或者栏目页的广告图可以使用js来做点特效,因为这些不会在搜索结果中展现。但是文章列表的缩略图或者文章的内容配图一定不能使用js来生成。对于不想被搜索引擎抓取的地方可以使用iframe框架。
 
         2,图片。实际上谷歌搜索引擎可以简单的识别一些图片的内容,当然不是复杂的图片。比如白底黑字这种简单的图或许是可以识别的,但是国内的搜索引擎暂时还是不可以的。一张图就算是人去识别不同人也会理解成不同的意思,何况是一个没有意识没有思考的机器。那么如何告诉搜索引擎网页上的图片想要表达的是什么意思呢?借助于代码标签来实现,比如<img src='你的图片路径'  alt='莫吧seo博客配图' title='莫吧seo博客配图' />在这里我们通过alt和title这两个属性来告诉搜索引擎这个图片是什么意思。会大大提升搜索引擎对于图片的识别。另外,图片的大小最好不要超过100K或者200k。图片清晰度要高,百度搜索结果的缩略图比例为121:75,在缩放到这个比例时最好还能清晰显示。
 
         3,视频及动画。很多网站需要一些视频或者动画来对自己的产品进行品牌或者功能服务性的宣传,视频的信息量及观赏性绝非纯文字所能比拟,在用户体验方面无疑是很好的,但是一个网站最好不要放置太多的视频动画文件。首先到处都是蜘蛛陷阱,蜘蛛肯定不会经常光顾,其次有视频的网站最好使用独立带宽的或者网速更快的服务器。卡顿现象严重哪怕是好莱坞大片用户也不会去耐心等待的。
 
         4,跳转频繁。一般的企业网站很少有频繁跳转的现象。但是利用js对用户的落地页进行强制跳转的行为仍然很有争议,你不知道跳转过去的页面用户是否会喜欢。而且搜索引擎也是很讨厌这种跳转行为,特别是js跳转,MetaRefresh跳转等等。对于搜索引擎比较友好的跳转就是301、404等。
 
         5,注册登录页面。很多页面只对注册的用户进行开放,但是搜索引擎只是一个程序,既不会注册也不会登录,所以对于需要参与收录排名的页面最好不要放到会员的页面中。
 
         6,动态链接。在一条网址链接中只出现了英文或者数字或者小数点的链接成为静态链接,如果一个网站的链接包含很多参数很多奇怪的符号,例如www.42322.zxdyw.com/wz.aspx?aid=1280119,这就是一条动态链接,动态链接蜘蛛是不会歧视的,但是它抓取起来确实很困难,有心无力。所以链接最好做一下伪静态处理,很多cms生产的网址链接都是静态的,如dedecms等等。
 
         7,强制使用cookies。一些站长也许是为了用户体验,方便用户记住账户、密码,这样在下次登录时,便不用再进行输入,所以强制使用Cookies。但这样也会出现一个严重的问题,如果用户未开启,那么将会导致用户无法正常访问,这样反而不利于用户体验。而这种设置也将会导致蜘蛛无法访问。
 
         8,robots。怎么说呢,如果robots书写错误,也算是一个蜘蛛陷阱或者说是技术失误。如果网站页面存放的目录被robots禁止,搜索引擎便不会爬取这个目录下的文件。很多同学禁止了蜘蛛的访问,还一边向百度狂交数据,这种情况也有。
 
         好了,以上就是本期常见的蜘蛛陷阱和如何避免蜘蛛陷阱的方法,希望能对大家有所帮助。如有疏漏,欢迎补充。

         参考资料:

         蜘蛛陷阱 引用自百度百科
搜索引擎蜘蛛示意图

版权申明:本文来自于武汉seo相关文章seo优化中蜘蛛陷阱是什么?如何避免?,本文固定链接http://www.mbxeo.com/wzyh/8.html,转载请注明本段话,感谢您的合作!您还可以分享这篇文章,让更多人知道