首页 » SEO问答 » 正文

网站robots文件中到底要不要屏蔽JS和css

昊天seo 2018年08月23日 337 views 4

扫一扫用手机浏览

  网站robots文件中到底要不要屏蔽JS和css?最近发现百度蜘蛛每日抓取网站的js和css文件非常频繁,甚至能占每日抓取量的五分之一,百度蜘蛛每日抓取5000次,其中单独抓取js和css文件就有一千多次。遇到这种情况,是否应该屏蔽蜘蛛抓取上述文件?

网站robots文件中到底要不要屏蔽JS和css

  一、robots全部屏蔽掉不太建议,因为随着网页的发展,资源种类越来越多,蜘蛛需要分析;

  二、根据之前看到的百度对网页主体内容模板的专利的简单介绍可以得出下面几个观点:

  1、百度能够根据前台页面的链接布局、框架,判断出一个站点的主要页面类型,及各页面适合用户浏览的主体内容;

  2、因此如果js、css等如果对蜘蛛判断站点的主体内容没有什么影响,比如遮罩、跟踪用户行为返回区域内容变化,那么屏蔽完全可以,但是从实际的例子来说可能对站点其他主体内容页面的抓取频次没有多大帮助,因为主体内容与js、css本来就互不相关的两类东西;

  3、如果js、css等如果对蜘蛛判断站点的主体内容有影响,如包含较多网址、图片地址、有效资源地址、文字资源等建议不屏蔽,蜘蛛爬取js/css文件的同时可以爬取里面的内容,并且尽量简单处理,不要采用ajax或多重逻辑判断的代码;

  上述关于网站robots文件中到底要不要屏蔽JS和css。只是武汉SEO昊天的个人见解!当然也有一些站长认为是不要用robots屏蔽JS和CSS文件。所以如果你有什么不一样的简介,可以在本文下方提出意见。

赞(10

发表评论

  •   理论上感觉不应该屏蔽掉,因为百度可能会根据css等来判别网站的样式原创性!如果屏蔽掉了,蜘蛛也不知道网站符合用户体验否,是否垃圾站网页!大站似乎也没屏蔽js跟css的习惯。。。个人观点,楼下说说看呢!

    2018-08-25 10:35:22 回复该评论
  •   个人观点:
      1、robots全部屏蔽掉不太建议,因为随着网页的发展,资源种类越来越多,蜘蛛需要分析;
      2、根据之前看到的百度对网页主体内容模板的专利的简单介绍可以得出下面几个观点:
      A、百度能够根据前台页面的链接布局、框架,判断出一个站点的主要页面类型,及各页面适合用户浏览的主体内容;
      B、因此如果js、css等如果对蜘蛛判断站点的主体内容没有什么影响,比如遮罩、跟踪用户行为返回区域内容变化,那么屏蔽完全可以,但是从实际的例子来说可能对站点其他主体内容页面的抓取频次没有多大帮助,因为主体内容与js、css本来就互不相关的两类东西;
      C、如果js、css等如果对蜘蛛判断站点的主体内容有影响,如包含较多网址、图片地址、有效资源地址、文字资源等建议不屏蔽,蜘蛛爬取js/css文件的同时可以爬取里面的内容,并且尽量简单处理,不要采用ajax或多重逻辑判断的代码;
      经过上述处理后,如果发现有价值的js、css抓取次数还是较多,那么建议使用百度的抓取频次工具,反馈提高下,对一个站点的抓取频次现在可以对百度进行反馈。

    2018-08-25 10:36:10 回复该评论
  • 说明蜘蛛的能力在逐步变得更加的强大,从以前的不能识别,到现在能抓取,说明它现在已经逐步都读懂JSS和css 文件,它进站抓取这些文件,说明它想更全面的了解的你网站的结构数据,进一步的分析计算,个人建议还是不要封禁。让度娘这个女人更加了解你这个男人,说不定人家已经爱上你,把你放在它心里首要的位置你呢?

    2018-08-25 10:36:41 回复该评论
  •   理论上你屏蔽了也没有什么用。
      1、搜索引擎需要通过,css,js还原页面成可视化数据。通过遍历网站内部,可分析出各个区块的作用,是内部link,主体内容,外部link等。按照区块的所在位置,还原用户视觉感官。通过观感分析出,此页面用户兴趣点。然后通过用户兴趣点,分析出...再写下去能写个1600字的文章了。
      2、有时候搜索引擎会强制爬取css,js,特别是有作弊嫌疑的网站。通过对css,js的分析(第一条中可视化分析),用于判断网站是否作弊。
      以后有时间,专门介绍。

    2018-08-25 10:37:15 回复该评论