网站禁止搜索引擎的抓取方法


网站获得搜索引擎抓取是很多企业期待的,当然,某些特殊的情况是我们不愿意让网站抓取全部或部分内容。如果我们不想要搜索引擎索引网站的某些内容或全部内容,最好的办法就是借助rebots.txt文件。现在给大家说明一下如何禁止搜索引擎抓取网站的解决办法。

robots.txt文件是搜索引擎抓取协议,这个协议是目前大部分搜索引擎都需要遵守的,相当于搜索引擎的抓取引导。大部分搜索引擎都会按照这个文件的要求进行抓取网站内容,所以编写这个内容,就相当于给搜索引擎编写了一套引导大纲。不过要明确一点,robots.txt文件是一份协议,也就是搜索引擎可以遵守,也可以不遵守。

禁止所有的搜索引擎访问网站全部内容
User-agent: *
Disallow:/
禁止百度搜索引擎访问网站全部内容

  User-agent: Baiduspider
  Disallow:/
允许所有搜索引擎访问全部内容;也可以为空

  User-agent: *
  Allow:/
允许/禁止百度搜索引擎抓指定格式的图片

  User-agent: Baiduspider
  Allow: /.gif$
  Disallow: /
.jpg$
允许/禁止百度搜索引擎抓取网站的动态页面

  User-agent: Baiduspider
  Allow: /.php$
  Disallow: /
.jsp$
————————————————

正文完

评论区
个人资料

  • 博主木木
  • 运营天数3147
  • 文章阅读数 25584
  • 评论数量1
  • 文章数量96
搜索

倒计时