网站建设成功之后,若是网站的内容质量都不错的情况下,就会有搜索引擎蜘蛛来抓取,那么如果要拒绝被抓取要怎么做呢?


拒绝搜索引擎收录网站的方法:可以在head标签中添加内容,禁止搜索引擎抓取网站并显示网页快照。

一个新网站建成后,只要搜索引擎蜘蛛抓取并且网站内容不是很差,搜索引擎很可能会收录我们的网站。如果因为某种原因不想让搜索引擎收录网站,怎么操作?以下这篇文章给大家讲解一下。

方法一:设置robots.txt方法

搜索引擎蜘蛛可以通过设置robots.txt来屏蔽,那么什么是robots.txt呢?

搜索引擎使用spider程序自动访问互联网上的网页并获取网页信息。当spider访问一个网站时,他会首先检查网站的根域下是否有一个纯文本文件叫做robots.txt,用于指定spider在您网站上的抓取范围。你可以在你的网站上创建一个robots.txt,并在文件中声明你不想被搜索引擎收录的部分或指定搜索引擎只收录特定的部分。

请注意,只有当您的网站包含不想被搜索引擎收录的内容时,您才需要使用robots.txt文件。如果你想让搜索引擎包含网站上的所有内容,请不要建立robots.txt文件。

robots.txt如何屏蔽搜索引擎蜘蛛?
搜索引擎默认遵守robots.txt协议,创建robots.txt文本文件并放入网站根目录。编辑代码如下:
  1. user-agent:*

  2. Disallow:/

使用上述代码,就可以告诉搜索引擎不要抓取收录本网站,注意谨慎使用上述代码:这将禁止所有搜索引擎访问网站的任何部分。

如果只想禁止百度收录全站,可以编辑以下代码:
  1. User-agent:Baiduspider。

  2. Disallow:/

如果只想禁止Google收录全站,可以编辑以下代码:
  1. User-agent:Googlebot。

  2. Disallow:/

方法二:设置网页代码的方法

  1. 在网站首页代码之间添加以下代码,可以禁止搜索引擎抓取网站并显示网页快照。

  2. 在网站首页代码之间添加以下代码,可以禁止百度搜索引擎抓取网站并显示网页快照。

  3. 在网站首页代码之间添加以下代码,可以禁止谷歌搜索引擎抓取网站并显示网页快照。

以上就是关于拒绝搜索引擎收录网站的方法的详细内容介绍了,有疑问的同学可以联系我们“金点网”讨论咨询。