VIP福利
主页 > 建站问题 > 网站robots协议及robots.txt 文件写法

网站robots协议及robots.txt 文件写法

Robots之所以称之为协议就是因为它不是 “命令” 而是跟搜索引擎爬虫间的单方面协议。因而 robots 中的设置并不意味着100%的生效,但那些知名君子如 Google Yahoo Bing Baidu 等搜索引擎都支持,所谓小人们不管也罢。 Robots 协议有什么作用呢? robots协议 […]



Robots之所以称之为协议就是因为它不是 “命令” 而是跟搜索引擎爬虫间的单方面协议。因而 robots 中的设置并不意味着100%的生效,但那些知名君子如 Google Yahoo Bing Baidu 等搜索引擎都支持,所谓小人们不管也罢。

Robots 协议有什么作用呢?

robots协议用来告知搜索引擎哪些页面能被抓取,哪些页面不能被抓取;可以屏蔽一些网站中比较大的文件,如:图片,音乐,视频等,节省服务器带宽;可以屏蔽站点的一些死链接。方便搜索引擎抓取网站内容;设置网站地图连接,方便引导蜘蛛爬取页面。

让我们来了解下 Robots 都有哪些写法

User-agent: * 这里的 * 代表的所有的搜索引擎种类,*是一个通配符
Disallow: /admin/ 这里定义是禁止爬寻admin目录下面的目录
Disallow: /cgi-bin/*.htm 禁止访问/cgi-bin/目录下的所有以”.htm“为后缀的URL(包含子目录)。
Disallow: /*?* 禁止访问网站中所有包含问号 (?) 的网址
Disallow: /.jpg$ 禁止抓取网页所有的.jpg格式的图片
Disallow: /ab/adc.html 禁止爬取ab文件夹下面的adc.html文件。
Allow: /cgi-bin/ 这里定义是允许爬寻cgi-bin目录下面的目录
Allow: /tmp 这里定义是允许爬寻tmp的整个目录
Allow: .htm$ 仅允许访问以”.htm”为后缀的URL。
Allow: .gif$ 允许抓取网页和gif格式图片
Sitemap: 网站地图 告诉爬虫这个页面是网站地图
robots.txt文件应该放置在网站根目录下。

当搜索引擎的爬虫们进入网站时首先会检查该网站中是否存在 robots.txt 这个文件,如果爬虫找到这个文件,它就会根据这个文件的内容,来确定它访问权限的范围。


说点什么吧
  • 全部评论(0
    还没有评论,快来抢沙发吧!