Robots.txt 文件的格式
Robots.txt 文件是网站与爬虫间的一个协议文件,用于指示搜索引擎爬虫如何访问网站的特定页面或内容。它的格式主要包括以下几个部分:
User-agent
User-agent字段用于描述搜索引擎 robot 的名字。在 robots.txt 文件中,如果有多个 User-agent 记录,说明有多个 robot 会受到该协议的约束。所以,robots.txt 文件中至少要有一条 User-agent 记录。如果该项的值设为 *(通配符),则该协议对任何搜索引擎机器人均有效。在 robots.txt 文件中,User-agent: * 这样的记录只能有一条。如果在 robots.txt 文件中,加入 User-agent: SomeBot 和若干 Disallow、Allow 行,那么名为 SomeBot 的只受到 User-agent: SomeBot 后面的 Disallow 和 Allow 行的限制。
Disallow
Disallow 字段的值用于描述不希望被访问的一组 URL,这个值可以是一条完整的路径,也可以是路径的非空前缀,以 Disallow 项的值开头的 URL 不会被 robot 访问。例如,Disallow: /help 禁止 robot 访问/help.html 、/helpabc.html 、/help/index.html ,而 Disallow: /help/ 则允许 robot 访问/help.html 、/helpabc.html ,不能访问/help/index.html 。任何一条 Disallow 记录为空,说明该网站的所有部分都允许被访问,在 “/robots.txt” 文件中,至少要有一条 Disallow 记录。如果 “/robots.txt” 是一个空文件,则对于所有的搜索引擎 robot,该网站都是开放的。
Allow
Allow 字段的值用于描述希望被访问的一组 URL,与 Disallow 项相似,这个值可以是一条完整的路径,也可以是路径的前缀,以 Allow 项的值开头的 URL 是允许 robot 访问的。一个网站的所有 URL 默认是 Allow 的,所以 Allow 通常与 Disallow 搭配使用,实现允许访问一部分网页同时禁止访问其它所有 URL 的功能。
其他注意事项
在该文件中可以使用 # 进行注解,具体使用方法和 UNIX 中的惯例一样。文件中的记录通常以一行或多行 User-agent 开始,后面加上若干 Disallow 和 Allow 行。需要注意的是,对每一个目录必须分开声明,而不要写成:”Disallow: /cgi-bin//tmp/”。另外,robots.txt 主要作用是保障网络安全与网站隐私,百度蜘蛛遵循 robots.txt 协议。通过根目录中创建的纯文本文件 robots.txt ,网站就可以声明哪些页面不想被百度蜘蛛爬行并收录。
结语
以上就是关于 robots.txt 文件格式的详细介绍。希望这些信息能够帮助你更好地理解和使用 robots.txt 文件来控制搜索引擎爬虫的访问行为。
原创文章,作者:Ur47000,如若转载,请注明出处:https://wyc.retuba.cn/2532.html