怎么用robort.txt禁止收录一级域名

2025-09-25 07:22:13

1、首先我们来了解下robots.txt的书写要求,图示为百度robot的规则(其它浏览器通用)

怎么用robort.txt禁止收录一级域名

怎么用robort.txt禁止收录一级域名

2、首先,新建一个txt文档,内容开头是User-agent:项,我们想让其对所有的搜索引擎有效,设置为:

User-agent:*

怎么用robort.txt禁止收录一级域名

3、下一行我们声明禁止收录的页面,用Disallow:,规范是例如

Disallow:/help         禁止robot访问/help.html、/helpabc.html、/help/index.html

Disallow:/help/        禁止robot访问help文件下的网页,允许访问/help.html

Disallow:                  允许访问所有url

怎么用robort.txt禁止收录一级域名

怎么用robort.txt禁止收录一级域名

4、禁止所有robot访问

Disallow:  /

怎么用robort.txt禁止收录一级域名

5、下一行写入Allow:,允许访问的url

可以写上面不允许访问目录中的个别url,使其可收录,例如

Allow:/help/phone.html

怎么用robort.txt禁止收录一级域名

6、最后我们可以加入我们站点的sitemap地址,方便收录。

Sitemap: http://***.com/sitemap.xml

怎么用robort.txt禁止收录一级域名

7、保存文档,放入站点根目录

声明:本网站引用、摘录或转载内容仅供网站访问者交流或参考,不代表本站立场,如存在版权或非法内容,请联系站长删除,联系邮箱:site.kefu@qq.com。
猜你喜欢