dedecms网站的robots文件如何设置

2026-02-04 21:36:01

    用织梦程序做网站的朋友有很多,做网络推广,做网站优化的朋友也很多,所以相对来讲,大家应该对于robots.txt这个文件并不陌生,在我们日常的优化工作中,robots的制作也是至关重要的一个步骤!所以,今天我和大家一起来交流一下如何正确的设置robots!

    我们今天要说的dede系统的robots文件的设置,这个虽然很简单,但我觉得还是有必要拿来分享一下,毕竟新手随时都存在。

    下面是我的robots文件的设置

    User-agent: *

    Disallow: /include

    Disallow: /member

    Disallow: /plus

    Disallow: /templets

    Disallow: /data

    Disallow: /uploads

    Disallow: /images

    Disallow: /404.html

    Allow: /plus/search.php

    Disallow: /include

    Disallow: /js

    Disallow: /s*t8/

这是我登录后台系统文件名,大家也应该以我这种形式书写,要不就暴露了你的后台文件名了,不安全。

    Disallow: /wanglo

    Disallow: /dianwan

    Disallow: /gameyile

    Disallow: /liaotian

    Disallow: /anqian

    Disallow: /duomiti

    Disallow: /xitong

    Disallow: /tuxing

    Disallow: /huangye

    Disallow: /bchengkaifa

    Disallow: /jiaoyu

    Disallow: /yingyong

    Disallow: /cyrj

    上半部分是dede后台系统文件,这些文件我们应该让他禁止蜘蛛抓取,这样有利于我们的优化及减少服务器的负担。

    下半部分是我网站改版前的一些文件。

    结论:做网站优化说得严重一点是细致决定成败,所以我们应尽量做好每一点。

声明:本网站引用、摘录或转载内容仅供网站访问者交流或参考,不代表本站立场,如存在版权或非法内容,请联系站长删除,联系邮箱:site.kefu@qq.com。
猜你喜欢