dedecms网站的robots文件如何设置

2025-04-13 00:07:19

用织梦程序做网站的朋友有很多,做网络推广,做网站优化的朋友也很多,所以相对来讲,大家应该对于ro芟鲠阻缒bots.txt这个文件并不陌生,在我们日常的优化工作中,robots的制作也是至关重要的一个步骤!所以,今天我和大家一起来交流一下如何正确的设置robots!

我们今天要说的dede系统的robots文件的设置,这个虽然很简单,但我觉得还是有必要拿来分享一下,毕竟新手随时都存在。

下面是我的robots文件的设置

User-agent: *

Disallow: /include

Disallow: /member

Disallow: /plus

Disallow: /templets

Disallow: /data

Disallow: /uploads

Disallow: /images

Disallow: /404.html

Allow: /plus/search.php

Disallow: /include

Disallow: /js

Disallow: /s*t8/

这是我登录后台系统文件名,大家也应该以我这种形式书写,要不就暴露了你的后台文件名了,不安全。

Disallow: /wanglo

Disallow: /dianwan

Disallow: /gameyile

Disallow: /liaotian

Disallow: /anqian

Disallow: /duomiti

Disallow: /xitong

Disallow: /tuxing

Disallow: /huangye

Disallow: /bchengkaifa

Disallow: /jiaoyu

Disallow: /yingyong

Disallow: /cyrj

上半部分是dede后台系统文件,这些文件我们应该让他禁止蜘蛛抓取,这样有利于我们的优化及减少服务器的负担。

下半部分是我网站改版前的一些文件。

结论:做网站优化说得严重一点是细致决定成败,所以我们应尽量做好每一点。

声明:本网站引用、摘录或转载内容仅供网站访问者交流或参考,不代表本站立场,如存在版权或非法内容,请联系站长删除,联系邮箱:site.kefu@qq.com。
猜你喜欢