dedecms网站的robots文件如何设置
用织梦程序做网站的朋友有很多,做网络推广,做网站优化的朋友也很多,所以相对来讲,大家应该对于ro芟鲠阻缒bots.txt这个文件并不陌生,在我们日常的优化工作中,robots的制作也是至关重要的一个步骤!所以,今天我和大家一起来交流一下如何正确的设置robots!
我们今天要说的dede系统的robots文件的设置,这个虽然很简单,但我觉得还是有必要拿来分享一下,毕竟新手随时都存在。
下面是我的robots文件的设置
User-agent: *
Disallow: /include
Disallow: /member
Disallow: /plus
Disallow: /templets
Disallow: /data
Disallow: /uploads
Disallow: /images
Disallow: /404.html
Allow: /plus/search.php
Disallow: /include
Disallow: /js
Disallow: /s*t8/
这是我登录后台系统文件名,大家也应该以我这种形式书写,要不就暴露了你的后台文件名了,不安全。
Disallow: /wanglo
Disallow: /dianwan
Disallow: /gameyile
Disallow: /liaotian
Disallow: /anqian
Disallow: /duomiti
Disallow: /xitong
Disallow: /tuxing
Disallow: /huangye
Disallow: /bchengkaifa
Disallow: /jiaoyu
Disallow: /yingyong
Disallow: /cyrj
上半部分是dede后台系统文件,这些文件我们应该让他禁止蜘蛛抓取,这样有利于我们的优化及减少服务器的负担。
下半部分是我网站改版前的一些文件。
结论:做网站优化说得严重一点是细致决定成败,所以我们应尽量做好每一点。