SSR服务器搭建,VPS搭建SSR,SSR客户端配置,vultr搭建SSR,dedecms,织梦,科学上网,织梦伪静态规则,织梦全站伪静态,织梦手机版伪静态

网站robots.txt文件的安全设置

网络技术 baishitou 358℃ 0评论

大家都知道robots.txt文件,能限制搜索引擎可以抓取哪些内容,不准抓取哪些内容。比如我们网站的后台就不希望被搜索抓取,那么robots文件需要这样写:

User-agent: *
Disallow: /dede/

但是,如果有人要破解网站的话,通过robots文件很容易就知道了后台地址,清楚了网站的结构。这对网站安全造成了威胁,我们并不希望这样!下面有两种方法解决这个问题

一、使用通符(*)

User-agent: *
Disallow: /d*/

这种的写法是禁止所有的搜索引擎抓取根目录下a开头的目录。那么,当你的后台是dede5的时候,还有谁会猜得到呢?

二、只写前几个字母

User-agent: *
Disallow: /de/

这样写是禁止所有的搜索引擎抓取根目录下de开头的目录。如果你的其他栏目有de开头的,你就要在robots.txt文件里面多写一个字母。

转载请注明:白石头博客 » 网站robots.txt文件的安全设置

喜欢 (0)or分享 (0)

您必须 登录 才能发表评论!