网站robots.txt文件的安全设置

大家都知道robots.txt文件,能限制搜索引擎可以抓取哪些内容,不准抓取哪些内容。比如我们网站的后台就不希望被搜索抓取,那么robots文件需要这样写:

User-agent: *
Disallow: /dede/

但是,如果有人要破解网站的话,通过robots文件很容易就知道了后台地址,清楚了网站的结构。这对网站安全造成了威胁,我们并不希望这样!下面有两种方法解决这个问题

一、使用通符(*)

User-agent: *
Disallow: /d*/

这种的写法是禁止所有的搜索引擎抓取根目录下d开头的目录。那么,当你的后台是dede5的时候,还有谁会猜得到呢?

二、只写前几个字母

User-agent: *
Disallow: /de/

这样写是禁止所有的搜索引擎抓取根目录下de开头的目录。如果你的其他栏目有de开头的,你就要在robots.txt文件里面多写一个字母。

THE END