署理加盟 2019全新署理方案 挣钱+省钱左右开弓,独立渠道,丰盛赢利!

您现在的方位: unibet网 > 站长学院 > SEO资讯 >

怎么让网站robots.txt不走漏后台等安全隐秘

来历:不知道 发布时刻:2016-10-17热度:我要谈论
搞过网站的朋友都知道robots.txt文件是用来约束查找引擎不乱抓取,只抓取咱们期望被录入的内容的。比方咱们网站的后台就不期望被查找抓取,那么robots文件需求这样写: User-agent: * Disallow...

unibet注册unibet淘宝店开业,好礼送不断

搞过网站的朋友都知道robots.txt文件是用来约束查找引擎不乱抓取,只抓取咱们期望被录入的内容的。比方咱们网站的后台就不期望被查找抓取,那么robots文件需求这样写:

User-agent: *

Disallow: /admin/

可是这样咱们很简单发现了一个问题,假如有人要破解进犯的话,很简单就知道了后台,一会儿就清楚了网站的结构。

咱们并不想这样!

有没有方法让robots.txt既能约束查找引擎,又不走漏后台地址和隐私目录呢?有!

一、运用通配符(*):

User-agent: *

Disallow: /a*/

这样的写法,制止一切的查找引擎抓取根目录下a最初的目录。当您的后台是admok165的话,还有谁会看到呢?

二、只写目录前几个字母,不写全:

User-agent: *

Disallow: /ad

这种的写法,是制止一切的查找引擎抓取根目录下ad最初的目录。

最终阐明一下,以上这两种方法,需求网站目录没有相同字母最初的,例如ad目录,假如有两个相同的,那需在robots.txt文件里再加上一个字母差异开来。

本文地址:https://www.m88nob1.com/查找引擎优化/753.html

    责任编辑:unibet网

    宣布谈论

    谈论列表(条)