署理加盟 2019全新署理方案 挣钱+省钱左右开弓,独立渠道,丰盛赢利!

您现在的方位: unibet网 > 站长学院 > SEO资讯 >

完全屏蔽已录入的不需求的二级域名有用方法

来历:不知道 发布时刻:2019-03-31热度:我要谈论
前面笔者写过一篇关于删去不想被录入的域名或页面百度快照方法,但因为百度有必定推迟,想到先用robots屏蔽的方法。SEO博客本来是不带www的作为主域,现在用www的域名作为主域,原主域现已录入几百个了,删去这些快照都不知道花多长时刻。提示各位尽量削减在半途改变主...

unibet注册unibet淘宝店开业,好礼送不断

       前面笔者写过一篇关于删去不想被录入的域名或页面百度快照方法,但因为百度有必定推迟,想到先用robots屏蔽的方法。SEO博客本来是不带www的作为主域,现在用www的域名作为主域,原主域现已录入几百个了,删去这些快照都不知道花多长时刻。提示各位尽量削减在半途改变主域,为把排名影响削减,必定要看完本帖。

        下面修正方法只适合用.htaccess把二级域名解析在子目录的虚拟主机,不适合IIS。其他方法参阅文章《》

屏蔽不需求的二级域名方法

       本站域名m88nob1.com,解析了www.m88nob1.com,zhan.m88nob1.com,两个二级域名(www.m88nob1.com实践上归于二级域名)

       期间还解析过m.vi586.com,shop.vi586.com等二级域名,这些域名现已停止运用了,空间也过期了,但网上还有快照,无法经过robots屏蔽。

(2016.6.9更新本帖)

       笔者在2016年5月中旬做了下面这些操作,前面还对其他非主域名进行过闭站维护,现在现已把非主域名的内容悉数成功转到www.m88nob1.com下,当然搜索引擎是比较滞后的,每个区域需求的时刻不尽持平。

有用制止蜘蛛抓取非主域名robots协议

完全屏蔽不需求二级域名方法

       1.把不需求的二级域名分配到不同的空间进行robots屏蔽。已然现已撤销二级域名的解析了,当然不引荐这样的做法,土豪请便。

       2.运用.htaccess完成非主域名拜访robots.txt实践是拜访wrobots.txt(该文件屏蔽蜘蛛抓取)。以万网Apache渠道为例,vi586.com域名做全站301跳转到www.vi586.com,用robots完全屏蔽蜘蛛抓取,经unibet网unibet网测验成功。

       wrobots.txt内容如下

User-Agent:*
Disallow:/

       .htaccess内容如下

RewriteEngine on
RewriteCond %{HTTP_HOST} ^www.vi586.com [NC]
RewriteRule ^robots.txt wrobots.txt [L]
RewriteCond %{REQUEST_FILENAME} !robots.txt
RewriteRule ^(.*) http://m88nob1.com/$1 [R=301,L]

       第四行阐明尽在恳求称号非robots.txt的时分,才会履行后边的301跳转,避免第三条规矩被掩盖。以上规矩放在最前面,以免与本来的301规矩发生抵触,下面是经测验成功的完好代码:

RewriteEngine on
RewriteCond %{HTTP_HOST} ^www.vi586.com [NC]
RewriteRule ^robots.txt wrobots.txt [L]
#以下为已存在规矩:
<IfModule mod_rewrite.c>
RewriteEngine on
RewriteCond %{HTTP_HOST} !^www.m88nob1.com [NC]
RewriteRule ^(.*)$ http://www.m88nob1.com/$1 [L,R=301]
</IfModule>

        作用测验拜访:http://www.m88nob1.com/robots.txt和http://m88nob1.com/robots.txt ,呈现的成果是不是不一样了呢。

       当然这个方法对二级域名解析到二级目录也是可行的,方法参阅文章《万网运用.htaccess完美完成子域名跳转到子目录》,因为现已URL重写了,要把二级目录下的robots.txt更名为wrobost.txt(蜘蛛只会拜访robots.txt文件)否则会提示404过错。拜访:http://zhan.m88nob1.com/robots.txt

       二级域名解析到二级目录与屏蔽不需求的域名.htaccess完好代码如下

RewriteEngine On
RewriteCond %{HTTP_HOST} !^www.m88nob1.com [NC]
RewriteRule ^robots.txt wrobots.txt [L]
RewriteRule ^index\.(php|html|htm)$ http://www.m88nob1.com/ [R=301,L]
#tag伪静态规矩
RewriteRule ^tags.html$ /tags.php
RewriteRule ^tags/(.*).html$ /tags.php?/$1/
#二级域名解析到二级目录
<IfModule mod_rewrite.c>
RewriteEngine On
RewriteBase /
RewriteCond %{HTTP_HOST} ^zhan\.xiuzhanwang\.com$ [NC]
RewriteCond %{REQUEST_URI} !^/zhan/
RewriteRule ^(.*)$ zhan/$1?Rewrite [L,QSA]
</IfModule>
#不带www域名301到带www域名
<IfModule mod_rewrite.c>
RewriteEngine On
RewriteCond %{HTTP_HOST} !^www.m88nob1.com [NC]
RewriteRule ^(.*)$ http://www.m88nob1.com/$1 [L,R=301]
</IfModule>

       3.假如需求屏蔽的是二级目录(如:/about)可是能抓取里边的以*.html文件,直接在robots.txt写上

Disallow:/about/
Allow:/about/*.html

       4.无法用robots屏蔽的目录或二级域名可以用跟301跳转,那些没用的页面删去,向百度提交404页面即可。

       5.假如是空间自带的三级域名被录入,采纳标准好URL途径,一切链接选用主域名的绝对途径,不给任何不想录入的二级域名进口,并更新高质量的内容,让搜索引擎从头审阅主域。

不需求的二级域名处理方法总结

       笔者对不需求的二级域名刚开端并没有做太多的处理,也有朋友主张我不必去管,做好URL标准和更新内容,让百度自己去判别主域就好,事实是朋友们是对的,百度蜘蛛渐渐的也没那么“蠢”了。这些快照仅仅时刻问题,内容质量不高的页面即便抓取了,也不会放出快照,况且一些二级域名的过错提示呢。

本文地址:https://www.m88nob1.com/搜索引擎优化/1582.html

    责任编辑:unibet网

    宣布谈论

    谈论列表(条)