怎樣用robots屏蔽二級域名的收錄 |
發(fā)布時間: 2012/8/18 11:00:35 |
這個問題很可笑。用robots禁止搜索引擎收錄某個二級域名是行不通的,我們并沒有在官方看到可靠的依據(jù)。但這往往是我們很多人易犯的一個誤區(qū)。
在對robots的定義中就明確指出,當(dāng)我們不希望搜索引擎收錄網(wǎng)站的部分,請建立robots文件(Disallow:/aaa/)。
在我們遇到的問題中,最多的是當(dāng)我們購買了一個虛擬主機,空間自帶了一個二級域名地址,而這個地址在搜索引擎上已經(jīng)收錄,我們想禁止掉它的繼續(xù)收錄。最直接的辦法就是站內(nèi)開放的鏈接上要統(tǒng)一url規(guī)范,不要給不想收錄的二級域名任何的入口,然后持續(xù)的更新一些信息,搜索引擎會逐漸自然把二級域名剔除。
當(dāng)然我們有條件也可以在代碼中寫,判定訪問的是二級域名的時候跳轉(zhuǎn)到應(yīng)用的主域名上;我們也可以直接把二級域名做301重定向到主域名上,在此搜想SEO專家提醒您,如果是搜索引擎已經(jīng)將二級域名識別為主域名持續(xù)收錄,做此之前一定要把站內(nèi)所有的鏈接地址改為主域名,不要再有任何二級域名入口,如果信息收錄過多,我們并不建議大家采用此方式。
當(dāng)然,還有一招,直接去百度提交刪除申請,郵箱為:webmaster@baidu.com
如果對于二級域名與主域名不是同一目錄的情況,這就非常簡單,我們都知道的“直接在robots里書寫禁止二級域名對應(yīng)的目錄”即可!
禁止某個二級域名的搜索引擎收錄針對不同的情況,當(dāng)然還有其它一些方法,舉一反三、活學(xué)活用。對于二級域名與主域名為同一目錄的情況下,搜想SEO專家一定要提醒大家的是,我們切不可為了屏蔽二級域名,直接在二級域名的指向的目錄里書寫了robots禁止收錄文件。我們很多人卻會犯這樣的“傻”。 本文出自:億恩科技【mszdt.com】 服務(wù)器租用/服務(wù)器托管中國五強!虛擬主機域名注冊頂級提供商!15年品質(zhì)保障!--億恩科技[ENKJ.COM] |