激情五月天婷婷,亚洲愉拍一区二区三区,日韩视频一区,a√天堂中文官网8

<ul id="buwfs"><strike id="buwfs"><strong id="buwfs"></strong></strike></ul>
    <output id="buwfs"></output>
  • <dfn id="buwfs"><source id="buwfs"></source></dfn>
      <dfn id="buwfs"><td id="buwfs"></td></dfn>
      <div id="buwfs"><small id="buwfs"></small></div>
      <dfn id="buwfs"><source id="buwfs"></source></dfn>
      1. <dfn id="buwfs"><td id="buwfs"></td></dfn>
        始創(chuàng)于2000年 股票代碼:831685
        咨詢熱線:0371-60135900 注冊有禮 登錄
        • 掛牌上市企業(yè)
        • 60秒人工響應
        • 99.99%連通率
        • 7*24h人工
        • 故障100倍補償
        全部產(chǎn)品
        您的位置: 網(wǎng)站首頁 > 幫助中心>文章內(nèi)容

        百度是否支持“Crawl-delay”

        發(fā)布時間:  2012/9/15 14:58:09
          Crawl-delay 可能很多做小站的朋友不了解, 如果擁有大站的朋友可能用到過、但是超級牛站、比如新浪、我想就不會去考慮這個問題了。Crawl-delay 是Robots.txt中一個設置“蜘蛛”降低抓取頻度的參數(shù),而很多大站可能由于被搜索引擎抓取頻繁加上用戶訪問流量過大,導致頁面加載慢(就是我們說的有點卡)。
         
          而目前對于也只有YAHOO公開代表支持這個參數(shù),具體可以參考:如何控制Yahoo! Slurp蜘蛛的抓取頻度
         
          具體設置:
         
          ---------------------------
         
          User-agent: *
         
          Crawl-delay: 10
         
                案例:http://www.blogbus.com/robots.txt  (博客大巴)
         
          而其它搜索引擎、目前還沒對這個參數(shù)進行表明,不過通過各種數(shù)據(jù)來解釋、百度及谷歌應該不會對這種參考過于說明! 因為他們很早就已經(jīng)考慮到這個問題。其中"百度站長俱樂部" 就LEE就說明:
         
          問:蜘蛛大量抓取頁面導致服務器出現(xiàn)負載問題
         
          答:會延遲百度對新網(wǎng)頁的收錄速度。
         
          正常情況下,Baiduspider的抓取頻率大致上和網(wǎng)站新資源產(chǎn)生的速度相符,并不會給網(wǎng)站帶來很大的壓力。但現(xiàn)在網(wǎng)站結構通常都比較復雜,多種url形式指向的可能是相同的內(nèi)容,或者會自動產(chǎn)生大量無檢索價值的網(wǎng)頁。
         
          我們目前發(fā)現(xiàn)的問題,主要來源于此,建議先分析一下spider的抓取日志,看看是否抓取了你不希望搜索引擎收錄的形式,如果有,robots掉它們可以節(jié)省大量的資源。
         
          具體參考:http://tieba.baidu.com/club/9374916/p/7587693
         
          其實LEE這里說明一個問題用robots可以禁止垃圾頁面/無效頁面(也就是說、我們可以通過IIS日志去分析、網(wǎng)站中抓取頻率最高、而又無用的頁面,并進行屏蔽)但是這樣做只是為了增大收錄想被收錄頁面的機遇、同樣沒有解決抓取頻率過高問題。 可能我沒有這種大站,但是DJ小向知道有效的控制蜘蛛抓取、可以使用網(wǎng)站增大收錄量、同樣有效的控制蜘蛛返回碼、同樣可以使網(wǎng)站被K。
         
            ------------------------------------
         
          10月10號補充:
         
          問:百度是否支持User-agent: Slurp
         
        回:可以在robots中的crawl-delay中設置,這個參數(shù)是baidu spider對網(wǎng)站訪問頻率的重要參考信息之一,但spider系統(tǒng)會根據(jù)網(wǎng)站規(guī)模、質(zhì)量、更新頻度等多方面信息綜合計算得出最終的執(zhí)行壓力,因此并不保證嚴格遵守crawl-delay中的設置值。   
        本文出自:億恩科技【mszdt.com】

        服務器租用/服務器托管中國五強!虛擬主機域名注冊頂級提供商!15年品質(zhì)保障!--億恩科技[ENKJ.COM]

      2. 您可能在找
      3. 億恩北京公司:
      4. 經(jīng)營性ICP/ISP證:京B2-20150015
      5. 億恩鄭州公司:
      6. 經(jīng)營性ICP/ISP/IDC證:豫B1.B2-20060070
      7. 億恩南昌公司:
      8. 經(jīng)營性ICP/ISP證:贛B2-20080012
      9. 服務器/云主機 24小時售后服務電話:0371-60135900
      10. 虛擬主機/智能建站 24小時售后服務電話:0371-60135900
      11. 專注服務器托管17年
        掃掃關注-微信公眾號
        0371-60135900
        Copyright© 1999-2019 ENKJ All Rights Reserved 億恩科技 版權所有  地址:鄭州市高新區(qū)翠竹街1號總部企業(yè)基地億恩大廈  法律顧問:河南亞太人律師事務所郝建鋒、杜慧月律師   京公網(wǎng)安備41019702002023號
          0
         
         
         
         

        0371-60135900
        7*24小時客服服務熱線