站長們在做seo時,遇見百度spider來訪抓取以及為抓取都會帶來一些煩惱,這是為什么呢? 目前百度spider抓取新鏈接的途徑有兩個,一是主動出擊發現抓取,二就是從百度站長平臺的鏈接提交工具中獲取數據,其中通過主動推送功能“收”上來的數據最受百度spider的歡迎。對于站長來說,如果鏈接很長時間不被收錄,建議嘗試使用主動推送功能,尤其是新網站,主動推送首頁數據,有利于內頁數據的抓取。 那么同學們要問了,為什么我提交了數據還是遲遲在線上看不到展現呢?那涉及的因素可就多了,在spider抓取這個環節,影響線上展現的因素有: 1、網站封禁。你別笑,真的有同學一邊封禁著百度蜘蛛,一邊向百度狂交數據,結果當然是無法收錄。 2、質量篩選。百度spider進入3.0后,對低質內容的識別上了一個新臺階,尤其是時效性內容,從抓取這個環節就開始進行質量評估篩選,過濾掉大量過度優化等頁面,從內部定期數據評估看,低質網頁比之前下降62%。 3、抓取失敗。抓取失敗的原因很多,有時你在辦公室訪問完全沒有問題,百度spider卻遇到麻煩,站點要隨時注意在不同時間地點保證網站的穩定性。 4、配額限制。雖然我們正在逐步放開主動推送的抓取配額,但如果站點頁面數量突然爆發式增長,還是會影響到優質鏈接的抓取收錄,所以站點在保證訪問穩定外,也要關注網站安全,防止被黑注入。 但是,Spider對網站抓取數量突增往往給站點帶來很大煩惱,紛紛找平臺想要Baiduspider IP白名單,但實際上BaiduSpider IP會隨時變化,所以并不敢公布出來,擔心站長設置不及時影響抓取效果。百度是怎么計算分配抓取流量的呢?站點抓取流量暴增的原因有哪些呢? 總體來說,Baiduspider會根據站點規模、歷史上網站每天新產出的鏈接數量、已抓取網頁的綜合質量打分等等,來綜合計算抓取流量,同時兼顧站長在抓取頻次工具里設置的、網站可承受的最大抓取值。 從目前追查過的抓取流量突增的case中,原因可以分為以下幾種: 1, Baiduspider發現站內JS代碼較多,調用大量資源針對JS代碼進行解析抓取 2, 百度其他部門(如商業、圖片等)的spider在抓取,但流量沒有控制好,sorry 3, 已抓取的鏈接,打分不夠好,垃圾過多,導致spider重新抓取 4, 站點被攻擊,有人仿冒百度爬蟲 如果站長排除了自身問題、仿冒問題,確認BaiduSpider抓取流量過大的話,可以通過反饋中心來反饋,切記一定要提供詳細的抓取日志截圖。 |