Spider對網站抓取數量突增往往給站點帶來很大煩惱,紛紛找平臺想要BaiduspiderIP白名單,但實際上BaiduSpiderIP會隨時變化,所以并不敢公布出來,擔心站長設置不及時影響抓取效果。百度是怎么計算分配抓取頻次數量的呢?站點抓取頻次數量暴增的原因有哪些呢?
總體來說,Baiduspider會根據站點規模、歷史上網站每天新產出的鏈接數量、已抓取網頁的綜合質量打分等等,來綜合計算抓取頻次數量,同時兼顧站長在抓取頻次工具里設置的、網站可承受的抓取值。
從目前追查過的抓取頻次數量突增的case中,原因可以分為以下幾種:
1、Baiduspider發現站內JS代碼較多,調用大量資源針對JS代碼進行解析抓取
2、百度其他部門(如商業、圖片等)的spider在抓取,但頻次數量沒有控制好,sorry
3、已抓取的鏈接,打分不夠好,垃圾過多,導致spider重新抓取
4、站點被攻擊,有人仿冒百度爬蟲
如果站長排除了自身問題、仿冒問題,確認BaiduSpider抓取頻次數量過大的話,可以通過反饋中心來反饋,切記一定要提供詳細的抓取日志截圖。
百度不收錄頁面的原因分析
目前百度spider抓取新鏈接的途徑有兩個,一是主動出擊發現抓取,二就是從百度站長平臺的鏈接提交工具中獲取數據,其中通過主動推送功能“收”上來的數據受百度spider的歡迎。對于站長來說,如果鏈接很長時間不被收錄,建議嘗試使用主動推送功能,尤其是新網站,主動推送首頁數據,有利于內頁數據的抓取。
那么同學們要問了,為什么我提交了數據還是遲遲在線上看不到展現呢?那涉及的因素可就多了,在spider抓取這個環節,影響線上展現的因素有:
1、網站封禁:你別笑,真的有同學一邊封禁著百度蜘蛛,一邊向百度狂交數據,結果當然是無法收錄。
2、質量篩選:百度蜘蛛spider3.0對低質內容的識別上了一個新臺階,尤其是時效性內容,從抓取這個環節就開始進行質量評估篩選,過濾掉大量過度優化等頁面,從內部定期數據評估看,低質網頁比之前下降62%。
3、抓取失敗:抓取失敗的原因很多,有時你在辦公室訪問完全沒有問題,百度spider卻遇到麻煩,站點要隨時注意在不同時間地點保證網站的穩定性。
4、配額限制:雖然我們正在逐步放開主動推送的抓取配額,但如果站點頁面數量突然爆發式增長,還是會影響到高質鏈接的抓取收錄,所以站點在保證訪問穩定外,也要關注網站安全,防止被黑注入。