是什么原因導致蜘蛛不來爬呢? 遇到這樣的問題,情況只有倆種:一、你屏蔽蜘蛛的爬行了。二、你被蜘蛛屏蔽了 一、你屏蔽蜘蛛了 我們屏蔽了蜘蛛,蜘蛛當然不可能來抓取我們的網站拉。 1.首先我們要檢測自己的網站robots.txt文件,看看文件的書寫是否正確,是否有大小寫混亂的情況出現,是否建站初期的時候有屏蔽所有蜘蛛的爬行的指令忘記修改了。正常情況下robots.txt檢測的事情就直接交給站長工具檢查就可以了 2.服務器商是否屏蔽了蜘蛛的爬行。別認為這事不可能,當初主機屋,就誤把百度蜘蛛當成黑客攻擊給屏蔽了,不懂導致多少人被K站。如果是主機商屏蔽了蜘蛛的爬行盡早換主機吧,時間等不起。 二、你被蜘蛛屏蔽了 1.查看自己的域名以前的主人,看看域名以前是否做了違法的站點。如果是的話那么蜘蛛不爬是完全有道理的,就好比Maas以前論壇那個域名以前是做liuhecai站的。至今搜狗和谷歌蜘蛛壓根沒來過。 2.查看下自己同服務器的站點,是否有非常嚴重違規的作弊行為,若有的話,搜索引擎很有可能屏蔽整條IP的站點,為了自己的網站發展健康還是選擇獨立IP的服務器吧。 如果發現自己網站的爬行日志壓根沒出現蜘蛛來訪,那么我們就應該考慮自己的站點是否出現以上的情況,應該及時的清理。然后向相關的搜索引擎提交,或者利用高質量的外鏈引導蜘蛛爬行。 |