剛剛看到一個非常有意思的提問,提問如下:(求解)為什么我的站,重來沒有百度蜘蛛來過 。從以上的問題可以看出,這位站長遇到這樣的問題一定非常的蛋疼。自己精心做的站點,沒想到蜘蛛壓根就沒來爬過。那么是什么原因導致蜘蛛不來爬呢。我來分析下。
遇到這樣的問題,情況只有倆種:一、你被蜘蛛屏蔽了。二、你屏蔽蜘蛛的爬行了
A、你被蜘蛛屏蔽了
1.查看下自己同服務器的站點,是否有非常嚴重違規(guī)的作弊行為,若有的話,搜索引擎很有可能屏蔽整條IP的站點,為了自己的網站發(fā)展健康還是選擇獨立IP的服務器吧。
如果發(fā)現自己網站的爬行日志壓根沒出現蜘蛛來訪,那么我們就應該考慮自己的站點是否出現以上的情況,應該及時的清理。然后向相關的搜索引擎提交,或者利用高質量的外鏈引導蜘蛛爬行。
2.查看自己的域名以前的主人,看看域名以前是否做了違法的站點。如果是的話那么蜘蛛不爬是完全有道理的。
B、你屏蔽蜘蛛了
1.服務器商是否屏蔽了蜘蛛的爬行。別認為這事不可能,當初主機屋,就誤把百度蜘蛛當成黑客攻擊給屏蔽了,不懂導致多少人被K站。如果是主機商屏蔽了蜘蛛的爬行盡早換主機吧,時間等不起。
我們屏蔽了蜘蛛,蜘蛛當然不可能來抓取我們的網站拉。
2.首先我們要檢測自己的網站robots.txt文件,看看文件的書寫是否正確,是否有大小寫混亂的情況出現,是否建站初期的時候有屏蔽所有蜘蛛的爬行的指令忘記修改了。正常情況下robots.txt檢測的事情就直接交給站長工具檢查就可以了