我的个人网站部署在小运营商的虚拟主机上,虽然说便宜,但是服务器老是被攻破,所以就出现了无数的博彩垃圾页面,更不幸的是百度还把这些页面给收录了。
不过百度站长工具提供了死链提交的功能,刚开始发现这个功能的时候还信息如狂,但是用过一段时间后发现。这玩意要么是有bug,要么是效率太低,提交几十个死链地址,结果检测出来送删的链接的才两三个。官方对于送删数量的解释为
送删数量为XML文件中新增链接数量,老链接不重复送删
第一个问题,不知道谁用过百度的死链功能,他们这个东西靠谱不?
既然有这么多老链接,可是我也没有看到我之前提交过的链接有被删除过的痕迹。情急之下我修改了网站的robots.txt,在最后一行添加了这么几句话:
User-Agent: Baiduspider
Disallow: /
过了几天发现,百度收录垃圾网页的链接反而增多了。我发现百度对搜索出来的链接后面都有一个时间,如下图:
第二个问题,图中的2014-7-19
是百度的收录时间吗,如果是这样,为何在同一个时间收录的链接,出现在搜索页面的时间却不同。
我发现正是由于我写了robots.txt,吧百度蜘蛛给屏蔽了,但是我的死链文件正是放到同一个网站上的,所以百度蜘蛛拿不到死链内容,所以链接一直得不到删除。
现在我在另一个网站上放置死链文件,保证百度蜘蛛能够读取到,现在看一下死链都删除了。