1、通过IIS 日志处理死链接,错误链接
上面章节里已经说到了通过日志可以查找出一些无法访问的死链接和错误链接,这个链接会被搜索引擎加入地址索引数据库中,为了让搜索引擎下次不对这些链接进行再一次的访问,那么就要运用到ROBOTS(具体用法石其它关于ROBOTS 用法) 进行屏蔽,一些有规律的死链接可以进行批量的屏蔽。这样做当然是为了搜索引擎对我们网站的友好程度了,对于用户来说,有死链接的出现网站就应该有404页面的出现,可以引导用户使用网站其他页面而不是离开。提高网站的PV量,同时也是一个用户体验的设置。
2、通过IIS 日志查看禁止访问的内容
同理如果发现网站有部分禁止内容有蜘蛛爬行的记录,那站长就要注意了,对这些内容要尽快的保护起来,同样也可以通过ROBOTS进行屏蔽,不让蜘蛛爬行,不过ROBOTS只是一个网站跟搜索引擎的协议,蜘蛛不一定会绝对的遵循。所以还可以通过比如游客无法访问等限制来让蜘蛛无法到达。
3、数据量太大不好分析
相信很多人的日志应该是很大的,特别是有流量有排名网站的日志更可能多达几M,那对于这庞大的数据怎么办好呢? 难道是一个人手工的去分析吗? 这个是不可能的,数据过多是无法一个人可以搞得定的,大家就要充分的利用一些外部资源,比如一些空间商提供的日志分析功能(一般是大的空间商),或者是一个日志分析工具,不过这些也有一定的局限性,有时分析得不够全面,不能两全其美。希望以后可以有更好的分析工具。
4、日记分析的重点
其实对于日志里面的很多参数是不需要了解的,主要重点关注的是访问者(比如蜘蛛),访问路径(URL) 访问状态码(404.301.200等)。通过这三个重点,就可以很清楚的了解到服务器的状态和故障了,很多站长在分析日志的时候就经常没有把握侧重点,觉得日志很难查看出什么状况。
温馨提示: 查看日志时利用Crl+F,重点查看常规问题(404,baiduspider)