如何监控网站数据:全面的指南
将这三个维度记录下来,就可以看出网站在使用者看来,究竟有哪些数据。这三个维度可以很好的制定优化方向,比方,日均访问量是多少,为什么来这一个站点?这样对于受众的体验亦是在本项目中的。这里笔者就以两个维度来列举出来。
sitemap
sitemap地图一般放在网站首页,受众可以更方便迅捷的访问到整个网站。但是笔者认为这样做并不能提高网站的可用性。这一个网页几乎可忽略不计。不过,当网站索引有问题的时候,这样的sitemap地图是很有必要的。但是很多站长为了增加索引量,会制作很多网页用来存放索引。而这样做其实在 民受众体验度 度上并没有很好的提高。所以笔者认为这种做法是没有必要的。
robots.txt
robots.txt其实是一个比较好用的爬虫抓取工具,可以发现在网站索引的时候,某个页面还能访问到。但是很多站长并不知道robots.txt的用处。这样做的好处,是有利于提高网站的效率,当网站索引出问题的时候,那么就得针对网站日志的观察。这里笔者在这里就举一个例子。笔者现在还是用的discuz论坛,网站日志的查看功能。在网站日志文件,看到的是什么?是看什么?是可以撰改的吗?
sitemap是一款可以自动生成XML网站地图的工具。在网站地图生成工具可看到网站日志的时间,如果网站日志中没有包含网站地图,那么就得依照这一个时间,来查询网站日志中哪些页面更加有大可能被抓取。
总结:sitemap地图对于网站建设和网站优化,有着很好的帮助。但是,这种做法是不可取的。毕竟,网站中的资源是有限的。在sitemap生成工具里,可以生成的地图是有限的。在网站中的资源是有限的,如果网站中出现了地图,那么,则也许会导致网站资源的浪费,这样,对于网站的建设和优化都是十分不利的。
如果我们需要查看网站日志,最好是在网站地图的生成工具上,查看网站日志中的哪些页面被蜘蛛抓取了。毕竟,一般情况下,站长都不希望自己的网站被蜘蛛抓取太多。但是,robots.txt就是一个非常好的帮助网站的屏蔽蜘蛛的工具。在robots.txt中,我们可以放置网站中所有的动态链接,也可把一些重要的页面屏蔽掉,或,也可在网站中增加一些404页面。这样就能帮助蜘蛛,阅读到自己所希望看到的页面。
以上所转载内容均来自于网络,不为其真实性负责,只为传播网络信息为目的,非商业用途,如有异议请及时联系btr2020@163.com,本人将予以删除。