
做SEO这么久,如果你不知道如何对SEOer进行日志分析,你看到这里,你知道我会悄悄告诉你,日志分析就像中医的脉搏一样,随时都可以到他们的网站上脉搏,别忘了给网站开个处方来做个诊断。IC报告,有症状。是时候开药了。如果你想让网站稳步发展,并遵循SEO的优化规则,网站的日志分析和诊断必须是那些不想做这些工作,注定要失败的SEO。
所谓的网站日志并不像你想象的那么深奥。是不是说通过各种搜索引擎下的蜘蛛,通过域名爬上网站的轨迹和痕迹,它们就成了传奇的网站日志
蜘蛛访问网站的数量可以间接反映网站的权重。为了有效地提高蜘蛛的访问次数,有必要对服务器的性能、深层外部链的构建、层次结构以及条目的添加进行分析和优化。
蜘蛛驻留时间与网站结构、服务器响应时间、代码简洁、内容更新等密切相关。
蜘蛛爬行与网站结构、网站内容更新、服务器cookie设置等密切相关。爬行量越大,站点的可能性就越大。
蜘蛛捕获的大量页面表明了网站具有更有价值的内容,而网站的结构有利于搜索引擎蜘蛛。
单页爬行的停留时间与页面加载速度、页面内容信息、页面代码简洁性等密切相关,它可以提高网页的加载速度,减少蜘蛛单页的停留时间,增强蜘蛛的总爬行,进而提高网页的访问效率。收集网站,增强网站整体流量。
蜘蛛抓取的主要目录应该与网站的关键栏目一致。为了提高关键栏的包含度、权重和关键词排名,有必要从外部链和内部链的角度来调整搜索引擎优化策略。对于不需要包含或抓取的列,必须使用机器人来禁止抓取。
蜘蛛在网站上花费的时间有限,构建良好的网站结构,为关键页面建立条目,降低页面重复爬行的速度,并且向更多不同的页面引入蜘蛛,这有利于改进网站的收集。
1。首先,我们的空间应该支持网站日志下载,这是非常重要的。在购买空间之前,我们必须先打招呼来支持网站日志下载,因为服务提供商不提供这种服务,如果支持,空间后台通常具有日志WebLog下载功能来放置它。可以设置将日志文件下载到指定的路径。
2。这里有一个重要的问题。网站日志强烈建议每小时生成一次。小型企业网站和更少的内容网站可以设置为一天。它默认为一天。如果将更多的内容或大型网站设置为每天一代,那么每天只生成一个文件。这个文件将被生成,它相当大。有时当我们打开电脑,它会导致崩溃。如果我们设置它,我们可以找到一个空间经销商来协调设置。
1。日志的后缀名是日志。我们用笔记本打开它,选择自动换行的格式,这样看起来很方便。同时,利用搜索功能搜索百度蜘蛛和谷歌BOT。
百度蜘蛛2012-03-13000:47:10 W3SVC177 116.255.169.37 GET/-80-220.181.51.144
Google机器人2012-03-1308:18:48 W3SVC177 116.255.169.37 GET/robots.txt-80-222.186.24.26 Google机器人
2012-03-13000:47:10蜘蛛爬行的日期和时间;W3SVC177机器代码这是我们唯一不关心的;116.255.169.37IP地址是服务器的IP地址;GET表示事件,GET后面是蜘蛛爬行的站点页面,斜线代表主页,80表示端口,220表示端口181.5 1.144这个IP是蜘蛛的IP。在这里,我们告诉你一种识别真假百度蜘蛛的方法。我们的计算机点击开始运行CMD打开命令提示符,输入NSLOOKUP空间加上蜘蛛IP点击返回。一般来说,真正的百度蜘蛛有自己的服务器IP,但假蜘蛛没有。
如果网站中有大量的假蜘蛛,那就意味着有人假扮成百度蜘蛛来收集你的内容。你需要注意它。如果它太猖獗,它将占用您的服务器资源。我们需要保护他们的知识产权。
197个265的最后两个数字表示访问和下载的字节数。
2。当我们分析时,我们首先看状态代码200,用于下载成功,304用于页面不变,500用于服务器超时,这些都是百度可以通用的其他代码,针对不同的问题我们必须处理。
三。我们需要看看蜘蛛经常爬行的页面。我们需要记录它们并分析它们为什么经常被蜘蛛爬行,以便分析蜘蛛喜欢什么。
4。有时我们的路径不均匀,有或没有斜线。蜘蛛自动识别带有斜线的301页。在这里,我们发现搜索引擎可以判断我们的目录,所以我们需要统一我们的目录。
5。我们对日志进行了很长时间的分析。我们可以看到蜘蛛爬行的规律。可以看到同一目录下和不同目录下单个文件的频率间隔。这些频率间隔由蜘蛛根据网站的权重和网站更新的频率自动确定。
6。蜘蛛以分层次序爬行我们的页面,这根据权重递减,通常按主页、目录页和内页的顺序递减。
事实上,这些问题可以很容易地通过我们的服务器IIS日志分析。作为一个合格的搜索引擎优化,我们需要真正分析IIS日志之前,我们可以简单地看看状态代码。