蜘蛛日志分析 Cygwin Terminal shell指令的使用方法

2019年10月25日00:18:19 发表评论

蜘蛛日志分析是网站优化的重要环节,蜘蛛日志分析的工具有有多,比如光年、落个好,等工具,想使用高逼格一点的工具只有这个了(Cygwin Terminal)。我相信这个软件很少人会在用了。下面来介绍一下这款软件的使用方法吧(shell指令的使用方法)。

现在把罗列下这些项:

//统计不重复抓取数量

//统计所有状态码数量

//统计某个目录抓取次数

//统计各个目录出现404响应码次数

//统计404页面的抓取数量

//统计每个ip下对应URL的抓取次数

//提取百度蜘蛛访问数量前10的网站目录及访问次数,并按降序排列

//提取某个目录百度蛛蛛访问次数

对于不懂的命令符,大家还是多百度,多问 因为我底下这些都是这样过来的,欢迎评论提问,吐槽。。。指正。。。

下面我们就进入演示。。。。请大家盯紧了。。

对于不懂的命令符,大家还是多百度,多问 因为我底下这些都是这样过来的,欢迎评论提问,吐槽。。。指正。。。

下面我们就进入演示。。。。请大家盯紧了。。

蜘蛛日志分析 Cygwin Terminal shell指令的使用方法

//统计不重复抓取数量

cat baidu.log | awk ‘{print $4}’|sort|uniq|wc -l

蜘蛛日志分析 Cygwin Terminal shell指令的使用方法

//统计所有状态码数量

awk ‘{print $10}’ baidu.log |sort|uniq -c

蜘蛛日志分析 Cygwin Terminal shell指令的使用方法

//统计某个目录抓取次数

grep “/shop” baidu.log | awk ‘{print $4}’ |sort |wc –l

蜘蛛日志分析 Cygwin Terminal shell指令的使用方法

//统计各个目录出现404响应码次数

awk ‘{if($10==”404″){print $0}}’ baidu.log|sort|uniq -c|wc -l

//统计404页面的抓取数量

awk ‘{if($10==”404″){print $0}}’ baidu.log|sort|uniq|wc -l

 

//统计每个ip下对应URL的抓取次数

awk ‘{print $6,$4}’ baidu.log |sort|uniq –c

//提取百度蜘蛛访问数量前10的网站目录及访问次数,并按降序排列

awk ‘{print $4}’ baidu.log |grep -P “[^/(a-zA-Z)|^/(a-zA-Z)/]”|awk -F”/” ‘{print $2}’|sort|uniq -c|sort -r|head -10

//提取某个目录百度蛛蛛访问次数

cat baidu.log | grep “/shop/”| wc –l

cat baidu.log |awk ‘{print $4}’ |grep “/shop/” |wc –l

cat baidu.log |awk ‘{print $4} |awk –F”/” ‘{print $2}’|grep “shop”|wc -l

发表评论

:?: :razz: :sad: :evil: :!: :smile: :oops: :grin: :eek: :shock: :???: :cool: :lol: :mad: :twisted: :roll: :wink: :idea: :arrow: :neutral: :cry: :mrgreen: