当做事器压力比较大,跑起来很费力时候。我们常常做站点页面优化,会去查找那些页面访问次数比较多,而且比较费时。 找到那些访问次数高,并且比较耗时的地址,就行干系优化,会取得吹糠见米的效果的。 下面是我在做优化时候,常常用到的一段shell 脚本。 这个也可以算是,统计web页面的slow page 慢访问页面,象mysql slow query
以下是我的:nginx 配置
log_format main '$remote_addr - $remote_user [$time_local] $request '

'\"大众$status\公众 $body_bytes_sent \公众$http_referer\"大众 '
'\"大众$http_user_agent\公众 \"大众$http_x_forwarded_for\"大众 $request_time';
access_log /var/log/nginx/access.log main buffer=32k;
从上面配置,可以看到:ip在 第一列,页面耗时是在末了一列,中间用空格分隔。 因此在awk 中,分别可以用:$1
$NF 读取到当前值。 个中NF是常量,代表全体列数。
下面是剖析代码的shell文件,可以存为request.sh
#!/bin/sh
export PATH=/usr/bin:/bin:/usr/local/bin:/usr/X11R6/bin;
export LANG=zh_CN.GB2312;
function usage()
{
echo \公众$0 filelog options\公众;
exit 1;
}
function slowlog()
{
#set -x;
field=$2;
files=$1;
end=2;
msg=\公众\公众;
[[ $2 == '1' ]] && field=1&&end=2&&msg=\公众总访问次数统计\公众;
[[ $2 == '2' ]] && field=3&&end=4&&msg=\"大众均匀访问韶光统计\"大众;
echo -e \"大众\r\n\r\n\公众;
echo -n \"大众$msg\"大众;
seq -s '#' 30 | sed -e 's/[0-9]//g';
awk '{split($7,bbb,\"大众?\"大众);arr[bbb[1]]=arr[bbb[1]]+$NF; arr2[bbb[1]]=arr2[bbb[1]]+1; } END{for ( i in arr ) { print i\"大众:\公众arr2[i]\"大众:\"大众arr[i]\"大众:\公众arr[i]/arr2[i]}}' $1 | sort -t: +$field -$end -rn |grep \"大众pages\"大众 |head -30 | sed 's/:/\t/g'
}
[[ $# < 2 ]] && usage;
slowlog $1 $2;
只须要实行:slow.sh 日志文件 1或者2
1:三十条访问最平凡的页面
2:三十条访问最耗时的页面
实行结果如下:chmod +x ./slow.sh
chmod +x slow.sh
./slow.sh /var/log/nginx/
./slow.sh /var/log/nginx/access.log 2
均匀访问韶光统计#############################
/pages/########1.php 4 120.456 30.114
/pages/########2.php 1 16.161 16.161
/pages/########3.php 212 1122.49 5.29475
/pages/########4.php 6 28.645 4.77417
..................
希望以上脚本对大家会有一定帮助。