如何用SARG日志分析器来分析【优选3篇】
如何用SARG日志分析器来分析 篇一
SARG(Squid Analysis Report Generator)是一款用于分析Squid代理服务器访问日志的工具。它可以帮助我们深入了解用户的访问行为和网络流量状况,从而优化网络性能和安全管理。本文将介绍如何使用SARG日志分析器来分析日志文件,并提取有用的信息。
首先,我们需要安装SARG日志分析器。SARG是一个开源软件,可以从其官方网站下载并安装。安装完成后,我们需要配置SARG,使其能够正确读取和分析Squid代理服务器的访问日志文件。
在配置文件中,我们需要指定Squid访问日志文件的路径和格式。一般情况下,Squid的访问日志文件位于/var/log/squid/access.log。我们可以通过编辑SARG配置文件,将日志文件路径设置为该路径。
配置完成后,我们可以通过运行SARG命令来生成报告。SARG将会读取并分析Squid访问日志文件,并根据配置文件中的设置生成相应的报告。生成的报告可以是HTML格式或者文本格式,我们可以根据需要选择。
生成的报告将包含许多有用的信息,如用户的访问量、访问时间分布、访问来源等。我们可以通过查看这些信息来了解用户的访问行为和网络流量状况。例如,我们可以通过查看用户的访问量来判断哪些网站受到了最多的访问,从而优化网络带宽的分配。我们还可以通过查看访问时间分布来分析用户的活动规律,从而调整网络资源的分配策略。
此外,SARG还提供了一些高级功能,如过滤和排序。我们可以通过配置SARG来设置过滤规则,从而只分析我们感兴趣的日志条目。我们还可以通过指定排序规则,对生成的报告进行排序,以便更好地理解和分析数据。
总之,SARG日志分析器是一款功能强大的工具,可以帮助我们深入了解用户的访问行为和网络流量状况。通过正确配置和使用SARG,我们可以从海量的日志数据中提取有用的信息,并根据这些信息来优化网络性能和安全管理。希望本文对您在使用SARG日志分析器时有所帮助。
如何用SARG日志分析器来分析 篇二
SARG(Squid Analysis Report Generator)是一款用于分析Squid代理服务器访问日志的工具。它可以帮助我们深入了解用户的访问行为和网络流量状况,从而优化网络性能和安全管理。本文将介绍如何使用SARG日志分析器来分析日志文件,并提取有用的信息。
首先,我们需要安装SARG日志分析器。SARG是一个开源软件,可以从其官方网站下载并安装。安装完成后,我们需要配置SARG,使其能够正确读取和分析Squid代理服务器的访问日志文件。
在配置文件中,我们需要指定Squid访问日志文件的路径和格式。一般情况下,Squid的访问日志文件位于/var/log/squid/access.log。我们可以通过编辑SARG配置文件,将日志文件路径设置为该路径。
配置完成后,我们可以通过运行SARG命令来生成报告。SARG将会读取并分析Squid访问日志文件,并根据配置文件中的设置生成相应的报告。生成的报告可以是HTML格式或者文本格式,我们可以根据需要选择。
生成的报告将包含许多有用的信息,如用户的访问量、访问时间分布、访问来源等。我们可以通过查看这些信息来了解用户的访问行为和网络流量状况。例如,我们可以通过查看用户的访问量来判断哪些网站受到了最多的访问,从而优化网络带宽的分配。我们还可以通过查看访问时间分布来分析用户的活动规律,从而调整网络资源的分配策略。
此外,SARG还提供了一些高级功能,如过滤和排序。我们可以通过配置SARG来设置过滤规则,从而只分析我们感兴趣的日志条目。我们还可以通过指定排序规则,对生成的报告进行排序,以便更好地理解和分析数据。
总之,SARG日志分析器是一款功能强大的工具,可以帮助我们深入了解用户的访问行为和网络流量状况。通过正确配置和使用SARG,我们可以从海量的日志数据中提取有用的信息,并根据这些信息来优化网络性能和安全管理。希望本文对您在使用SARG日志分析器时有所帮助。
如何用SARG日志分析器来分析 篇三
如何用SARG日志分析器来分析
SARG是一款基于网络的工具,它可以分析Squid日志,并以更详细的方式展示分析。系统管理员可以利用SARG来监视哪些网站被访问了,并跟踪访问量最大的网站和用户。本文包含了SARG配置工作。SARG提供了很多有用的特性,但是分析一个原始Squid日志文件并不直接。比如,你如何分析下面Squid日志中的时间戳和数字?
1404788984.429 1162 172.17.1.23 TCP_MISS/302 436 GET http://facebook.com/ - DIRECT/173.252.110.27 text/html
1404788985.046 12416 172.17.1.23 TCP_MISS/200 4169 CONNECT stats.pusher.com:443 - DIRECT/173.255.223.127 -
1404788986.124 174 172.17.1.23 TCP_MISS/200 955 POST http://ocsp.digicert.com/ - DIRECT/117.18.237.29 application/ocsp-response
1404788989.738 342 172.17.1.23 TCP_MISS/200 3890 CONNECT :443 - DIRECT/74.125.200.106 -
1404788989.757 226 172.17.1.23 TCP_MISS/200 942 POST http://clients1.google.com/ocsp - DIRECT/74.125.200.113 application/ocsp-response
1404788990.839 3939 172.17.1.23 TCP_MISS/200 78944 CONNECT fbstatic-a.akamaihd.net:443 - DIRECT/184.26.162.35 -
1404788990.846 2148 172.
1404788990.849 2151 172.17.1.23 TCP_MISS/200 76809 CONNECT fbstatic-a.akamaihd.net:443 - DIRECT/184.26.162.35 -
1404788991.140 611 172.17.1.23 TCP_MISS/200 110073 CONNECT fbstatic-a.akamaihd.net:443 - DIRECT/184.26.162.35 –
我们使用yum来安装安装必要的依赖。
# yum install gcc make wget httpd crond
在启动时加载必要的服务
# service httpd start; service crond start
# chkconfig httpd on; chkconfig crond on
现在我们下载并解压SARG
上一节教程中,我们展示了如何在CentOS上使用Squid配置透明代理。Squid提供了很多有用的特性,但是分析一个原始Squid日志文件并不直接。比如,你如何分析下面Squid日志中的时间戳和数字?
1404788984.429 1162 172.17.1.23 TCP_MISS/302 436 GET http://facebook.com/ - DIRECT/173.252.110.27 text/html
1404788985.046 12416 172.17.1.23 TCP_MISS/200 4169 CONNECT stats.pusher.com:443 - DIRECT/173.255.223.127 -
1404788986.124 174 172.17.1.23 TCP_MISS/200 955 POST http://ocsp.digicert.com/ - DIRECT/117.18.237.29 application/ocsp-response
1404788989.738 342 172.17.1.23 TCP_MISS/200 3890 CONNECT :443 - DIRECT/74.125.200.106 -
1404788989.757 226 172.17.1.23 TCP_MISS/200 942 POST http://clients1.google.com/ocsp - DIRECT/74.125.200.113 application/ocsp-response
1404788990.839 3939 172.17.1.23 TCP_MISS/200 78944 CONNECT fbstatic-a.akamaihd.net:443 - DIRECT/184.26.162.35 -
1404788990.846 2148 172.17.1.23 TCP_MISS/200 118947 CONNECT fbstatic-a.akamaihd.net:443 - DIRECT/184.26.162.35 -
1404788990.849 2151 172.17.1.23 TCP_MISS/200 76809 CONNECT fbstatic-a.akamaihd.net:443 - DIRECT/184.26.162.35 -
1404788991.140 611 172.17.1.23 TCP_MISS/200 110073 CONNECT fbstatic-a.akamaihd.net:443 - DIRECT/184.26.162.35 –
我们使用yum来安装安装必要的依赖。
# yum install gcc make wget httpd crond
在启动时加载必要的服务
# service httpd start; service crond start
# chkconfig httpd on; chkconfig crond on
现在我们下载并解压SARG
# wget http://downloads.sourceforge.net/project/sarg/sarg/sarg-2.3.8/sarg-2.3.8.tar.gz?
# tar zxvf sarg-2.3.8.tar.gz
# cd sarg-2.3.8
注意: 对于64位的Linux,log.c的源代码需要用下面的文件打补丁。
1506c1506
< if (fprintf(ufile->file, "%st%st%st%st%"PRIi64"t%st%ldt%sn",dia,hora,ip,url,nbytes,code,elap_time,smartfilter)<=0) {
---
> if (fprintf(ufile->file, "%st%st%st%st%"PRIi64"t%st%ldt%sn",dia,hora,ip,url,(int64_t)nbytes,code,elap_time,smartfilter)<=0) {
1513c1513
< fprintf(fp_log, "%st%st%st%st%st%"PRIi64"t%st%ldt%sn",dia,hora,user,ip,url,nbytes,code,elap_time,smartfilter);
---
> fprintf(fp_log, "%st%st%st%st%st%"PRIi64"t%st%ldt%sn",dia,hora,user,ip,url,(int64_t)nbytes,code,elap_time,smartfilter);
1564c1564
< printf("LEN=t%"PRIi64"n",nbytes);---
> printf("LEN=t%"PRIi64"n",(int64_t)nbytes);
如下继续并编译/安装SARG
# ./configure
# make
# make install
SARG安装之后,配置文件可以按你的要求修改。下面是一个SARG配置的例子。
# vim /usr/local/etc/sarg.conf
access_log /var/log/squid/access.log
temporary_dir /tmp
output_dir /var/www/html/squid-reports
date_format e ## We use Europian DD-MM-YYYY format here ##
## we don’t want multiple reports for single day/week/month ##
overwrite_report yes
现在是时候测试运行了,我们用调试模式运行sarg来查看是否存在错误。
# sarg -x
如果i一切正常,sarg会根系Squid日志,并在/var/www/html/squid-reports下创建报告。报告也可以在浏览器中通过地址http://<服务器ip>/squid-reports/访问。
SARG可以用于创建日、周、月度报告。时间范围用“-d”参数来指定,值的形式很可能为day-n、 week-n 或者 month-n,n的.值为向前推移的天/周/月的数量。比如,使用week-1,SARG会生成之前一星期的报告。使用day-2,SARG会生成之前两天的报告。
作为演示,我们会准备一个计划任务来每天运行SARG。
# vim /etc/cron.daily/sarg
#!/bin/sh
/usr/local/bin/sarg -d day-1
文件需要可执行权限。
# chmod 755 /usr/local/bin/sarg
现在SARG应该会每天准备关于Squid管理的流量报告。这些报告可以很容易地通过SARG网络接口访问。
以上就是利用SARG工具,来分析分析Squid日志,并以更详细的方式展示分析。系统管理员可以利用SARG来监视哪些网站被访问了,并跟踪访问量最大的网站和用户。
另外小编找来的这篇文章还包含了SARG配置工作。你可以进一步自定义配置来满足自己的要求。希望能帮助大家,谢谢有点。