资源描述:
《应用awstats主动剖析Nginx日记》由会员上传分享,免费在线阅读,更多相关内容在工程资料-天天文库。
1、使用awstats可以分析apache日志,同样也可以分析nginx日志。本文将详细介绍自动定时切割nginx的访问日志,并使用awstats來定时分析nginx的日志的实现方法。本文中使用的是awstats7.0版本。此版本增加了对win7的支持以及一些更新的特性。Newfeatures/improvements:-DetectWindows7.・Canformatnumbersaccordingtolanguage・・Moremimetypes.・Addedgeoip_asn_maxmindplugin・-GeoipMaxmindcitypluginhavenowover
2、ridefilecapabilitiestocompletemissingentriesingeoipmaxminddatabase・・AddedgraphgooglechartapitouseonlineGooglechartapitobuildgraph・・Canshowmapofcountrytoreportcountrieswhenusinggraphgooglechartapi.・Partofcodeswaschangetousemorefunctionsandhaveacleanercode・・Addedparametertoignoremissinglogfil
3、eswhenmergingforasiteonniultipleserverswhereasingleservermaynothavecreatedalogforagivenday.・Updaterobotsdatabase・-AddedDownloadtrackingwherecertainminietypesaredefinedasdownloadsandHTTPstatus206istrackedasdownloadcontinnationAwstats是在SourceForge上发展很快的一个基于Perl的WEB日志分析工具,一个充分的日志分析让Awstats显示您下
4、列资料:・访问次数、独特访客人数,・访问时间和上次访问,・使用者认证、最近认证的访问,・每周的高峰时间(页数,点击率,每小时和一周的千字节),・域名/国家的主机访客(页数点击率,字节,269域名/国家检测,geoip检测),・主机名单,最近访问和未解析的IP地址名单■大多数看过的进出页面,・档案类型,■网站压缩统计表(mod_gzip或者mod_deflate),■使用的操作系统(每个操作系统的页数,点击率,字节,35OSdetected),・使用的浏览器,・机器人访问(检测319个机器人),・嫦虫攻击(5个端虫家族),・搜索引禦,利用关键词检索找到你的地址,・HTTP协议错
5、谍(最近查阅没有找到的页面),・其他基于URL的个性报导,链接参数,涉及综合行销领域目的.・贵网站被加入“最喜爱的书签”•次数.・屏幕大小(需要在索引页补充一些HTML标签).■浏览器的支持比例:Java,Flash,RealG2reader.Quicklimereader,WMAreader.PDFreader.・负载平衡服务器比率集群报告.Awstats的运行是需耍PERL环境的支持,从awstats的文档來看,它对ApacheHTTPServer的支持是非常完美的,而当我们把Web服务器换成Nginx后,耍运行awstats变得很麻烦。首先Nginx本身对Perl的支持
6、是比较弱的,甚至官方也不建议使川;另外在L1志格式上有需要修改后才能运行。日志切割本文主要介绍通过让awstats对日志统计的结果生成静态页面,然后通过Nginx输出以达到统讣Nginx访问日志的效果,英中还包括如何让Nginx白动切割H志文件。对于nginx的日志,我的做法是按天切割。然后存入日期形式的目录中并压缩。需耍注意的是,nginx的日志应该遵循以下格式,才町以被awstats识别,如定义日志格式1log_formatmain'$remote_addr-$remote_user[$time_local]"Jrequest"'2'$status$body_bytes_
7、sent"$http_yferer"'3'n$http_user_agent",,$http_x_forwarded_for"*;使用日志格式1access_log/home/www/logs/access.logmain;本文不讲如何安装nginx,稍后我将发布我的lnmp—键安装包(linuxnginxmysqlphp)。全编译+优化fl动化安装,使用php-fpm运行php的fastegi进程。我写了一个定时切割日志的脚本。毎天0:00开始执行,切割昨天的日志(交由awstats分析),压缩前天的