我目前能想到的方法:
awk分析日志+条件求和,更新数据库。
但当日志体积庞大时,效率会受到影响。
有没有更简洁的方式?
只要定时做好日志切割,每次处理的文件不会很大。
然后自己写个小程序来统计,效率比较高。
如果有比较灵活的查询需求,还可以把日志信息记录到数据库里头去,根据时间和必要的字段建立好索引,用SQL直接查询就好了。
1 回答2.8k 阅读✓ 已解决
1 回答1.9k 阅读✓ 已解决
2 回答1.5k 阅读✓ 已解决
2 回答1.4k 阅读✓ 已解决
2 回答1.3k 阅读✓ 已解决
4 回答1.2k 阅读
1 回答1.1k 阅读✓ 已解决
欢迎试用我们的http_accounting模块,在nginx官网的第三方模块列表里有哟~