一:可从前段埋点、后端日志两个角度描述
二:其实也有看过如 GrowingIO的第三方方案,不过涉及用户数据还是不安全
三:如果有现有的 GitHub项目方案就更好了
一:可从前段埋点、后端日志两个角度描述
二:其实也有看过如 GrowingIO的第三方方案,不过涉及用户数据还是不安全
三:如果有现有的 GitHub项目方案就更好了
15 回答8.4k 阅读
8 回答6.2k 阅读
1 回答4.1k 阅读✓ 已解决
3 回答2.2k 阅读✓ 已解决
2 回答3.1k 阅读
2 回答3.8k 阅读
3 回答1.7k 阅读✓ 已解决
一般来说就是前端埋点,上报,通过某个中间件,然后汇总到Hive。
后端日志的话,可以通过logstash+kafka的方式,导入到Hive。
都汇总到Hive之后,先对数据进行清洗,对数据格式进行规范话,然后使用Spark平台进行一些需要的分析。
大致就是这样。