一:可从前段埋点、后端日志两个角度描述二:其实也有看过如 GrowingIO的第三方方案,不过涉及用户数据还是不安全三:如果有现有的 GitHub项目方案就更好了
1 回答
偶然的你
TA贡献1841条经验 获得超3个赞
一般来说就是前端埋点,上报,通过某个中间件,然后汇总到Hive。
后端日志的话,可以通过logstash+kafka的方式,导入到Hive。
都汇总到Hive之后,先对数据进行清洗,对数据格式进行规范话,然后使用Spark平台进行一些需要的分析。
大致就是这样。
- 1 回答
- 0 关注
- 1010 浏览
添加回答
举报
0/150
提交
取消