求教各位大神:本人用scalas+spark开发,用RDD实现以下需求时遇到困难!数据:用户 位置 天数user1 L1 28user1 L2 20user1 L3 15user2 L1 30user2 L2 15user3 L5 3user3 L6 18user4 L7 4通过spark RDD怎样实现按用户分组提取每个用户天数最大的位置希望数据结果:RDD:array((user1,L1,28),(user2,L1,30),(user3 , L6,18),(user4,,7 4))这里主体是根据用户分组计算最大天数,并把位置带出来,研究半天无果,求大神指教
添加回答
举报
0/150
提交
取消