4 回答
TA贡献6条经验 获得超24个赞
建议首先了解Hadoop的生态系统和平台的运行原理,包括基础的HDFS和MapReduce,然后基于这个中心向外扩展,比如Hbase存储、Hive这些,知道这些其中适用于哪方面,怎么搭配最好;然后找台配置好点的计算机,安装3个以上的Linux虚拟机,单独的搭配Hadoop集群,Hbase集群,Storm,Solr,Kafka等,终点学一下最基础的Zookeeper服务机制,在这个基础上扩展更多的大数据框架,目前基本上企业应用就是一系列框架的组合,熟练掌握这些组合的简单使用,等这些都差不多了,可以说已经对大数据入门了,这里面的东西确实非常多,像机器学习、数据挖掘这些都是以后发展的趋势,我也是刚起步,一起进步哈。。。
TA贡献1条经验 获得超1个赞
投入时间和精力,以兴趣来驱动学习。不管是视频学习还是看书学习,在整个的学习过程中贯穿着代码实战。看的代码是别人的,动手写出来的是自己的。自己动手写代码,记忆更加深刻,效率更高。分阶段的进行学习:1、看视频(零掌握,系统的学习和了解),2、看书(对编程有了一定的掌握,作为补充和提高),3、看博客 帖子(取长补短)。
TA贡献12条经验 获得超0个赞
1、选择一个具体方向
大数据已经初步形成了一个产业链,在数据采集、数据存储、数据安全、数据分析、数据呈现、数据应用等有大量的岗位,不同的岗位需要具备不同的知识结构,所以首先要选择一个适合自己的方向。
2、学习编程等基础知识
大数据的基础知识是数学、统计学和计算机,可以从编程语言开始学起,Python、Java、Scala、R、Go等语言在大数据领域都有一定的应用场景,可以选择一门学习。大数据开发方向建议选择Java、Scala,数据分析方向建议学习Python、R。
3、学习大数据平台知识
入门学习Hadoop或者Spark,Hadoop平台经过多年的发展已经形成了较为完成的应用生态,相关的成熟案例也比较多,产品插件也越来越丰富。
- 4 回答
- 3 关注
- 1978 浏览
添加回答
举报