章节
问答
课签
笔记
评论
占位
占位
今日不再显示

下一节课程: Spark生态介绍 (04:25) 下一节 重新观看

3 秒后播放下一节

为你推荐

Terby
JAVA开发工程师

从事大数据领域工作5年。做过基于hadoop的电商推荐项目,用户画像项目等,做过基于Storm的新闻实时推荐项目,基于SolrCloud的用户运营系统等。具有大数据平台下的数据仓库搭建和数据挖掘经验。

提问题

写笔记

代码语言
公开笔记
提交
加群二维码

打开微信扫码自动绑定

您还未绑定服务号

绑定后可得到

  • · 粉丝专属优惠福利
  • · 大咖直播交流干货
  • · 课程更新,问题答复提醒
  • · 账号支付安全提醒

收藏课程后,能更快找到我哦~

使用 Ctrl+D 可将课程添加到书签

邀请您关注公众号
关注后,及时获悉本课程动态

举报

0/150
提交
取消
全部 精华 我要发布

最新回答 / mickeychen
用textFile加载本地文件时你试试这样写sc.textFile("/home/hadoop/2.txt")路径前面就别加 " file:// " 试试,我写的时候就没加,可以读取到本地文件

已采纳回答 / 慕设计2688246
java或者scala 语言掌握 mysql hive 二者的命令熟悉 Navicat sqoop 等工具使用  flume hadoop sqark等架构

最赞回答 / 去疾3639230
相比与MapReduce编程模型,Spark提供了更加灵活的DAG(Directed Acyclic Graph) 编程模型, 不仅包含传统的map、reduce接口, 还增加了filter、flatMap、union等操作接口,使得编写Spark程序更加灵活方便。

已采纳回答 / 田心枫
Apache Spark 是专为大规模数据处理而设计的快速通用的计算引擎。
全部 我要发布
最热 最新
只看我的

本次提问将花费2个积分

你的积分不足,无法发表

为什么扣积分?

本次提问将花费2个积分

继续发表请点击 "确定"

为什么扣积分?

账号登录 验证码登录

遇到问题
忘记密码

代码语言