为了账号安全,请及时绑定邮箱和手机立即绑定

Spark从零开始

Terby JAVA开发工程师
难度初级
时长 2小时18分
学习人数
综合评分9.80
56人评价 查看评价
9.8 内容实用
9.7 简洁易懂
9.9 逻辑清晰
  • scala变量分配 var val
    查看全部
    0 采集 收起 来源:Rdds介绍

    2017-10-29

  • foreach遍历
    查看全部
    0 采集 收起 来源:Rdds介绍

    2017-10-29

  • spark程序打jar包 1、配置jar包 2、build
    查看全部
  • Spark 1.6.2 ——Scala 2.10 Spark 2.0.0——Scala 2.1.1
    查看全部
    0 采集 收起 来源:spark安装

    2017-10-23

  • 快速:秒和分级别,相比hadoop的分和时 通用:应用场景多 快速: 1、扩充hadoop的Mapreduce计算模型 2、基于内存计算章节 通用: 1、容纳其他分布式系统功能,具有批计算,迭代式计算,交互查询和流处理 2、高度开发,提供多yu8yan的API,具有丰富的内置库
    查看全部
    0 采集 收起 来源:Spark简介

    2017-10-20

  • 延迟计算
    查看全部
    0 采集 收起 来源:RDDS的特性

    2017-10-19

  • 。。。。
    查看全部
    0 采集 收起 来源:RDDS的特性

    2017-10-06

  • 123
    查看全部
  • 启动master ./sbin/start-master.sh 启动worker ./bin/spark-class org.apache.spark.deploy.worker.Worker spark://localhost.localdomain:7077 提交作业 ./bin/spark-submit --master spark://localhost.localdomain:7077 --class WordCount /home/spark/testspark.jar
    查看全部
  • 启动集群: 启动master ./sbin/start-master.sh 启动worker ./bin/spark-class 提交作业 ./bin/spark-submit
    查看全部
  • Hadoop应用场景: 离线处理,时效性要求不高的场景:Hadoop中间数据落到硬盘上,导致Hadoop处理大数据时,时效性不高,时间在几分钟到几小时不等,但数据可以存储。 Spark应用场景: 时效性要求高的场景和机器学习:Spark基于内存,中间数据多在内存中,数据处理块,但Spark不具备hdfs存储功能,需借助hdfs
    查看全部
  • spark历史:伯克利实验室研究项目,基于Hadoop的Mapreduce机制,引入内存管理机制,提高了迭代式计算和交互式中的效率。 spark组件: spark core:spark基本功能,包括任务调度,内存管理,容错机制 内部定义了RDDs(弹性分布式数据集),提供多个APIs调用,为其他组件提供底层服务 spark sql:spark处理结构化数据的库,类似Hive SQL,MySql,主要为企业提供报表统计 spark streaming:实时数据流处理组件,类似Storm,提供API操作实时流数据,企业中用来从Kafka中接收数据做实时统计 Mlib:机器学习功能包,包括聚类,回归,模型评估和数据导入。同时支持集群平台上的横向扩展 Graphx:处理图的库,并进行图的并行计算 Cluster Manager是:spark自带的集群管理 Spark紧密集成的优点: spark底层优化,基于spark底层的组件也得到相应的优化,紧密集成节省了组件的部署,测试时间
    查看全部
    0 采集 收起 来源:Spark生态介绍

    2017-09-27

  • 快速:秒和分级别,相比hadoop的分和时 通用:应用场景多 快速: 1、扩充hadoop的Mapreduce计算模型 2、基于内存计算章节 通用: 1、容纳其他分布式系统功能,具有批计算,迭代式计算,交互查询和流处理 2、高度开发,提供多yu8yan的API,具有丰富的内置库
    查看全部
    0 采集 收起 来源:Spark简介

    2017-09-27

  • Spark是Scala写的,运行再jvm上的,运行环境java7以上
    查看全部
    1 采集 收起 来源:spark安装

    2017-09-27

  • zcm
    RDD 基本操作 Transformation(转换) val lines = sc.parallelize(Array("hello","spark","spark","hello","!")) lines.freach(println) lines.map(workd=>(word,1)) 每一个元素+1 filter() lines.filter(world=>word.constains("hello")) flatMap() 压扁,返回一个新的Rdd
    查看全部

举报

0/150
提交
取消
课程须知
1、 简单Linux的操作
老师告诉你能学到什么?
1、了解Spark到底是什么 2、了解Spark和Hadoop的区别 3、了解Spark的基础知识和概念 4、掌握Spark RDD的基本操作和特性 5、掌握Spark程序的开发和部署流程

微信扫码,参与3人拼团

意见反馈 帮助中心 APP下载
官方微信
友情提示:

您好,此课程属于迁移课程,您已购买该课程,无需重复购买,感谢您对慕课网的支持!