Spark实现本地开发
代码如下
package sparksqlimport org.apache.spark.rdd.RDDimport org.apache.spark.{SparkConf, SparkContext}import org.apache.spark.sql.SparkSession/** * Created by IBM on 2017/4/15. */object SparkSqlLearn extends App{ val conf = new SparkConf().setMaster("spark://192.168.137.10:7077").setAppName("SparkSql") .setJars(List("D:\\java\\idea\\SparkLearn\\out\\artifacts\\SparkLearn_jar\\SparkLearn.jar")) //val conf = new SparkConf().setMaster("local").setAppName("SparkSql") val sc = new SparkContext(conf) val data = Array("app app","asd app","demo llp","demo") val re :RDD[(String,Int)]= sc.parallelize(data).flatMap(str => str.split(" ")).map(str => (str,1)).reduceByKey({case (x,y) => x + y}) val re_array = re.collect() for((key,value) <- re_array){ println(key + " value is " + value) } println(re.count()) println("hello") }
上面第一个要注意的就是setMaster("spark://192.168.137.10:7077")设置远程服务器
另外就是.setJars(List("D:\java\idea\SparkLearn\out\artifacts\SparkLearn_jar\SparkLearn.jar"))告诉Spark 集群我们要提交的作业的代码在哪里,也就是我们包含我们程序的Jar包的路径,记住路径中千万别包含中文。
配置打包:
Paste_Image.png
记得一定要勾选Include in project build
然后执行build,生成Jar包,最终生成的Jar如下:
Paste_Image.png
然后执行代码,输出结果如下:
Paste_Image.png
作者:kason_zhang
链接:https://www.jianshu.com/p/b4b7b287c82d
点击查看更多内容
为 TA 点赞
评论
共同学习,写下你的评论
评论加载中...
作者其他优质文章
正在加载中
感谢您的支持,我会继续努力的~
扫码打赏,你说多少就多少
赞赏金额会直接到老师账户
支付方式
打开微信扫一扫,即可进行扫码打赏哦