StreamingPro目前已经涵盖流式/批处理,以及交互查询三个领域,实现配置和SQL化
前言
今天介绍利用 StreamingPro 完成批处理的流程。
准备工作
下载StreamingPro
我们假设您将文件放在了/tmp目录下。
填写配置文件
实例一,我要把数据从ES导出到HDFS,并且形成csv格式。
在批处理模式下,所有的数据源和输出都各自有一个固定的模块(使用了Spark的Datasource API),然后对模块做配置即可,无需使用不同的模块。
在这个示例里,你需要配置上ES集群作为输入,配置hdfs作为输出,从而完成运行。
启动StreamingPro
Local模式:
cd $SPARK_HOME./bin/spark-submit --class streaming.core.StreamingApp \ --master local[2] \ --name test \ /tmp/streamingpro-0.4.1-SNAPSHOT-online-1.6.1.jar \ -streaming.name test \ -streaming.platform spark \ -streaming.job.file.path file:///tmp/test.json
访问
http://127.0.0.1:4040
可进入Spark UI
集群模式:
cd $SPARK_HOME./bin/spark-submit --class streaming.core.StreamingApp \ --master yarn-cluster \ --name test \ /tmp/streamingpro-0.4.1-SNAPSHOT-online-1.6.1.jar \ -streaming.name test \ -streaming.platform spark \ -streaming.job.file.path hdfs://cluster/tmp/test.json
这里需要注意的是,配置文件并蓄放到HDFS上,并且需要协商hdfs前缀。这是一个标准的Spark 批处理程序
作者:祝威廉
链接:https://www.jianshu.com/p/7f6cb8eaadef
点击查看更多内容
为 TA 点赞
评论
共同学习,写下你的评论
评论加载中...
作者其他优质文章
正在加载中
感谢您的支持,我会继续努力的~
扫码打赏,你说多少就多少
赞赏金额会直接到老师账户
支付方式
打开微信扫一扫,即可进行扫码打赏哦