如何在Apache Spark 2.0中使用SparkSession
1 回答
慕桂英546537
TA贡献1848条经验 获得超10个赞
在Spark的早期版本,sparkContext是进入Spark的切入点。我们都知道RDD是Spark中重要的API,然而它的创建和操作得使用sparkContext提供的API;对于RDD之外的其他东西,我们需要使用其他的Context。比如对于流处理来说,我们得使用StreamingContext;对于SQL得使用sqlContext;而对于hive得使用HiveContext。
- 1 回答
- 0 关注
- 724 浏览
添加回答
举报
0/150
提交
取消