为了账号安全,请及时绑定邮箱和手机立即绑定

spark创建rdd,DataFrame,Spark SQL

标签:
Spark
# coding=utf8from pyspark import SparkConf, SparkContextfrom pyspark.sql import SparkSession, Row'''
基本RDD“转换”运算
'''conf = SparkConf().setMaster("local").setAppName("My App")
sc = SparkContext(conf=conf)global Pathif sc.master[0:5] == 'local':
    Path = '1.txt'# print sc.master# print Path#######################   创建RDD    ###########################textRdd = sc.textFile(Path)print textRdd.count()print textRdd.take(5)

userRdd = textRdd.map(lambda line: line.split(','))print userRdd.take(5)#######################    创建DataFrame    ############################ 创建sqlContextsqlContext = SparkSession.builder.getOrCreate()# 定义schemauser_rows = userRdd.map(lambda p:
                        Row(
                            userid=int(p[0]),
                            age=int(p[1]),
                            gender=p[2],
                            work=p[3],
                            zipcode=p[4]
                        )
                        )print user_rows.collect()# 创建DataFramesuser_df = sqlContext.createDataFrame(user_rows)
user_df.printSchema()
user_df.show()# 为DataFrame创建别名udf = user_df.alias('udf')
udf.show()#######################   使用spark sql   ############################ 登录临时表user_df.registerTempTable('user_table')# 查看项数sqlContext.sql('select count(*) counts from user_table').show()# 多行输入spark sql语句sqlContext.sql('''
select count(*) 
counts 
from user_table
''').show()# 使用spark sql查看数据# 使用Spark SQL limit指定要显示的项数sqlContext.sql('select * from user_table limit 5').show()

1.txt内容:

1,24,M,technician,85711
2,53,F,other,94043
3,23,M,writer,32067
4,24,M,technician,43537
5,33,F,other,16213



作者:BlueCat2016
链接:https://www.jianshu.com/p/cb0d4f5709e6


点击查看更多内容
TA 点赞

若觉得本文不错,就分享一下吧!

评论

作者其他优质文章

正在加载中
  • 推荐
  • 评论
  • 收藏
  • 共同学习,写下你的评论
感谢您的支持,我会继续努力的~
扫码打赏,你说多少就多少
赞赏金额会直接到老师账户
支付方式
打开微信扫一扫,即可进行扫码打赏哦
今天注册有机会得

100积分直接送

付费专栏免费学

大额优惠券免费领

立即参与 放弃机会
意见反馈 帮助中心 APP下载
官方微信

举报

0/150
提交
取消