为了账号安全,请及时绑定邮箱和手机立即绑定

如何使用JDBC源在(Py)Spark中写入和读取数据?

如何使用JDBC源在(Py)Spark中写入和读取数据?

繁华开满天机 2019-07-30 15:27:33
如何使用JDBC源在(Py)Spark中写入和读取数据?这个问题的目标是记录:在PySpark中使用JDBC连接读取和写入数据所需的步骤JDBC源和已知解决方案可能存在的问题通过小的更改,这些方法应该与其他支持的语言一起使用,包括Scala和R.
查看完整描述

3 回答

?
慕妹3146593

TA贡献1820条经验 获得超9个赞

下载mysql-connector-java驱动程序并保存在spark jar文件夹中,观察这里将数据写入“acotr1”的bellow python代码,我们要在mysql数据库中创建acotr1表结构

    spark = SparkSession.builder.appName("prasadad").master('local').config('spark.driver.extraClassPath','D:\spark-2.1.0-bin-hadoop2.7\jars\mysql-connector-java-5.1.41-bin.jar').getOrCreate()

    sc = spark.sparkContext    from pyspark.sql import SQLContext

    sqlContext = SQLContext(sc)

    df = sqlContext.read.format("jdbc").options(url="jdbc:mysql://localhost:3306/sakila",driver="com.mysql.jdbc.Driver",dbtable="actor",user="root",password="Ramyam01").load()

    mysql_url="jdbc:mysql://localhost:3306/sakila?user=root&password=Ramyam01"

    df.write.jdbc(mysql_url,table="actor1",mode="append")


查看完整回答
1 反对 回复 2019-07-30
  • 3 回答
  • 0 关注
  • 1497 浏览
慕课专栏
更多

添加回答

举报

0/150
提交
取消
意见反馈 帮助中心 APP下载
官方微信