如果你们中的某个人可以指导我将 scala(或 java)结果集转换为 Spark Dataframe,我会很高兴。我不能使用这个符号:val jdbcDF = spark.read .format("jdbc") .option("url", "jdbc:mysql://XXX-XX-XXX-XX-XX.compute-1.amazonaws.com:3306/") .option("dbtable", "pg_partner") .option("user", "XXX") .option("password", "XXX") .load()所以在向我推荐这个类似的问题之前,请考虑一下。我不能使用该符号的原因是我需要使用我正在使用的当前版本的 spark (2.2.0) 中不存在的 jdbc 配置,因为我想使用最近使用的“queryTimeout”选项添加到 spark 2.4 版,所以我需要在 ResultSet 中使用它。任何帮助将不胜感激。
添加回答
举报
0/150
提交
取消