为了账号安全,请及时绑定邮箱和手机立即绑定

apache spark加载内部文件夹

apache spark加载内部文件夹

慕丝7291255 2021-08-14 16:07:35
import findsparkfindspark.init('C:\spark')from pyspark.sql import SparkSessionspark = SparkSession.builder.getOrCreate()a = []i=1880while i<2018:    a.append(str(i)+'/'+str(i)+'verr.csv')    i = i+1dataset1 = spark.read.format('csv').option('header','true').load('C://venq/uyh/'+ a)我运行代码,但出现错误;dataset1 = spark.read.format('csv').option('header','true').load('C://venq/uyh/'+ a) TypeError: can only concatenate str (not "list" ) 到 str我有一个“C:\venq\uyh\1880\1880\verr.csv”格式的循环。我在嵌套文件夹中有 csv 文件。我想用火花阅读它们。但是我收到以下错误。我该如何解决这个问题?谢谢
查看完整描述

1 回答

?
鸿蒙传说

TA贡献1865条经验 获得超7个赞

变量“a”是文件列表。


dataset1 = spark.read.format('csv').option('header','true').load('C://venq/uyh/'+ a)


在这里,您尝试将字符串 'C://venq/uyh/' 与 'a' 连接起来,这是一个列表 - 这会引发错误。尝试


root = r"C://venq/uyh/"


while i<2018:

    a.append(root + str(i)+'/'+ str(i)+'verr.csv')

    i = i+1

然后直接使用


dataset1 = spark.read.format('csv').option('header','true').load(a)


查看完整回答
反对 回复 2021-08-14
  • 1 回答
  • 0 关注
  • 191 浏览
慕课专栏
更多

添加回答

举报

0/150
提交
取消
意见反馈 帮助中心 APP下载
官方微信