3 回答

TA贡献1828条经验 获得超3个赞
您需要在集群配置中更改此参数。进入集群设置,在高级下选择火花和粘贴spark.driver.maxResultSize 0
(无限制)或任何适合您的值。不推荐使用 0。您应该通过重新分区来优化作业。

TA贡献2041条经验 获得超4个赞
看起来您的驱动程序存储结果的大小有限,并且您的结果文件已超过限制,因此您可以通过笔记本中的以下命令增加结果的大小。
sqlContext.getConf("spark.driver.maxResultSize") res19: String = 20g
它给出了当前最大存储容量为 20 GB,我的
sqlContext.setConf("spark.driver.maxResultSize","30g")
要增加 maxResultSize,您可以使用上述命令。
不推荐这样做,因为它会降低集群的性能大小,因为这样您就最大限度地减少了分配给集群中用于处理的临时文件的可用空间。但我认为它解决了您的问题。

TA贡献1934条经验 获得超2个赞
您需要增加集群的 maxResultSize 值。
在maxResultSize
必须设置之前在启动群集-试图在启动群集之后将无法正常工作设置maxResultSize在笔记本上。
“编辑”集群并在“高级选项”下的“Spark 配置”部分设置值。
这是在 AWS 中为 Databricks配置集群的屏幕截图,但对于 Azure 中的 Databricks 可能存在类似的内容。
在您的笔记本中,您可以通过包含以下命令来验证该值是否已设置:
当然,在您的情况下 8g 可能不够大,因此请继续增加它直到问题消失 - 或者其他东西爆炸!祝你好运。
注意:当我遇到这个问题时,我的笔记本试图写入 S3,而不是直接尝试“收集”数据,可以这么说。
添加回答
举报