pyspark 代码编写使用 subprocess.Popen(command) 调用另一个 python 作业试图从 spark master web UI http://localhost:8080手动杀死 Sparkcontext并成功杀死当 python 子进程作为 python 进程触发并在工作节点中运行时。使用 Redhatlinux如果我杀死 pyspark sparkcontext,如何杀死 python 子进程?
添加回答
举报
0/150
提交
取消