1 回答
TA贡献1725条经验 获得超7个赞
当您可以使用 Spark 内置函数时,不要使用 UDF,因为它们通常性能较差。
这是一个仅使用与您的函数相同的 Spark SQL 函数的解决方案:
from pyspark.sql.functions import col, radians, asin, sin, sqrt, cos
df.withColumn("dlon", radians(col("p2_lon")) - radians(col("p1_longitude"))) \
.withColumn("dlat", radians(col("p2_lat")) - radians(col("p1_latitude"))) \
.withColumn("haversine_dist", asin(sqrt(
sin(col("dlat") / 2) ** 2 + cos(radians(col("p1_latitude")))
* cos(radians(col("p2_lat"))) * sin(col("dlon") / 2) ** 2
)
) * 2 * 3963 * 5280) \
.drop("dlon", "dlat")\
.show(truncate=False)
给出:
+-----------+------------+----------+---------+------------------+
|p1_latitude|p1_longitude|p2_lat |p2_lon |haversine_dist |
+-----------+------------+----------+---------+------------------+
|-85.8059 |38.250134 |-85.805122|38.250098|284.13023254857814|
+-----------+------------+----------+---------+------------------+
您可以在此处找到可用的 Spark 内置函数。
添加回答
举报