为了账号安全,请及时绑定邮箱和手机立即绑定

在 Python 中对大型数据集使用 OOP 是否有益?

在 Python 中对大型数据集使用 OOP 是否有益?

月关宝盒 2021-09-24 16:00:44
我正在对两种类型的测量实施卡尔曼滤波器。我每秒 (1Hz) 进行 GPS 测量,一秒 (100Hz) 进行 100 次加速度测量。所以基本上我有两张大桌子,它们必须在某个时候融合在一起。我的目标是:我真的很想写出可读和可维护的代码。我的第一种方法是:两个数据表都有一个类(所以一个对象是一个数据表),我在类方法中进行批量计算(所以我的几乎所有方法都包括一个 for 循环),直到我到达实际过滤器。我发现这种方法有点太僵硬了。它可以工作,但是数据类型转换太多,而且不是那么方便。现在我想更改我的代码。如果我想坚持 OOP,我的第二次尝试是:每一个测量都是 GPS_measurment 或加速测量的对象。这种方法似乎更好,但这样会创建数千个对象。我的第三次尝试是数据驱动设计,但我对这种方法并不十分熟悉。我应该使用哪种范式?或者也许它应该通过上述范式的某种混合来解决?或者我应该使用 Pandas 数据框来使用过程编程?
查看完整描述

2 回答

?
守着星空守着你

TA贡献1799条经验 获得超8个赞

听起来您想使用pandas. 顺便说一句,OOP 是一个概念,而不是你明确地不灵活地编码的东西。一般来说,如果您计划扩展它们或封装某些功能,您只想定义自己的类。pandas并且numpy是 2 个模块,它们几乎可以完成您对数据的所有要求,并且它们的执行速度更快。


查看完整回答
反对 回复 2021-09-24
  • 2 回答
  • 0 关注
  • 184 浏览
慕课专栏
更多

添加回答

举报

0/150
提交
取消
微信客服

购课补贴
联系客服咨询优惠详情

帮助反馈 APP下载

慕课网APP
您的移动学习伙伴

公众号

扫描二维码
关注慕课网微信公众号