TA贡献1785条经验 获得超8个赞
只需使用这个:
os.cpu_count()
TA贡献1880条经验 获得超4个赞
目前 pytorch 在 DistributedDataParallel 实现中不支持多 cpu 集群。所以,我假设你的意思是 CPU 核心数。
gpu count 方法没有直接等效的方法,但是您可以通过使用获得可用于在 pytorch 中计算的线程数
torch.get_num_threads()
测试技术的修炼之道
¥ 48.00
Python 源码深度剖析
¥ 68.00
Python 数据分析通关攻略
¥ 58.00
你的第一本Python基础入门书
从 0 开始学爬虫
举报