与 24-vCPU 谷歌计算实例相比,为什么我的机器学习 python/tensorflow 脚本在 colab 上运行得更快?在 colab 上调用: !/content/myscript.py谷歌计算实例上的调用: !/home/prj1/myscript.pycolab 上的纪元时间:0.8 秒谷歌计算实例的纪元时间:2.0 秒在这两种情况下,我都使用 tensorflow 1.11 和 python 2.7,myscript.py 是唯一运行的程序,并且没有使用 GPU。该脚本每 10 个时期在屏幕上显示训练进度(纯文本,无图形)。
2 回答
慕容3067478
TA贡献1773条经验 获得超3个赞
通过遵循提高 CPU 上流行深度学习框架性能的技巧中推荐的优化,我能够将 epoch 时间降低到 1.1 秒
这是代码:
import os
N_CORES = int(os.cpu_count()/2)
os.environ["OMP_NUM_THREADS"] = str(N_CORES)
os.environ["KMP_BLOCKTIME"] = "30"
os.environ["KMP_SETTINGS"] = "1"
os.environ["KMP_AFFINITY"] = "granularity=fine,verbose,compact,1,0"
config_sess = tf.ConfigProto(intra_op_parallelism_threads=N_CORES, inter_op_parallelism_threads=2, allow_soft_placement=True, device_count = {'CPU': N_CORES})
with tf.Session(config=config_sess) as sess:
添加回答
举报
0/150
提交
取消