我正在尝试比较GPU与CPU的性能。对于NVIDIA GPU,我一直在使用这些cudaEvent_t类型来获得非常精确的时间。对于CPU,我一直在使用以下代码:// Timersclock_t start, stop;float elapsedTime = 0;// Capture the start timestart = clock();// Do something here.......// Capture the stop timestop = clock();// Retrieve time elapsed in millisecondselapsedTime = (float)(stop - start) / (float)CLOCKS_PER_SEC * 1000.0f;显然,这段代码只有在您数秒的情况下才是好的。而且,结果有时出来很奇怪。有谁知道在Linux中创建高分辨率计时器的某种方法?
3 回答
- 3 回答
- 0 关注
- 723 浏览
添加回答
举报
0/150
提交
取消