5 回答
TA贡献1812条经验 获得超5个赞
如果您有 Colab Pro,可以打开终端,位于左侧,用黑色背景表示为“>_”。
即使某些单元正在运行,您也可以从那里运行命令
编写命令以实时查看 GPU 使用情况:
watch nvidia-smi
TA贡献1862条经验 获得超6个赞
用于wandb记录系统指标:
!pip install wandb
import wandb
wandb.init()
它输出一个 URL,您可以在其中查看不同系统指标的各种图表。
TA贡献1848条经验 获得超2个赞
更清楚的解释。
转到权重和偏差并创建您的帐户。
运行以下命令。
!pip install wandb import wandb wandb.init()
转到笔记本中的链接以获得授权 - 复制 API 密钥。
将密钥粘贴到笔记本输入字段中。
授权后,您会在笔记本中找到另一个链接 - 在那里查看您的模型 + 系统矩阵。
TA贡献1946条经验 获得超4个赞
您可以在后台运行脚本来跟踪 GPU 使用情况。
第 1 步:创建一个文件来监控 jupyter 单元中的 GPU 使用情况。
%%writefile gpu_usage.sh
#! /bin/bash
#comment: run for 10 seconds, change it as per your use
end=$((SECONDS+10))
while [ $SECONDS -lt $end ]; do
nvidia-smi --format=csv --query-gpu=power.draw,utilization.gpu,memory.used,memory.free,fan.speed,temperature.gpu >> gpu.log
#comment: or use below command and comment above using #
#nvidia-smi dmon -i 0 -s mu -d 1 -o TD >> gpu.log
done
第二步:在另一个单元格中在后台执行上面的脚本。
%%bash --bg
bash gpu_usage.sh
第 3 步:运行推理。
请注意,该脚本将记录前 10 秒的 GPU 使用情况,根据您的模型运行时间更改它。
GPU 利用率结果将保存在gpu.log文件中。
TA贡献2016条经验 获得超9个赞
还有另一种查看 gpu 使用情况的方法,但此方法仅适用于查看内存使用情况。转到单击运行时 - >管理会话。这使您可以查看需要多少内存才能增加批处理大小。
添加回答
举报