为了账号安全,请及时绑定邮箱和手机立即绑定

Ollama 协助我高效测试:Docker,Ollama帮我快速测试多个LLM模型

快速部署和测试多个AI模型:使用Ollama和OpenWebUI

大家好,我是老涂,是否也曾困惑于如何快速部署和测试多个AI模型?最近,我的好友向我推荐了Ollama,这让我在一个小时内完成了多个模型的完整测试,极大提升了工作效率。在这篇文章中,我们将分享如何在虚拟机中高效安装NVIDIA驱动,配置Docker,并利用Ollama快速测试多个AI模型。

1. 更新和升级系统

首先,确保你的系统是最新的:

sudo apt update
sudo apt full-upgrade
sudo reboot

2. 安装显卡驱动

Ollama 支持CPU部署,也支持GPU,我使用的是Nvidia的显卡,所以这边安装Nvidia的驱动。在安装NVIDIA驱动过程中,我们遇到了一些问题并进行了多次尝试。最终的步骤如下:

  1. 尝试安装 nvidia-utils-535,但遇到通信问题。
  2. 移除 nvidia-utils-535libnvidia-compute-535
  3. 安装 nvidia-utils-535-serverlibnvidia-compute-535-server
  4. 重启并检查 nvidia-smi,但仍有问题。
  5. 清除所有NVIDIA包并添加 graphics-drivers PPA:
sudo add-apt-repository ppa:graphics-drivers/ppa
sudo apt update
sudo apt install nvidia-driver-535-server
sudo reboot

在重启后,我们还需要配置secure boot的选项,然后正确配置后,nvidia-smi 正常工作。

3. 安装NVIDIA容器工具包

安装NVIDIA容器工具包以便在Docker中使用GPU:

curl -fsSL https://nvidia.github.io/libnvidia-container/gpgkey | sudo gpg --dearmor -o /usr/share/keyrings/nvidia-container-toolkit-keyring.gpg
curl -s -L https://nvidia.github.io/libnvidia-container/stable/deb/nvidia-container-toolkit.list | \
  sed 's#deb https://#deb [signed-by=/usr/share/keyrings/nvidia-container-toolkit-keyring.gpg] https://#g' | \
  sudo tee /etc/apt/sources.list.d/nvidia-container-toolkit.list
sudo apt-get update
sudo apt-get install -y nvidia-container-toolkit

4. 安装Docker

Ollama 支持独立安装也支持Docker安装,Docker安装的好处是操作系统会比较干净,因为应用程序运行时都是在Docker Image中预先配置好的。下面是我安装Docker的步骤:

为了确保安装最新版本的Docker,我们添加了Docker的官方GPG密钥和仓库:

sudo mkdir -p /etc/apt/keyrings
curl -fsSL https://download.docker.com/linux/ubuntu/gpg | sudo gpg --dearmor -o /etc/apt/keyrings/docker.gpg
echo "deb [arch=$(dpkg --print-architecture) signed-by=/etc/apt/keyrings/docker.gpg] https://download.docker.com/linux/ubuntu $(lsb_release -cs) stable" | sudo tee /etc/apt/sources.list.d/docker.list > /dev/null
sudo apt-get update
sudo apt-get install docker-ce docker-ce-cli containerd.io docker-buildx-plugin docker-compose-plugin

配置Docker使用NVIDIA运行时:

sudo nvidia-ctk runtime configure --runtime=docker
sudo systemctl restart docker

5. 安装Ollama

Ollama的Docker安装非常简单,使用以下一行命令就完成了Ollama的安装:

docker run -d --gpus=all -v ollama:/root/.ollama -p 11434:11434 --name ollama ollama/ollama

6. 安装OpenWebUI

为了更方便地管理和测试模型,我们还可以安装OpenWebUI:

docker run -d -p 3000:8080 --gpus=all -v ollama:/root/.ollama -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:ollama

7. 注册并登录

Open-WebUi安装好之后,我们就能注册并登录了,首次登录的可以claim自己为管理员。

8. 下载模型

默认安装好的Ollama以及Open WebUI是没有LLM模型的,所以这里我们可以使用管理员页面来下载模型。首先去 ollama.com/library 网站搜索自己希望下载的LLM,比如 qwen:110B

我们可以登录到container里面,使用以下命令下载模型:

docker exec -it <container id> ollama run qwen:110b

或者通过WebUI也可以下载。

9. 使用WebUI与模型沟通

最后,我们就能在WebUI上与下载的LLM进行沟通了。

WebUI界面

如果要查看GPU的使用情况,直接运行 nvidia-smi 就行。图中可以看到 qwen:110B 大概占用60GB的GPU内存。

GPU使用情况

希望我的文章对大家有用,如果喜欢,请关注我的公众号 “挨踢见闻”。

公众号二维码


点击查看更多内容
TA 点赞

若觉得本文不错,就分享一下吧!

评论

作者其他优质文章

正在加载中
  • 推荐
  • 评论
  • 收藏
  • 共同学习,写下你的评论
感谢您的支持,我会继续努力的~
扫码打赏,你说多少就多少
赞赏金额会直接到老师账户
支付方式
打开微信扫一扫,即可进行扫码打赏哦
今天注册有机会得

100积分直接送

付费专栏免费学

大额优惠券免费领

立即参与 放弃机会
意见反馈 帮助中心 APP下载
官方微信

举报

0/150
提交
取消