为了账号安全,请及时绑定邮箱和手机立即绑定

Windows 下 Ollama 安装deepseek本地模型

标签:
人工智能

Windows 下 Ollama 安装deepseek本地模型

安装 Ollama

  1. 下载 Ollama

  1. 安装过程
  • 安装完成后,安装页面会自动关闭,这是正常现象。

  • 接下来,我们需要修改环境变量。

  1. 设置环境变量
  • 使用以下命令在控制台中创建环境变量,修改后请记得终止相关进程:

setx  OLLAMA_MODELS  "D:\ollama_model"

  1. 常用环境变量参数

Ollama 安装完成后,建议设置以下环境变量参数以优化使用体验:

  • OLLAMA_MODELS:模型文件存放目录。默认目录为当前用户目录(Windows:C:\Users\%username%\.ollama\models,MacOS:~/.ollama/models,Linux:/usr/share/ollama/.ollama/models)。建议 Windows 用户修改为其他目录(如:D:\OllamaModels),以避免占用 C 盘空间。

  • OLLAMA_HOST:Ollama 服务监听的网络地址。默认为 127.0.0.1,如果允许其他设备访问(如局域网中的其他电脑),建议设置为 0.0.0.0

  • OLLAMA_PORT:Ollama 服务监听的默认端口。默认为 11434,如果端口冲突,可以修改为其他端口(如:8080)。

  • OLLAMA_ORIGINS:HTTP 客户端请求来源。可以设置为 *,表示允许所有来源。

  • OLLAMA_KEEP_ALIVE:模型加载到内存后的存活时间。默认为 5m(5 分钟),可以设置为 24h,表示模型在内存中保持 24 小时,以提高访问速度。

  • OLLAMA_NUM_PARALLEL:请求处理并发数量。默认为 1,可以根据实际情况调整。

  • OLLAMA_MAX_QUEUE:请求队列长度。默认为 512,超过队列长度的请求将被丢弃。

  • OLLAMA_DEBUG:输出 Debug 日志标识。开发阶段可以设置为 1,以便输出详细日志信息。

  • OLLAMA_MAX_LOADED_MODELS:最多同时加载到内存中的模型数量。默认为 1

安装本地模型

  1. 安装模型
  • 按下 Win + R,输入 cmd 打开命令提示符。

  • 执行以下命令安装模型:


ollama  run  deepseek-r1:1.5b

  • 等待安装完成后,即可开始使用模型。
  1. 使用模型
  • 安装成功后,输入问题即可获得模型的回答。

总结

通过以上步骤,您可以在 Windows 系统上成功安装并配置 Ollama,并加载本地模型进行使用。

点击查看更多内容
TA 点赞

若觉得本文不错,就分享一下吧!

评论

作者其他优质文章

正在加载中
  • 推荐
  • 评论
  • 收藏
  • 共同学习,写下你的评论
感谢您的支持,我会继续努力的~
扫码打赏,你说多少就多少
赞赏金额会直接到老师账户
支付方式
打开微信扫一扫,即可进行扫码打赏哦
今天注册有机会得

100积分直接送

付费专栏免费学

大额优惠券免费领

立即参与 放弃机会
意见反馈 帮助中心 APP下载
官方微信

举报

0/150
提交
取消