为了账号安全,请及时绑定邮箱和手机立即绑定

在Node.js项目中运行本地大型语言模型(Ollama)的教程

我们大家都喜欢人工智能,近几年,人工智能的热潮改变了世界,并引领世界进入了一个新时代。无论遇到什么问题,都可以用人工智能来解决,比如用Gemini查食谱,Chatgpt写作业,Claude写代码,V0做前端设计。程序员和学生现在对人工智能的依赖性非常高,每天都能看到新的AI创业公司出现,主打AI。

AI初创公司梗图

这导致像我这样的开发者会想如何才能做出这样的东西?答案就在上面提到的图片中:调用这些模型的 API 即可。但是,像我这样的贫困学生没有能力购买订阅。这让我想到可以本地运行 AI,然后通过端口提供 API 调用。本文将一步步教你如何设置 Ollama 并通过你的 nodejs 代码访问大模型

如何安装Ollama

此步骤主要是为Windows用户设计的。如果你不是使用Windows系统,请参考此指南

  • 访问 Ollama 网站,然后下载安装程序。

Ollama 下载页 [点击下载Ollama]

  • 完成后,您可以运行安装程序并完成安装。

Ollama 安装程序

  • 这将把客户端安装到您的电脑上,此时您可以访问 ollama 官方网站的 部分选择您想要用的模型。

你可以选择的 Ollama 模型

  • 在这里,我将使用codellama:7b模型在我的机器上。
  • 打开你的CMD或PowerShell,输入命令ollama run <model-name>,这会将模型下载到你的机器上(如果已经存在的话,它将不会重新下载),然后运行它。
在指定端口上提供模型服务
  • 如果你想继续,请按照以下步骤操作。现在你已经在系统上安装了Ollama,并且也有了所需的LLM,接下来的步骤就是在你的机器的端口上启动服务,以便你的节点应用能够访问它。
  • 在继续之前,请先关闭正在后台运行的Ollama,并使用命令 ollama serve 检查分配给ollama的默认端口是否为空,如果这个命令抛出错误,那就意味着该端口已被占用。
  • 在继续之前,你需要释放该端口,Ollama的默认端口是 11434
  • 使用以下命令检查哪个进程正在监听该端口 netstat -ano | findstr :11434
  • 记下结果中的PID,然后使用该命令释放端口。taskkill /PID <PID> /F
  • 释放完毕后,打开一个新的CMD窗口并运行以下命令 ollama serve
  • 现在你应该会看到类似以下的输出,这意味着你的LLMs现在可以通过API调用来访问。

Ollama 服务器统计

使用 ollama npm 包来处理请求和响应
  • 按照以下步骤启动您的 Node 项目
npm init -y  # 初始化npm项目
npm i typescript ollama  # 安装typescript和ollama包
npx tsc --init  # 初始化typescript配置文件

全屏, 退出全屏

这将为你创建一个可以开始工作的代码仓库,前往 tsconfig.json 文件,取消注释并调整这些值。

    "rootDir": "./src",
    "outDir": "./dist",

全屏模式 退出全屏

  • 创建一个名为 src 的文件夹,在该文件夹中创建 index.js 文件。
    import ollama from 'ollama';

    async function main() {
        const response = await ollama.chat({
            model: 'codellama:7b',
            messages: [
                {
                    role: 'user', 
                    content: '天空的颜色是什么?'
                }
            ],
        })
        console.log(response.message.content)

    }

    main()

全屏 退出全屏

在运行代码前,编辑 package.json 中的脚本内容

    "scripts": {
        "dev": "tsc -b && node dist/index.js",
        "开发脚本": "此脚本用于开发环境,执行编译并运行 dist/index.js"
      },

进入全屏模式。
退出全屏模式。

  • 这会将 ts 代码编译成可以在运行时使用的 js 代码,以及在终端中输入命令 npm run dev 来运行应用程序。

VSCode SS

  • 终于可以用 nodejs 访问你本地的 LLM 了。
  • 更多关于 ollama 的信息,你可以在这里查看 here

谢谢你的阅读,希望这篇文章能对你有所帮助。如果你觉得有用,欢迎随时通过我的社交平台联系我!

我的领英 | GitHub 或 我的码云

点击查看更多内容
TA 点赞

若觉得本文不错,就分享一下吧!

评论

作者其他优质文章

正在加载中
  • 推荐
  • 评论
  • 收藏
  • 共同学习,写下你的评论
感谢您的支持,我会继续努力的~
扫码打赏,你说多少就多少
赞赏金额会直接到老师账户
支付方式
打开微信扫一扫,即可进行扫码打赏哦
今天注册有机会得

100积分直接送

付费专栏免费学

大额优惠券免费领

立即参与 放弃机会
意见反馈 帮助中心 APP下载
官方微信

举报

0/150
提交
取消