为了账号安全,请及时绑定邮箱和手机立即绑定

轻松指南:在本地开发环境中运行Meta Llama大模型

在上一篇帖子中,我描述了AI工具如何极大地改变了我的开发工作流程。在帖子的最后,我分享了如何在本地机器上部署Meta Llama LLM的一步一步教程。

因为它位于博文的最末尾,我想分步骤做一个博客,很多人都觉得这很有价值。

瞅瞅吧!

如何在本地运行我自己的AI聊天机器人

让我给您简单介绍一下我开始使用Llama(一个开源AI模型)以及其他类似模型的几个简单步骤。

第一步:在您的本地机器上下载并安装 Ollama

访问 官方 Ollama 网站 并快速下载适用于 Windows、Mac 或 Linux 版本的 Ollama 软件。

Ollama 是一个轻量级的工具,允许你在本地电脑上运行大型语言模型(例如 Llama 3.2、Mistral 和 Gemma 2 模型)。安装完成后,你就可以在本地电脑上运行和自定义这些模型。

如图所示: 图片描述

步骤 2:运行 Ollama 设置向导,

下载完成后,打开 Ollama Setup 可执行文件,然后按照向导一步步操作,就可以安装 Ollama 工具了。

正如你所料,Ollama的设置向导会快速添加所有必要的文件,以便你可以运行Ollama工具。

第三步:验证 Ollama 是否已安装

如果 Ollama 安装正确,你应该现在就能从你的标准命令行中访问它。

在安装 Ollama 时,有时它会自动打开一个命令行窗口。如果没有自动打开,你需要自己打开它。

在 Windows 上,查找“cmd”,你应该能够打开命令行。

打开之后,输入以下命令并按Enter键来验证安装:

    ollama

切换到全屏模式/退出全屏

你应该看到类似下面这样的输出:

用法:
  ollama [选项]
  ollama [命令]

可用命令:
  serve       启动服务
  create      从 Modelfile 创建一个模型
  show        显示信息
  run         运行模型
  stop        停止正在运行的模型
  pull        从注册表拉取一个模型
  push        将模型推送到注册表
  list        列出模型
  ps          查看运行中的模型
  cp          复制一个模型
  rm          移除模型
  help        命令帮助

选项:
  -h, --help      显示 ollama 帮助信息
  -v, --version   显示版本信息

如需更多信息,请使用 "ollama [命令] --help"。

进入全屏模式,退出全屏模式

如图所示:图片描述

第四步:安装并运行一个大型语言模型:

安装了 Ollama,我们就离拥有自己的本地 LLM 只差一步了。

首先,让我们来安装Meta的_Llama3.2模型吧。

在命令行中键入如下内容:

    ollama run llama3.2
    //这是运行llama3.2的命令

切换到全屏 退出全屏

这会做两件事:

  1. 如果没有安装Llama3.2,请先安装它
  2. 运行Llama3.2

按下回车键/Enter键,你应该会看到类似这样的界面(如果Llama3.2没有安装)。

    正在拉取 manifest
    正在拉取 dde5aa3fc5ff... 26% ▕████████████                                            ▏ 532 MB/2.0 GB   32 MB/s     48s

全屏 退出全屏

图片描述

Ollama 会为你下载并安装 Llama3.2 模型,安装完成后,然后运行 Llama3.2 模型供你互动体验。

在你的命令行界面中,你应该看到类似下面的样子:

    拉取清单文件
    拉取 dde5aa3fc5ff... 100% ▕████████████████████████████████████████████████████████▏ 2.0 GB
    拉取 966de95ca8a6... 100% ▕████████████████████████████████████████████████████████▏ 1.4 KB
    拉取 fcc5a6bec9da... 100% ▕████████████████████████████████████████████████████████▏ 7.7 KB
    拉取 a70ff7e570d9... 100% ▕████████████████████████████████████████████████████████▏ 6.0 KB
    拉取 56bb8bd477a5... 100% ▕████████████████████████████████████████████████████████▏ 96 字节
    校验 sha256 校验和
    写入清单文件
    成功
    >>> 发送消息 (/? 查看帮助)

全屏 / 退出全屏

教程图片

就这样,你现在也有一个LLM在本地机器上了!!

另外,如果你想安装[Ollama提供的其他模型],只需使用相同的命令:

ollama run MODEL_NAME  # 运行指定的模型

全屏模式 退出全屏

步骤五:试试你的大型语言模型

既然 Llama3.2 已经在我们的机器上了,让我们试一试。

我们来问它个简单的问题吧:

嘿,Llama!你能告诉我一点关于你的事情吗?

全屏模式,退出全屏

你应该会收到类似以下的回复:

嘿,羊驼!你可以告诉我一些关于你自己的事情吗?
我很乐意和你聊天。我是一个被称为“羊驼”的人工智能模型,简称“大型语言模型元AI”。我的主要任务是根据接收到的输入来生成类似人类的文字。

我是在大量的文本数据集上训练出来的,这些数据来自各种来源,比如书籍、文章和在线对话。这样的训练让我能够理解和回应各种问题、话题和风格。

我的一些关键功能有:

.....

全屏,退出全屏

看!那不是挺容易的吗?

结尾

就这样,你的 Llama LLM 应该可以在本地机器上毫不费力地启动并运行起来了。

如果你对了解Ollamas文档感兴趣,可以点击这里查阅:这里

如果你对一个能让你更轻松使用Ollama的GUI感兴趣,可以看看Open Web UI。希望不久后能写一篇详细的博客,介绍如何设置这个GUI。

享受你自己的私人助手吧,一个 llama(羊驼)!


照片顺序(按出现顺序):

封面照片使用Google Gemini
提示:
一只面带自信笑容的羊驼,披着印有无限符号的蓝色斗篷,在日落时分飞翔,准备在插图中拯救世界。


快来关注我的社交媒体:
https://linktr.ee/bradstondev

点击查看更多内容
TA 点赞

若觉得本文不错,就分享一下吧!

评论

作者其他优质文章

正在加载中
  • 推荐
  • 评论
  • 收藏
  • 共同学习,写下你的评论
感谢您的支持,我会继续努力的~
扫码打赏,你说多少就多少
赞赏金额会直接到老师账户
支付方式
打开微信扫一扫,即可进行扫码打赏哦
今天注册有机会得

100积分直接送

付费专栏免费学

大额优惠券免费领

立即参与 放弃机会
意见反馈 帮助中心 APP下载
官方微信

举报

0/150
提交
取消