为了账号安全,请及时绑定邮箱和手机立即绑定

RAG,Langchain 和 LLAMA2

RAG(增强检索生成)是一种技术,允许大型语言模型(LLMs)在不重新训练的情况下使用外部信息源回答问题。这是它在Llama 2、Langchain和ChromaDB中的工作原理:

  1. 文档表示 :
  • 文档首先使用 Langchain 转换为称为嵌入的数值表示。

  • ChromaDB,一个向量数据库,存储这些嵌入及其对应的原始文档。

2.检索步骤 :

  • 当用户提问时,Langchain 也会将其问题转换为嵌入向量。
  • 然后 ChromaDB 进行语义搜索,在数据库中找到与问题嵌入向量最相似的文档。
  • 这样就检索到了与用户查询最相关的文档。

3.提示增强 :

  • 检索到的文档用于为大语言模型(LLM)Llama 2 创建上下文。
  • 这个上下文通常被表述为引导 Llama 2 生成答案的提示或额外信息。
  • 提示可能概括检索到的文档或直接引用相关段落。
  1. 答案生成 :
  • Llama 2 在生成答案时会结合提供的上下文及其自身的知识。
  • 这使得 Llama 2 能够通过整合从检索到的文档中获取的信息,来回答那些可能未在其预训练数据中明确涵盖的问题。

RAG 的优势:

  • 提供通过使用外部信息源来确保答案准确无误。
  • 提高了LLM能够回答的问题范围。
  • 允许使用不断更新的信息而无需重新训练LLM。

这里有一些资源,可能会帮助你进一步理解:

代码 : https://www.kaggle.com/code/gpreda/rag-using-llama-2-langchain-and-chromadb

点击查看更多内容
TA 点赞

若觉得本文不错,就分享一下吧!

评论

作者其他优质文章

正在加载中
  • 推荐
  • 评论
  • 收藏
  • 共同学习,写下你的评论
感谢您的支持,我会继续努力的~
扫码打赏,你说多少就多少
赞赏金额会直接到老师账户
支付方式
打开微信扫一扫,即可进行扫码打赏哦
今天注册有机会得

100积分直接送

付费专栏免费学

大额优惠券免费领

立即参与 放弃机会
意见反馈 帮助中心 APP下载
官方微信

举报

0/150
提交
取消