RAG(增强检索生成)是一种技术,允许大型语言模型(LLMs)在不重新训练的情况下使用外部信息源回答问题。这是它在Llama 2、Langchain和ChromaDB中的工作原理:
- 文档表示 :
-
文档首先使用 Langchain 转换为称为嵌入的数值表示。
- ChromaDB,一个向量数据库,存储这些嵌入及其对应的原始文档。
2.检索步骤 :
- 当用户提问时,Langchain 也会将其问题转换为嵌入向量。
- 然后 ChromaDB 进行语义搜索,在数据库中找到与问题嵌入向量最相似的文档。
- 这样就检索到了与用户查询最相关的文档。
3.提示增强 :
- 检索到的文档用于为大语言模型(LLM)Llama 2 创建上下文。
- 这个上下文通常被表述为引导 Llama 2 生成答案的提示或额外信息。
- 提示可能概括检索到的文档或直接引用相关段落。
- 答案生成 :
- Llama 2 在生成答案时会结合提供的上下文及其自身的知识。
- 这使得 Llama 2 能够通过整合从检索到的文档中获取的信息,来回答那些可能未在其预训练数据中明确涵盖的问题。
RAG 的优势:
- 提供通过使用外部信息源来确保答案准确无误。
- 提高了LLM能够回答的问题范围。
- 允许使用不断更新的信息而无需重新训练LLM。
这里有一些资源,可能会帮助你进一步理解:
代码 : https://www.kaggle.com/code/gpreda/rag-using-llama-2-langchain-and-chromadb
点击查看更多内容
为 TA 点赞
评论
共同学习,写下你的评论
评论加载中...
作者其他优质文章
正在加载中
感谢您的支持,我会继续努力的~
扫码打赏,你说多少就多少
赞赏金额会直接到老师账户
支付方式
打开微信扫一扫,即可进行扫码打赏哦