找回密码
 立即注册
首页 业界区 业界 13. LangChain4j + 加入检索增加生成 RAG(知识库) ...

13. LangChain4j + 加入检索增加生成 RAG(知识库)

宗和玉 2025-9-20 09:32:07
13. LangChain4j + 加入检索增加生成 RAG(知识库)

@
目录

  • 13. LangChain4j + 加入检索增加生成 RAG(知识库)

    • RAG 的概念
    • LangChain4j RAG 的使用理论
    • LangChain4j RAG 的实战

  • 最后:

RAG 的概念


  • 官网:https://docs.langchain4j.dev/tutorials/rag/
1.png

核心设计理念: RAG技术就像给AI大模型装上了「实时百科大脑」,为了让大模型获取足够的上下文,以便获得更加广泛的信息源,通过先查资料后回答的机制,让AI摆脱传统模型的"知识遗忘和幻觉回复"困境。
一句话简单的说:就是让大模型有一个类似于小抄的,当大模型在回答你的问题的时候,先检索你给大模型提供的(RAG 小抄的资料),结合你提供的小抄的资料,在回答你的问题,减少了大模型的“幻觉”,同时也让大模型更加专业,准确。 大模型是基于网络公开的数据信息资料,回答你的,但是一些行业专业术语,以及公司内部的数据资料,大模型是无法获取到的,而我们的 RAG(小抄)就解决了,这个问题。我们可以将我们的内部资料设置为(RAG 小抄),让大模型回答的时候,根据我们给它提供的 RAG(小抄)回答我们的问题。
LangChain4j RAG 的使用理论

RAG 流程分为两个不同的阶段:索引  + 检索

  • 索引:https://docs.langchain4j.dev/tutorials/rag/#indexing
在索引阶段,文档会被预处理,以便在检索阶段进行高效搜索。
这个过程可能因使用的信息检索方法而异。 对于向量搜索,这通常涉及清理文档、用额外数据和元数据丰富文档、 将文档分割成更小的片段(也称为分块)、嵌入这些片段,最后将它们存储在嵌入存储(也称为向量数据库)中。
索引阶段通常是离线进行的,这意味着最终用户不需要等待其完成。 例如,可以通过定时任务在周末每周重新索引一次公司内部文档来实现。 负责索引的代码也可以是一个单独的应用程序,只处理索引任务。
然而,在某些情况下,最终用户可能希望上传自己的自定义文档,使 LLM 能够访问这些文档。 在这种情况下,索引应该在线进行,并成为主应用程序的一部分。
以下是索引阶段的简化图表:
2.png

简单的理解就是:一般我们的提供给大模型的 RAG(小抄)的内容是很大的,数据量大,同时要提高大模型查找我们的 RAG(小抄),我们就需要将我们的 RAG(小抄),通过向量大模型将 RAG(小抄)转换为向量数据,存储到向量数据库当中。减少空间的占用,以及提高效率。
同时:索引阶段通常是离线进行的,这意味着最终用户不需要等待其完成。 例如,可以通过定时任务在周末每周重新索引一次公司内部文档来实现。 负责索引的代码也可以是一个单独的应用程序,只处理索引任务。

  • 检索:https://docs.langchain4j.dev/tutorials/rag#retri
检索阶段通常在线进行,当用户提交一个应该使用索引文档回答的问题时。
这个过程可能因使用的信息检索方法而异。 对于向量搜索,这通常涉及嵌入用户的查询(问题) 并在嵌入存储中执行相似度搜索。 然后将相关片段(原始文档的片段)注入到提示中并发送给 LLM。
以下是检索阶段的简化图表:
3.png


  • https://docs.langchain4j.dev/tutorials/rag/#core-rag-apis
4.png

5.png

6.png


  • EmbeddingStorelngestor组织结构分析:
7.png


  • Document Loader(文档加载器):
8.png
  1. FileSystemDocumentLoader: 从文件系统加载文档
  2. UrlDocumentLoader: 从 URL 加载文档
  3. AmazonS3DocumentLoader: 从 Amazon S3 加载文档
  4. AzureBlobStorageDocumentLoader: 从 Azure Blob 存储加载文档
  5. GitHubDocumentLoader: 从 GitHub 仓库加载文档
  6. TencentCosDocumentLoader: 从腾讯云 COS 加载文档
复制代码

  • Document Parser(文档解析器):
9.png


  • Document Transformer(文档转换器):
DocumentTransformer 用于对文档执行各种转换,如清理、过滤、增强或总结。

  • Document Splitter(文档拆分器):
  1. DocumentByParagraphSplitter: 按段落拆分
  2. DocumentBySentenceSplitter: 按句子拆分
  3. DocumentByWordSplitter: 按单词拆分
  4. DocumentByCharacterSplitter: 按字符拆分
  5. DocumentByRegexSplitter: 按正则表达式拆分
复制代码
使用 LangChain4j 构建 RAG 的一般步骤:

  • 加载文档:使用适当的DocumentLoader和DocumentParser加载文档
  • 转换文档:使用DocumentTransformer清理或增强文档(可选)
  • 拆分文档:使用DocumentSplitter将文档拆分为更小的片段(可选)
  • 嵌入文档:使用EmbeddingModel将文档片段转换为嵌入向量
  • 存储嵌入:使用EmbeddingStoreIngestor存储嵌入向量
  • 检索相关内容:根据用户查询,从EmbeddingStore检索最相关的文档片段
  • 生成响应:将检索到的相关内容与用户查询一起提供给语言模型,生成最终响应
10.png

LangChain4j RAG 的实战


  • https://docs.langchain4j.dev/tutorials/rag
LangChain4j 提供了三种 RAG 风格:

  • Easy RAG:开始使用 RAG 的最简单方式
  • Naive RAG:使用向量搜索的基本 RAG 实现
  • Advanced RAG:一个模块化的 RAG 框架,允许额外的步骤,如 查询转换、从多个来源检索和重新排序

这里我们使用 Easy RAG ,同时这里我们在使用“内存向量”,作为向量数据库,存储我们 RAG(小抄)转化为的向量数据。我们设计给大模型提供一个 RAG(内容是:阿里巴巴 Java 开发手册当中的错误码),配置好后,问大模型 错误码:00000,A0001 是什么含义。
11.png



  • 创建对应项目的 module 模块内容:
  • 导入相关的 pom.xml 的依赖,这里我们采用流式输出的方式,导入_ 整合 Spring Boot ,langchain4j-open-ai-spring-boot-starter,langchain4j-spring-boot-starter ,同时我们加入我们的操作 RAG 的 jak 依赖。因为我们这里使用的是“内存的向量数据库”所以不需要额外的引入其他的向量数据库包。这里我们不指定版本,而是通过继承的 pom.xml 当中获取。_
12.png

13.png
  1.         <dependency>
  2.             <groupId>org.springframework.boot</groupId>
  3.             spring-boot-starter-web</artifactId>
  4.         </dependency>
  5.         <dependency>
  6.             <groupId>dev.langchain4j</groupId>
  7.             langchain4j</artifactId>
  8.         </dependency>
  9.         <dependency>
  10.             <groupId>dev.langchain4j</groupId>
  11.             langchain4j-open-ai</artifactId>
  12.         </dependency>
  13.         
  14.         <dependency>
  15.             <groupId>dev.langchain4j</groupId>
  16.             langchain4j-easy-rag</artifactId>
  17.             <version>1.2.0-beta8</version>
  18.         </dependency>
复制代码

  • 设置 applcation.yaml / properties 配置文件,其中指明我们的输出响应的编码格式,因为如果不指定的话,存在返回的中文,就是乱码了。
  1. server.port=9012
  2. spring.application.name=langchain4j-12chat-rag
  3. # 设置响应的字符编码,避免流式返回输出乱码
  4. server.servlet.encoding.charset=utf-8
  5. server.servlet.encoding.enabled=true
  6. server.servlet.encoding.force=true
  7. # https://docs.langchain4j.dev/tutorials/spring-boot-integration
  8. #langchain4j.open-ai.chat-model.api-key=${aliQwen-api}
  9. #langchain4j.open-ai.chat-model.model-name=qwen-plus
  10. #langchain4j.open-ai.chat-model.base-url=https://dashscope.aliyuncs.com/compatible-mode/v1
  11. # 大模型调用不可以明文配置,你如何解决该问题
  12. # 1 yml:                ${aliQwen-api},从环境变量读取
  13. # 2 config配置类:      System.getenv("aliQwen-api")从环境变量读取
复制代码

  • 编写让大模型做什么事情——>这里是聊天的,接口类 ChatAssistant
14.png
  1. package com.rainbowsea.langchain4jchatrag.service;
  2. /**
  3. */
  4. public interface ChatAssistant {
  5.     /**
  6.      * 聊天
  7.      *
  8.      * @param message 消息
  9.      * @return {@link String }
  10.      */
  11.     String chat(String message);
  12. }
复制代码

  • 编写大模型三件套(大模型 key,大模型 name,大模型 url) 三件套的大模型配置类。同时也需要配置,我们的向量数据库(内存向量数据库),将我们的 RAG(小抄(Alibaba Java 开发手册)) 信息存储到内存向量数据库当中,供大模型读取使用。
15.png
  1. package com.rainbowsea.langchain4jchatrag.config;
  2. import com.rainbowsea.langchain4jchatrag.service.ChatAssistant;
  3. import dev.langchain4j.data.segment.TextSegment;
  4. import dev.langchain4j.memory.chat.MessageWindowChatMemory;
  5. import dev.langchain4j.model.chat.ChatModel;
  6. import dev.langchain4j.model.openai.OpenAiChatModel;
  7. import dev.langchain4j.rag.content.retriever.EmbeddingStoreContentRetriever;
  8. import dev.langchain4j.service.AiServices;
  9. import dev.langchain4j.store.embedding.EmbeddingStore;
  10. import dev.langchain4j.store.embedding.inmemory.InMemoryEmbeddingStore;
  11. import org.springframework.context.annotation.Bean;
  12. import org.springframework.context.annotation.Configuration;
  13. /**
  14. */
  15. @Configuration
  16. public class LLMConfig
  17. {
  18.     @Bean
  19.     public ChatModel chatModel()
  20.     {
  21.         return OpenAiChatModel.builder()
  22.                     .apiKey(System.getenv("aliQwen_api"))
  23.                     .modelName("qwen-plus")
  24.                     .baseUrl("https://dashscope.aliyuncs.com/compatible-mode/v1")
  25.                 .build();
  26.     }
  27.     /**
  28.      * 需要预处理文档并将其存储在专门的嵌入存储(也称为矢量数据库)中。当用户提出问题时,这对于快速找到相关信息是必要的。
  29.      * 我们可以使用我们支持的 15 多个嵌入存储中的任何一个,但为了简单起见,我们将使用内存中的嵌入存储:
  30.      *
  31.      * https://docs.langchain4j.dev/integrations/embedding-stores/in-memory
  32.      *
  33.      * @return
  34.      */
  35.     @Bean
  36.     public InMemoryEmbeddingStore<TextSegment> embeddingStore() {
  37.         return new InMemoryEmbeddingStore<>();
  38.     }
  39.    
  40.     @Bean
  41.     public ChatAssistant assistant(ChatModel chatModel, EmbeddingStore<TextSegment> embeddingStore)
  42.     {
  43.         return AiServices.builder(ChatAssistant.class)
  44.                     .chatModel(chatModel)
  45.                     .chatMemory(MessageWindowChatMemory.withMaxMessages(50))
  46.                     .contentRetriever(EmbeddingStoreContentRetriever.from(embeddingStore))
  47.                 .build();
  48.     }
  49. }
复制代码

  • 编写对外访问的 ctroller 层:将我们的将我们的 RAG(小抄(Alibaba Java 开发手册)) 信息存储到内存向量数据库当中,供大模型读取使用。再向大模型提问,大模型就会结合其中 Alibaba Java 开发手册当中的内容回答。
16.png
  1. package com.rainbowsea.langchain4jchatrag.controller;
  2. import com.rainbowsea.langchain4jchatrag.service.ChatAssistant;
  3. import dev.langchain4j.data.document.Document;
  4. import dev.langchain4j.data.document.parser.apache.tika.ApacheTikaDocumentParser;
  5. import dev.langchain4j.store.embedding.EmbeddingStoreIngestor;
  6. import dev.langchain4j.store.embedding.inmemory.InMemoryEmbeddingStore;
  7. import jakarta.annotation.Resource;
  8. import lombok.extern.slf4j.Slf4j;
  9. import dev.langchain4j.data.segment.TextSegment;
  10. import org.springframework.web.bind.annotation.GetMapping;
  11. import org.springframework.web.bind.annotation.RestController;
  12. import java.io.File;
  13. import java.io.FileInputStream;
  14. import java.io.FileNotFoundException;
  15. /**
  16. */
  17. @RestController
  18. @Slf4j
  19. public class RAGController
  20. {
  21.     @Resource
  22.     InMemoryEmbeddingStore<TextSegment> embeddingStore;
  23.     @Resource
  24.     ChatAssistant chatAssistant;
  25.     // http://localhost:9012/rag/add
  26.     @GetMapping(value = "/rag/add")
  27.     public String testAdd() throws FileNotFoundException
  28.     {
  29.         //Document document = FileSystemDocumentLoader.loadDocument("D:\\44\\alibaba-java.docx");
  30.         File file = new File(getClass().getClassLoader().getResource("static/Alibaba_Java.docx").getFile());
  31.         FileInputStream fileInputStream = new FileInputStream(file);;
  32.         Document document = new ApacheTikaDocumentParser().parse(fileInputStream);
  33.         EmbeddingStoreIngestor.ingest(document, embeddingStore);
  34.         String result = chatAssistant.chat("错误码00000和A0001分别是什么");
  35.         System.out.println(result);
  36.         return result;
  37.     }
  38. }
复制代码
运行测试:
17.png

最后:

“在这个最后的篇章中,我要表达我对每一位读者的感激之情。你们的关注和回复是我创作的动力源泉,我从你们身上吸取了无尽的灵感与勇气。我会将你们的鼓励留在心底,继续在其他的领域奋斗。感谢你们,我们总会在某个时刻再次相遇。”
18.gif


来源:程序园用户自行投稿发布,如果侵权,请联系站长删除
免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作!

相关推荐

您需要登录后才可以回帖 登录 | 立即注册