此文参考自:https://www.toutiao.com/article/7506140643970826779/
引言:RAG 会成为 2025 年 AI 落地核心?
在2025年,检索增强生成(RAG)技术已成为企业级AI应用的标配。传统大模型受限于知识更新慢、业务适配性差,而 RAG 通过动态外接知识库,结合向量数据库与AI推理能力,显著提升回答的准确性与实时性。本文将基于 Solon AI 与 Redis Vector Search,从0到1搭建 RAG 服务,并结合电商客服场景,揭秘如何通过5步实现生产级落地。
一、项目初始化:Solon AI
核心依赖:- <dependency>
- <groupId>org.noear</groupId>
- solon-ai</artifactId>
- </dependency>
- <dependency>
- <groupId>org.noear</groupId>
- solon-ai-repo-redis</artifactId>
- </dependency>
- <dependency>
- <groupId>org.noear</groupId>
- solon-ai-load-pdf</artifactId>
- </dependency>
复制代码 配置参考:- solon.ai.chat:
- ds3:
- apiUrl: "http://127.0.0.1:11434/api/chat" # 使用完整地址(而不是 api_base)
- provider: "ollama" # 使用 ollama 服务时,需要配置 provider
- model: "llama3.2"
- solon.ai.embed:
- bgem3:
- apiUrl: "http://127.0.0.1:11434/api/embed" # 使用完整地址(而不是 api_base)
- provider: "ollama" # 使用 ollama 服务时,需要配置 provider
- model: "bge-m3:latest"
-
- solon.ai.repo:
- redis:
- server: localhost:6379
复制代码 实例构建:- import org.noear.redisx.RedisClient;
- import org.noear.solon.ai.chat.ChatModel;
- import org.noear.solon.ai.embedding.EmbeddingModel;
- import org.noear.solon.ai.rag.RepositoryStorable;
- import org.noear.solon.ai.rag.repository.RedisRepository;
- import org.noear.solon.ai.rag.repository.redis.MetadataField;
- import org.noear.solon.annotation.Bean;
- import org.noear.solon.annotation.Configuration;
- import org.noear.solon.annotation.Inject;
- import java.util.ArrayList;
- import java.util.List;
- @Configuration
- public class RagConfig {
- @Bean
- public ChatModel chatModel(@Inject("${solon.ai.chat.ds3}") ChatModel chatModel) {
- return chatModel;
- }
- @Bean
- public EmbeddingModel embeddingModel(@Inject("${solon.ai.embed.bgem3}") EmbeddingModel embeddingModel) {
- return embeddingModel;
- }
- @Bean
- public RedisClient client(@Inject("${solon.ai.repo.redis}") RedisClient client) { //构建知识库的连接客户端
- return client;
- }
-
- @Bean
- public RepositoryStorable repository(EmbeddingModel embeddingModel, RedisClient client) { //构建知识库
- // 创建元数据索引字段列表(用于支持混合搜索)
- List<MetadataField> metadataFields = new ArrayList<>();
- metadataFields.add(MetadataField.tag("title"));
- metadataFields.add(MetadataField.tag("category"));
- metadataFields.add(MetadataField.numeric("price"));
- metadataFields.add(MetadataField.numeric("stock"));
- return RedisRepository.builder(embeddingModel, client.jedis())
- .metadataIndexFields(metadataFields)
- .build();
- }
- }
复制代码 技术选型优势:
- Redis Vector Search(建议 Redis 8+):支持千亿级向量毫秒检索,实时数据更新秒级可见
- Solon AI:统一接口支持各种主流向量数据库,内置流式输出与异步处理。
二、数据处理:文档分块与向量化
1. 文档加载与分块
- @Component
- public class RagService {
- public void load(){
- // 加载PDF/Word文档
- List<Document> docs = new PdfLoader("product-manual.pdf").load();
- // 智能分块(动态调整块大小)
- docs = new TokenSizeTextSplitter(500, 64).split(docs);
- }
- }
复制代码 分块策略:
- 动态分块:根据语义边界(如段落、表格)自动调整块大小,避免信息割裂;
- 重叠机制:设置64 Token的重叠区,确保上下文连贯性。
2. 向量嵌入与存储
在 RagService 的基础上,进一步补充- import org.noear.solon.ai.embedding.EmbeddingModel;
- import org.noear.solon.ai.rag.Document;
- import org.noear.solon.ai.rag.RepositoryStorable;
- import org.noear.solon.ai.rag.splitter.TokenSizeTextSplitter;
- import org.noear.solon.annotation.Component;
- import org.noear.solon.annotation.Inject;
- import java.io.IOException;
- import java.util.List;
- @Component
- public class RagService {
- @Inject
- private RepositoryStorable repository;
- @Inject
- private EmbeddingModel embeddingModel;
- public void load() throws IOException {
- // 加载PDF/Word文档
- List<Document> docs = new PdfLoader("product-manual.pdf").load();
- // 智能分块(动态调整块大小)
- docs = new TokenSizeTextSplitter(500, 64).split(docs);
- // 存储(内部自动完成向量嵌入,内部支持分批入库)
- repository.insert(docs);
- }
- }
复制代码 性能优化:
- 批量处理:数据批次插入,降低I/O开销;
- 元数据附加:为每个向量附加来源、时间戳等字段,支持精准过滤。
三、检索增强:混合搜索
使用元信息字段 category 过滤(减少匹配范围),并使用向量检索- @Component
- public class RagService {
- @Inject
- private RepositoryStorable repository;
- @Inject
- private EmbeddingModel embeddingModel;
- public void load() throws IOException {
- // 加载PDF/Word文档
- List<Document> docs = new PdfLoader("product-manual.pdf").load();
- // 智能分块(动态调整块大小)
- docs = new TokenSizeTextSplitter(500, 64).split(docs);
- // 存储(内部自动完成向量嵌入)
- repository.insert(docs);
- }
- public List<Document> find(String category, String query) throws IOException {
- return repository.search(new QueryCondition(query)
- .filterExpression("category == '" + category + "'"));
- }
- }
复制代码 场景适配:
- 元数据检索:处理明确实体(如商品目录);
- 向量检索:应对复杂语义(如“性价比高的手机推荐”)。
四、生成优化:提示工程与流式输出
1. 动态Prompt设计
- String promptTemplate = """
- 你是一名电商客服专家,请根据以下上下文回答问题:
- ${context}
- 问题:${question}
- 要求:回答需包含具体数据,若信息不足则回复“暂未收录”。
- 示例:库存查询 → “当前iPhone 20库存为500件,预计48小时发货。”
- """;
复制代码 关键技巧:
- 指令约束:限制回答范围,减少幻觉;
- 示例引导:提供标准回答格式,提升一致性。
2. 流式响应与溯源
写一个控制器,整合 ChatModel 和 RagService- import org.noear.solon.ai.chat.ChatModel;
- import org.noear.solon.ai.chat.message.ChatMessage;
- import org.noear.solon.ai.rag.Document;
- import org.noear.solon.annotation.Controller;
- import org.noear.solon.annotation.Inject;
- import org.noear.solon.annotation.Mapping;
- import reactor.core.publisher.Flux;
- import java.io.IOException;
- import java.util.List;
- @Controller
- public class RagController {
- @Inject
- RagService ragService;
- @Inject
- ChatModel chatModel;
- static String promptTemplate = """
- 你是一名电商客服专家,请根据以下上下文回答问题:
- #{context}
- 问题:#{question}
- 要求:回答需包含具体数据,若信息不足则回复“暂未收录”。
- 示例:库存查询 → “当前iPhone 20库存为500件,预计48小时发货。”
- """;
- @Mapping("/ask")
- public Flux<String> streamAnswer(String question) throws IOException {
- List<Document> context = ragService.find("商品", question);
-
- ChatMessage message = ChatMessage.ofUserTmpl(promptTemplate)
- .paramAdd("question", question)
- .paramAdd("context", context)
- .generate();
- return Flux.from(chatModel.prompt(message).stream())
- .filter(resp -> resp.hasChoices())
- .map(resp -> resp.getMessage().getContent());
- }
- }
复制代码 用户体验优化:
- 逐字输出:响应延迟降低至100ms以内(要看模型服务的性能);
- 来源标记:返回答案关联的文档ID与置信度。
五、实战案例:电商客服RAG系统
场景:秒杀活动问答
需求:用户询问“iPhone 20秒杀库存和优惠规则”。
RAG处理流程:
检索:从商品手册中匹配“iPhone 20”的库存条款与促销规则;
生成:返回“当前库存2000件,限购1台,叠加满减券再降500元”。
来源:程序园用户自行投稿发布,如果侵权,请联系站长删除
免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作! |