訾颀秀 发表于 2025-9-23 10:03:39

1. 大模型的选择详细分析

1. 大模型的选择详细分析

@
目录

[*]1. 大模型的选择详细分析

[*]介绍

[*]特性:

[*]提示词工厂
[*]对话拦截
[*]对话记忆
[*]tools
[*]RAG技术下的 ETL
[*]MCP
[*]模型的评估
[*]可观察性
[*]agent应用


[*]langchain4j vs springAI
[*]大模型选型

[*]最后:


介绍


Spring AI 是一个面向人工智能工程的应用框架。解决了 AI 集成的基本挑战:将企业数据和API与AI 模型连接起来。
特性:

提示词工厂

可以说是大模型应用中最简单也是最核心的一个技术。他是我们更大模型交互的媒介,提示词给的好大模型才能按你想要的方式响应。
对话拦截


面向切面的思想对对模型对话和响应进行增强。
对话记忆

@Autowired
ChatMemoryRepository chatMemoryRepository;通过一个bean组件就可以让大模型拥有对话记忆功能,可谓是做到了开箱即用
tools


让大模型可以跟企业业务API进行互联 ,这一块实现起来也是非常的优雅
class DateTimeTools {

    @Tool(description = "Get the current date and time in the user's timezone")
    String getCurrentDateTime() {
      return LocalDateTime.now().atZone(LocaleContextHolder.getTimeZone().toZoneId()).toString();
    }

}RAG技术下的 ETL


让大模型可以跟企业业务数据进行互联(包括读取文件、分隔文件、向量化) 向量数据库支持 目前支持20+种向量数据库的集成 这块我到时候也会详细去讲
MCP

让tools外部化,形成公共工具让外部开箱即用。 原来MCP协议的JAVA SDK就是spring ai团队提供的 提供了MCP 客户端、服务端、以及MCP认证授权方案 ,还有目前正在孵化的Spring MCP Agent 开源项目:
模型的评估

可以测试大模型的幻觉反应(在系列课详细讲解)
可观察性

它把AI运行时的大量关键指标暴露出来, 可以提供Spring Boot actuctor进行观测
agent应用

springai 提供了5种agent模式的示例

[*]Evaluator Optimizer – The model analyzes its own responses and refines them through a structured process of self-evaluation.


[*]Routing – This pattern enables intelligent routing of inputs to specialized handlers based on classification of the user request and context.
[*]Orchestrator Workers – This pattern is a flexible approach for handling complex tasks that require dynamic task decomposition and specialized processing
[*]Chaining – The pattern decomposes complex tasks into a sequence of steps, where each LLM call processes the output of the previous one.
[*]Parallelization – The pattern is useful for scenarios requiring parallel execution of LLM calls with automated output aggregation.
学完这5种你会对对模型下的agent应用有一个完整认识
langchain4j vs springAI

生态不依赖Spring,需要单独集成SpringSpring官方,和Spring无缝集成诞生更早,中国团队,受 LangChain 启发稍晚,但是明显后来居上jdkv0.35.0 前的版本支持jdk8   ,后支持jdk17全版本jdk17功能没有mcp server, 官方建议使用quarkus-mcp-server早期落后langchain4j, 现在功能全面,并且生态活跃,开源贡献者众多易用性尚可,中文文档易用,api优雅最终公司不用 Spring AI 就选择它无脑选!大模型选型


[*]自研(算法 c++python 深度学习 机器学习 神经网络 视觉处理 952 211研究生 )AI算法岗位
[*]云端大模型   比如:云端我们在线使用的 DeepSeek,豆包,通义千问等等,占用算力token计费   功能完善成熟
[*]开源的大模型(本地部署)Ollama购买算力    好处:采用开源大模型本地部署,可以将我们的资料信息私有化,因为你要知道,我们向云端大模型的每次提问,都是被其公司记录了的。存在隐私安全性。
[*]选型
[*]自己构建选型-->评估流程
[*]业务确定:( 电商、医疗、教育 )
[*]样本准备:数据集样本 选择题
[*]任务定制:问答(利用多个大模型)
[*]评估: 人工评估

[*]通用能力毕竟好的
[*]2月份   deepseek   6710亿   671b = 算力 显存   H2096G   140万; 比 openai gpt4节省了40/1 成本。
[*]3月份   阿里qwq-32b(不带深度思考)   32b=320亿   媲美deepseek-r132G   比deepseek-r1节省20/1
[*]4月份   阿里qwen3 (深度思考)    2350亿=235b   赶超了deepseek-r1比deepseek-r1节省2-3倍    选择(qwen3-30b)
[*]5月    deepseek-r1-0528   6710亿   671b性能都要要


从证明的比较我们可以看出,目前大模型的基本上可以说是有一定的定型了,基本上都是通过提高硬件设置参数,算力,提高大模型的性能。而想要通过算法设计的方式,提高大模型有点困难了。

[*]对成本有要求: 选择(qwen3-30b)
[*]不差钱 deepseek-r1-0528 满血版本
大模型的选择,需要根据自身的业务以及财力进行综合的选择。
    1. ![](https://cdn.nlark.com/yuque/0/2025/png/22309163/1750856081070-bd44ac03-07d8-468f-a75a-6304f697812a.png?x-oss-process=image%2Fwatermark%2Ctype_d3F5LW1pY3JvaGVp%2Csize_97%2Ctext_5b6Q5bq26ICB5biI%2Ccolor_FFFFFF%2Cshadow_50%2Ct_80%2Cg_se%2Cx_10%2Cy_10)
https://github.com/jeinlee1991/chinese-llm-benchmark#-%E6%8E%92%E8%A1%8C%E6%A6%9C

大模型的诊断平台:https://nonelinear.com/static/eval.html,可以通过它,帮助我们进行以一个初步大模型的选择。

最后:

“在这个最后的篇章中,我要表达我对每一位读者的感激之情。你们的关注和回复是我创作的动力源泉,我从你们身上吸取了无尽的灵感与勇气。我会将你们的鼓励留在心底,继续在其他的领域奋斗。感谢你们,我们总会在某个时刻再次相遇。”


来源:程序园用户自行投稿发布,如果侵权,请联系站长删除
免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作!
页: [1]
查看完整版本: 1. 大模型的选择详细分析