找回密码
 立即注册
首页 业界区 业界 1. 大模型的选择详细分析

1. 大模型的选择详细分析

訾颀秀 2025-9-23 10:03:39
1. 大模型的选择详细分析

@
目录

  • 1. 大模型的选择详细分析

    • 介绍

      • 特性:

        • 提示词工厂
        • 对话拦截
        • 对话记忆
        • tools
        • RAG技术下的 ETL
        • MCP
        • 模型的评估
        • 可观察性
        • agent应用


    • langchain4j vs springAI
    • 大模型选型

  • 最后:

1.png

介绍

2.png

Spring AI 是一个面向人工智能工程的应用框架。解决了 AI 集成的基本挑战:将企业数据和API与AI 模型连接起来。
特性:

提示词工厂

可以说是大模型应用中最简单也是最核心的一个技术。他是我们更大模型交互的媒介,提示词给的好大模型才能按你想要的方式响应。
对话拦截

3.png

面向切面的思想对对模型对话和响应进行增强。
对话记忆
  1. @Autowired
  2. ChatMemoryRepository chatMemoryRepository;
复制代码
通过一个bean组件就可以让大模型拥有对话记忆功能,可谓是做到了开箱即用
tools

4.png

让大模型可以跟企业业务API进行互联 ,这一块实现起来也是非常的优雅
  1. class DateTimeTools {
  2.     @Tool(description = "Get the current date and time in the user's timezone")
  3.     String getCurrentDateTime() {
  4.         return LocalDateTime.now().atZone(LocaleContextHolder.getTimeZone().toZoneId()).toString();
  5.     }
  6. }
复制代码
RAG技术下的 ETL

5.png

让大模型可以跟企业业务数据进行互联(包括读取文件、分隔文件、向量化) 向量数据库支持 目前支持20+种向量数据库的集成 这块我到时候也会详细去讲
MCP

让tools外部化,形成公共工具让外部开箱即用。 原来MCP协议的JAVA SDK就是spring ai团队提供的 提供了MCP 客户端、服务端、以及MCP认证授权方案 ,还有目前正在孵化的Spring MCP Agent 开源项目:
模型的评估

可以测试大模型的幻觉反应(在系列课详细讲解)
可观察性

它把AI运行时的大量关键指标暴露出来, 可以提供Spring Boot actuctor进行观测
agent应用

springai 提供了5种agent模式的示例

  • Evaluator Optimizer – The model analyzes its own responses and refines them through a structured process of self-evaluation.
6.png


  • Routing – This pattern enables intelligent routing of inputs to specialized handlers based on classification of the user request and context.
  • Orchestrator Workers – This pattern is a flexible approach for handling complex tasks that require dynamic task decomposition and specialized processing
  • Chaining – The pattern decomposes complex tasks into a sequence of steps, where each LLM call processes the output of the previous one.
  • Parallelization – The pattern is useful for scenarios requiring parallel execution of LLM calls with automated output aggregation.
学完这5种你会对对模型下的agent应用有一个完整认识
langchain4j vs springAI

7.png
8.png
生态不依赖Spring,需要单独集成SpringSpring官方,和Spring无缝集成诞生更早,中国团队,受 LangChain 启发稍晚,但是明显后来居上jdkv0.35.0 前的版本支持jdk8   ,后支持jdk17全版本jdk17功能没有mcp server, 官方建议使用quarkus-mcp-server早期落后langchain4j, 现在功能全面,并且生态活跃,开源贡献者众多易用性尚可,中文文档易用,api优雅最终公司不用 Spring AI 就选择它无脑选!大模型选型


  • 自研(算法 c++  python 深度学习 机器学习 神经网络 视觉处理 952 211研究生 )AI算法岗位
  • 云端大模型   比如:云端我们在线使用的 DeepSeek,豆包,通义千问等等,  占用算力  token计费     功能完善成熟
  • 开源的大模型(本地部署)Ollama  购买算力    好处:采用开源大模型本地部署,可以将我们的资料信息私有化,因为你要知道,我们向云端大模型的每次提问,都是被其公司记录了的。存在隐私安全性。

    • 选型
    • 自己构建选型-->评估流程

      • 业务确定:( 电商、医疗、教育 )
      • 样本准备:数据集样本 选择题
      • 任务定制:问答  (利用多个大模型)
      • 评估: 人工评估

    • 通用能力毕竟好的

      • 2月份   deepseek   6710亿   671b = 算力 显存   H20  96G   140万  ; 比 openai gpt4节省了40/1 成本。
      • 3月份   阿里  qwq-32b(不带深度思考)   32b=320亿   媲美deepseek-r1  32G   比deepseek-r1节省20/1
      • 4月份   阿里  qwen3 (深度思考)    2350亿=235b   赶超了deepseek-r1  比deepseek-r1节省2-3倍    选择(qwen3-30b)
      • 5月    deepseek-r1-0528     6710亿   671b  性能都要要


从证明的比较我们可以看出,目前大模型的基本上可以说是有一定的定型了,基本上都是通过提高硬件设置参数,算力,提高大模型的性能。而想要通过算法设计的方式,提高大模型有点困难了。

  • 对成本有要求: 选择(qwen3-30b)
  • 不差钱 deepseek-r1-0528 满血版本
大模型的选择,需要根据自身的业务以及财力进行综合的选择。
  1.     1. ![](https://cdn.nlark.com/yuque/0/2025/png/22309163/1750856081070-bd44ac03-07d8-468f-a75a-6304f697812a.png?x-oss-process=image%2Fwatermark%2Ctype_d3F5LW1pY3JvaGVp%2Csize_97%2Ctext_5b6Q5bq26ICB5biI%2Ccolor_FFFFFF%2Cshadow_50%2Ct_80%2Cg_se%2Cx_10%2Cy_10)
复制代码
9.png

https://github.com/jeinlee1991/chinese-llm-benchmark#-%E6%8E%92%E8%A1%8C%E6%A6%9C
10.png

大模型的诊断平台:https://nonelinear.com/static/eval.html,可以通过它,帮助我们进行以一个初步大模型的选择。
11.png

最后:

“在这个最后的篇章中,我要表达我对每一位读者的感激之情。你们的关注和回复是我创作的动力源泉,我从你们身上吸取了无尽的灵感与勇气。我会将你们的鼓励留在心底,继续在其他的领域奋斗。感谢你们,我们总会在某个时刻再次相遇。”
12.gif


来源:程序园用户自行投稿发布,如果侵权,请联系站长删除
免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作!

相关推荐

您需要登录后才可以回帖 登录 | 立即注册