登录
/
注册
首页
论坛
其它
首页
科技
业界
安全
程序
广播
Follow
关于
导读
排行榜
发帖说明
登录
/
注册
账号
自动登录
找回密码
密码
登录
立即注册
搜索
搜索
关闭
CSDN热搜
程序园
精品问答
技术交流
资源下载
本版
帖子
用户
软件
问答
教程
代码
写记录
写博客
小组
VIP申请
VIP网盘
网盘
联系我们
发帖说明
道具
勋章
任务
淘帖
动态
分享
留言板
导读
设置
我的收藏
退出
腾讯QQ
微信登录
返回列表
首页
›
业界区
›
业界
›
探秘Transformer系列之(27)--- MQA & GQA
探秘Transformer系列之(27)--- MQA & GQA
[ 复制链接 ]
寨亳
2025-6-2 21:44:52
程序园永久vip申请,500美金$,无限下载程序园所有程序/软件/数据/等
探秘Transformer系列之(27)--- MQA & GQA
目录
探秘Transformer系列之(27)--- MQA & GQA
0x00 概述
0x01 MHA
1.1 概念
1.2 实现
1.2.1 哈佛
1.2.2 llm-foundry
1.3 资源占用
0x02 MQA
2.1 概念
2.2 实现
1.2.1 精简版
1.2.2 完整版
2.3 效果
2.3.1 内存
2.3.2 速度
2.3.3 表征能力
2.3.3 通信
0x03 GQA
3.1 概念
3.2 架构比对
3.3 实现
3.3.1 精简版
3.3.2 完整版
3.4 效果
3.4.1 内存
3.4.2 速度
3.4.3 表征能力
3.5 转换
3.5.1 平均池化
3.5.2 基于掩码
网络转换
找到更好的分组方法
剪枝训练
3.6 优化
0xFF 参考
0x00 概述
在前文“优化KV Cache"中我们提到过,在”减少注意力头的数量“这个维度上,目前主要的相关工作有 MQA和GQA。MQA 和 GQA 是在缓存多少数量KV的思路上进行优化:直觉是如果缓存的KV个数少一些,显存就占用少一些,大模型能力的降低可以通过进一步的训练或者增加FFN/GLU的规模来弥补。
因为MQA和GQA是基于MHA进行改进,所以我们用下图展示了三者的区别。可以看到,通过缩减注意力头数目,MQA/GQA会降低KV Cache存储,让不同的注意力头或者同一组的注意力头共享一个K和V的集合,因为只单独保留了一份(或者几份)查询参数。因此K和V的矩阵仅有一份(或者几份),这大幅度减少了显存占用,使其更高效。另外,传统的基于MHA的Attention算子过于卡访存带宽,MQA和GQA,乃至后续的MLA都可以提计算访存比,这样也是对性能的极大提升。
注:
全部文章列表在这里,估计最终在35篇左右,后续每发一篇文章,会修改此文章列表。cnblogs 探秘Transformer系列之文章列表
本系列是对论文、博客和代码的学习和解读,借鉴了很多网上朋友的文章,在此表示感谢,并且会在参考中列出。因为本系列参考文章太多,可能有漏给出处的现象。如果原作者发现,还请指出,我在参考文献中进行增补。
0x01 MHA
因为MQA,GQA是基于MHA进行修改,所以我们有必要先回顾下MHA。
1.1 概念
MHA(即多头注意力机制)在2017年就随着Transformer原始论文"Attention Is All You Need"一起提出,其主要工作是:把原来一个注意力计算拆成多个小份的注意力头,即把Q、K、V分别拆分成多份,每个注意力头使用独立的Q、K、V进行计算。而多个头可以并行计算,分别得出结果,最后再合回原来的维度。
我们通过下图来看看MHA的流程,这里设
来源:程序园用户自行投稿发布,如果侵权,请联系站长删除
免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作!
探秘
Transformer
系列
MQA
amp
相关帖子
DotMemory系列:2. 事件泄露引发的内存暴涨分析
C#AI系列(2):深度学习项目构建及实战TorchSharp准备篇
个人知识管理新选择:探秘访答本地私有知识库
(让 Java IA & MCP 更简单 )Solon AI v3.7.2 发布
Tom WP&复盘(vulnyx)
[源码系列:手写Spring] AOP第二节:JDK动态代理 - 当AOP遇见动态代理的浪漫邂逅
解密Prompt系列65. 三巨头关于大模型内景的硬核论文
NOIP 游寄 & 退役记
C#AI系列(5): 从零开始 C# 轻松语音识别
DFAT—Dual Focus-Attention Transformer for Robust Point Cloud Registration
回复
使用道具
举报
提升卡
置顶卡
沉默卡
喧嚣卡
变色卡
千斤顶
照妖镜
相关推荐
业界
DotMemory系列:2. 事件泄露引发的内存暴涨分析
1
815
东门芳洲
2025-11-15
业界
C#AI系列(2):深度学习项目构建及实战TorchSharp准备篇
1
552
遗憩
2025-11-21
业界
个人知识管理新选择:探秘访答本地私有知识库
1
57
拓拔梨婷
2025-11-24
业界
(让 Java IA & MCP 更简单 )Solon AI v3.7.2 发布
0
883
终秀敏
2025-11-25
安全
Tom WP&复盘(vulnyx)
0
624
诞楮
2025-11-26
业界
[源码系列:手写Spring] AOP第二节:JDK动态代理 - 当AOP遇见动态代理的浪漫邂逅
3
227
方方仪
2025-11-27
业界
解密Prompt系列65. 三巨头关于大模型内景的硬核论文
0
744
轮达
2025-12-01
业界
NOIP 游寄 & 退役记
0
734
全叶农
2025-12-04
业界
C#AI系列(5): 从零开始 C# 轻松语音识别
0
80
梦霉
2025-12-07
业界
DFAT—Dual Focus-Attention Transformer for Robust Point Cloud Registration
0
484
套缈
2025-12-07
回复
(4)
纪晴丽
2025-10-10 01:21:31
回复
使用道具
举报
照妖镜
猛犸象科技工作室:
网站开发,备案域名,渗透,服务器出租,DDOS/CC攻击,TG加粉引流
不错,里面软件多更新就更好了
瞧蛀
2025-11-14 00:50:40
回复
使用道具
举报
照妖镜
猛犸象科技工作室:
网站开发,备案域名,渗透,服务器出租,DDOS/CC攻击,TG加粉引流
很好很强大 我过来先占个楼 待编辑
户烫擞
前天 20:46
回复
使用道具
举报
照妖镜
程序园永久vip申请,500美金$,无限下载程序园所有程序/软件/数据/等
前排留名,哈哈哈
盛天欣
昨天 10:29
回复
使用道具
举报
照妖镜
程序园永久vip申请,500美金$,无限下载程序园所有程序/软件/数据/等
过来提前占个楼
高级模式
B
Color
Image
Link
Quote
Code
Smilies
您需要登录后才可以回帖
登录
|
立即注册
回复
本版积分规则
回帖并转播
回帖后跳转到最后一页
浏览过的版块
安全
签约作者
程序园优秀签约作者
发帖
寨亳
昨天 10:29
关注
0
粉丝关注
21
主题发布
板块介绍填写区域,请于后台编辑
财富榜{圆}
anyue1937
9994893
kk14977
6845355
3934307807
991122
4
xiangqian
638210
5
宋子
9987
6
闰咄阅
9991
7
刎唇
9993
8
俞瑛瑶
9998
9
蓬森莉
9952
10
匝抽
9986
查看更多