黎瑞芝 发表于 2026-1-1 05:10:00

论文解读:One-shot Entropy Minimization

一篇还未发表的论文,但做了大量实验对熵最小化技巧提升模型推理能力进行了探索。本文训练了13440个大型语言模型,发现熵最小化(EM)只需要一个未标记的数据和10步优化,性能提升就比RL还强。基于两个直接而简单的假设:

[*]生成大型语言模型的采样过程本质上是随机的。
[*]正确答案的熵通常低于错误答案。
EM和RL有共同目标:在不添加新知识的情况下释放预训练模型的潜在潜力,都依赖于所谓“token重评级”。
原文网址:https://arxiv.org/abs/2505.20282v4
方法

给定prompt $x$,生成序列$y$,最小化生成序列token级别的预测熵:
$\displaystyle L_{\mathrm{EM}} = \frac{1}{|y|} \sum_{t = 1}^{|y|} H_t  $

$\displaystyle H_t = -\sum_{v \in V} p_\theta(v \mid y_{

艾晓梅 发表于 2026-1-7 04:40:53

感谢分享,下载保存了,貌似很强大

徙办 发表于 2026-1-9 02:55:50

东西不错很实用谢谢分享

韦逸思 发表于 2026-1-18 20:43:17

喜欢鼓捣这些软件,现在用得少,谢谢分享!

卢莹洁 发表于 2026-1-20 06:17:54

感谢分享,下载保存了,貌似很强大

吮槌圯 发表于 2026-1-20 14:12:28

谢谢楼主提供!

呈步 发表于 2026-1-25 08:35:53

分享、互助 让互联网精神温暖你我

寨亳 发表于 2026-1-25 10:14:32

这个有用。

矛赓宁 发表于 2026-1-26 02:53:35

热心回复!

寇秀娟 发表于 2026-1-29 04:02:37

很好很强大我过来先占个楼 待编辑

都淑贞 发表于 2026-1-30 03:27:01

感谢分享,学习下。

醋辛 发表于 2026-2-2 04:58:47

这个好,看起来很实用

高清宁 发表于 2026-2-4 10:42:34

这个好,看起来很实用

仲水悦 发表于 2026-2-8 04:39:48

yyds。多谢分享

固拆棚 发表于 2026-2-8 06:17:08

感谢发布原创作品,程序园因你更精彩

格恳绌 发表于 2026-2-9 01:00:26

分享、互助 让互联网精神温暖你我

茅香馨 发表于 2026-2-9 16:08:29

这个好,看起来很实用

敖可 发表于 2026-2-12 13:30:01

感谢发布原创作品,程序园因你更精彩

栓汨渎 发表于 2026-2-18 02:15:42

感谢分享,学习下。

窟聿湎 发表于 2026-2-26 03:40:06

这个有用。
页: [1] 2
查看完整版本: 论文解读:One-shot Entropy Minimization