去掉一个「超权重」的影响,比去掉其他7000个离群值权重加起来还要严重。
大模型的参数量越来越大,越来越聪明,但它们也越来越奇怪了。
两年前,有研究者发现了一些古怪之处:在大模型中,有一小部分特别重要的特征(称之为「超权重」),它们虽然数量不多,但对模型的表现非常重要。
如果去掉这些「超权重」,模型就完全摆烂了,开始胡言乱语,文本都不会生成了。但是如果去掉其他一些不那么重要的特征,模型的表现只会受到一点点影响。
有趣的是,不同的大模型的「超权重」却出奇地相似,比如:
它们总是出现在层中。
它们会放大输入token激活的离群值,这种现象研究者们称之为「超激活」(superactivation)。无论输入什么提示词,「超激活」在整个模型中都以完全相同的幅度和位置持续存在。而这源于神经网络中的「跨层连接」。
它们还能减少模型对常用但不重要的词汇,比如「的」、「这」、「了」的注意力。
得到了这些发现,圣母大学和苹果的研究团队进一步对「超权重」进行了探索。
他们改进了round-to-nearestquantization(RNQ)技术,提出了一种对算力特别友好的方法。
论文链接:https://arxiv.org/pdf/2411.07191论文标题:TheSuperWeightinLargeLanguageModels
这种新方法与SmoothQuant效果相当,在处理模型的权重时,可以用这种技术处理更大的数据块,让模型在变小的同时,还能保持很好的效果。
看来,苹果是真的把宝押在小模型身上了!
什么是「超权重」?
为了量化「超权重」对模型的影响有多大,研究团队修剪了所有的离群值权重,结果发现,去掉一个「超权重」的影响,比去掉其他7000个离群值权重加起来还要严重。
如何识别「超权重」?
虽然之前的研究者发现了「超权重」可以激活异常大的神经网络。该团队又把「超权重」和「超激活」之间的联系向前推进了一步。他们发现在降维投影之前,门控和上投影的Hadamard乘积产生了一个相对较大的激活,而「超权重」进一步放大了这个激活并创造了「超激活」。
而通过激活的峰值可以进一步定位「超权重」。基于此,研究团队提出了一种高效的方法:通过检测层间降维投影输入和输出分布中的峰值来定位「超权重」。
这种方法只需要输入一个提示词,非常简单方便,不再需要一组验证数据或具体示例了。
在这种情况下,j和k是由X_ik和Y_ij的值决定的。因此,可以首先绘制出mlp.downproj层的输入和输出激活中的极端异常值。接着,如图3所示,确定超权重所在的层和坐标。
一旦检测到一个超权重,将其从模型中移除并重复上述过程,直到抑制住较大的最大激活值。
「超权重」的机制
「超权重」的影响
研究团队发现超级权重有两种主要影响:
引发「超激活」;抑制了停用词(stopword)的生成概率。
为了探究「超权重」是完全通过「超激活」,还是也通过其他token来影响模型质量,研究团队设计了一个控制变量实验:
原始模型;移除「超权重」,将其权重设置为0;移除「超权重」,但恢复神经网络层中的「超激活」。
实验结果如表1所示。恢复「超激活」后,模型的平均准确率从35.14恢复到49.94,恢复「超激活」挽回了约42%的质量损失。
这表明,「超权重」对模型整体质量的影响并不完全由「超激活」所导致。
「超权重」对输出token概率分布的影响
「超权重」会影响输出token的概率分布。为此,该团队研究了「超权重」对Lambaba测试集的500个prompt的输出token概率分布有何影响。
实验表明,移除「超权重」后,停用词的生成概率显著放大。例如,对于Llama-7B模型,「the」的生成概率增加约2倍,「.」增加约5倍,「,」增加约10倍
为了更加深入地剖析,研究团队进行了案例研究:
输入prompt为:「Summerishot.Winteris」下一个token应为「cold」,这是一个具有强语义的词。
含有「超权重」的原始模型能够以81.4%的高概率正确预测。然而,移除「超权重」后,模型预测的最多的词变成了停用词「the」,并且「the」的概率仅为9.0%,大多数情况是在胡言乱语。
这表明,「超权重」对于模型正确且有信心地预测具有语义的词汇至关重要。
「超权重」的重要性
研究团队还分析了超级权重幅值变化对模型质量的影响,通过将超级权重按0.0到3.0的缩放因子放大。结果表明,适度放大幅值可以提升模型准确率,详见下图。
超离群值感知量化
量化是一种压缩模型和减少内存需求的强大技术。然而,无论是权重量化还是激活量化,异常值的存在都会大大降低量化质量。如前所述,研究者将这些有问题的异常值(包括超权值和超激活值)称为超异常值。
如上所示,这些超离群值对模型质量的重要性是不成比例的,因此在量化过程中保留它们至关重要。
量化一般是将连续值映射到一个有限的值集;这里考虑的是其中一种最简单的形式,即非对称轮至最近量化:
研究者特别考虑了硬件以半精度执行运算的情况,这意味着张量X在使用前会进行量化和去量化;在这种情况下,我们可以通过两种方法利用超离群值的先验知识。
首先,保留超离群值,防止对离群值量化产生不利影响。其次,在去量化后恢复超离群值,以确保超离群值的效果得以保留。
接下来将以两种形式对权重和激活采用这一观点。
激活量化
研究者使用值舍入量化技术进行实验,并做了一个小修改:用中值替换超激活(REPLACE),量化(Q)和去量化(Q-1)激活,然后在FP16中恢复超激活(RESTORE)。具体操作如下:
由于超激活是单个标量,因此对比特率和内核复杂度的影响不大。
权重量化
小规模分组会带来计算和比特率开销,需要其他技术来处理大量的半精度刻度和偏差。为了应对这一挑战,本文提出了一种简单的方法来改进INT4的大块量化。首先,识别超权重;其次,为了改善离群值拟合,对离群值权重进行剪切(CLIP),在这一步超权重也会被剪切,对剪切后的权重进行量化(Q)和去量化(Q-1);然后,为了确保保留超权重的效果,在去量化后恢复半精度超权重(RESTORE)。
如上公式,使用z-score对剪切进行参数化。假定所有权重都符合高斯分布,研究者认为所有z值超过某一阈值z的值都是离群值。为了调整超参数z,研究者使用Wikitext-2训练集中的500个示例找到了最小重构误差z-score。
实验
为了全面展示超权重的效果,研究者在LLaMA7B-30B、Mistral7B和OLMo上进行了实验。为了评估LLM的实际应用能力,他们评估了这些模型在PIQA、ARC、HellaSwag、Lambada和Winogrande等零样本基准上的精度。细节如下所示。
激活量化
表3比较了本文方法和SmoothQuant。对于两个数据集上的三个Llama模型,本文方法比SmoothQuant的naive量化方法提高了70%。在使用Llama7B的C4数据集和使用Llama-30B的Wikitext数据集上,本文改进幅度超过SmoothQuant的80%。这意味着,与更复杂的方法相比,经过大幅简化的量化方法可以获得具有竞争力的结果。
随后,研究者扩大了评估范围,纳入了更多的LLM:OLMo(1B和7B)、Mistral-7B和Llama-2-7B,结果如表4和附录表7所示。这些模型代表了不同的架构和训练范式,能够评估量化方法的通用性。由于SmoothQuant没有报告这组模型,因此研究者将他们的结果与naiveW8A8量化进行了比较。在所有模型和数据集上,本文方法始终优于naiveW8A8量化,且在OLMo模型上表现特别突出。
值得注意的是,OLMo模型使用非参数化LayerNorm,因此与SmoothQuant方法不兼容,后者依靠LayerNorm权重来应用每个通道的比例。在Mistral-7B上,改进幅度较小。研究者假设这是因为这些模型的LayerNorm所学习的权重可能会积极抑制超激活,从而使激活幅度的分布更加均匀。
这些结果凸显了超激活在量化过程中保持模型性能的重要性。通过以最小的计算开销解决这一单一激活,本文方法捕捉到了更复杂的量化方案所实现的大部分优势。这一发现表明,在量化过程中,超激活在保持模型质量方面发挥着不成比例的巨大作用。
权重量化
为了评估所提出的超权重感知量化方法的有效性,研究者将其与传统的round-to-near量化方法进行了比较,在一套零样本下游任务中对模型进行了评估,结果如图7所示。
在传统的round-to-near量化方法中,可以观察到一个明显的趋势:随着块大小的增加,模型质量明显下降。这种下降可能是由于当较大的权重块一起量化时,量化误差会增加,从而使异常值影响到更多的权重。相比之下,本文的「超权重」感知量化方法对更大的块大小具有更强的鲁棒性。随着块大小的增大,模型质量的下降明显小于round-to-near方法。
这种鲁棒性源于本文方法能够保留最关键的权重(超权重),同时将离群值权重对整个量化过程的影响降至最低。通过剪除离群值并关注离群值权重,本文的方法在表示模型参数时保持了更高的保真度。
还有一个关键优势是,它能够支持更大的数据块尺寸,同时减少模型质量的损失。这种能力使平均比特率更低,文件尺寸更小,这对于在资源有限的环境(如移动设备或边缘计算场景)中部署模型至关重要。
更多研究细节,可参考原论文。
网站地图、网站地图、网站地图、网站地图、网站地图、网站地图、网站地图、网站地图、网站地图、网站地图、网站地图、网站地图、网站地图、网站地图、网站地图、网站地图、网站地图、网站地图、网站地图、网站地图