查看原文
其他

Transformer 的后浪来了?

王庆法 清熙
2024-08-25

谷歌刚刚官宣了Gemini , 能力接近或超过GPT4, 真正的多模态,底层神经网络架构沿用 Transformer Decoder,针对TPU 做了优化,采用了multiquery attention。Transformer已成为事实上的大模型神经网络架构行业标准了,然而这个领域研究依然十分活跃,有潜力替代Transformer 的后浪会出现吗?

 

笔者上两周分别应用自己整理的“大模型的数学物理原理的认知框架”,深度解读了这个领域两篇最新力作:“如何看待伯克利马毅教授团队白盒Transformer”和 “爱因斯坦校友提出的Transformer简化方案是条歧路”。今天带着读者梳理一下第三篇,笔者认为很有潜力的Transformer 的后继,甚至对AI4Science都可能有深远意义。

 

论文“Mamba: Linear-Time Sequence Modeling with Selective State Spaces 基于选择性状态空间的线性时间序列建模”,学者来自卡耐基梅隆和普林斯顿大学。论文认为Transformer架构及其核心注意力模块长序列上的计算效率低下,而采用“输入依赖的结构化状态空间”模型,无需注意力甚至MLP模块,可实现比Transformer高5倍吞吐量,提高到百万长度序列,在语言、音频和基因组学等多个模态实现最先进的性能。其3B语言模型性能甚至与两倍大小的Transformer模型匹配。

 

     

这里补充一些状态空间模型(SSM: State Space Model)的背景知识,对理解论文的思路很有助力。下面这个图,估计学过中学物理的读者都眼熟:

 

 

一个质量为 m 的系统, 受外力 f(t),  有位移 s(t),   速度v(t),加速度a(t),  s(t) = x1,  v(t) = x2,  x2 可以由 x1 表示出来 (x1 偏导数),a (t) = x3,  也可以由 x1 表示出来。f(t) = u(t) 作为输入, y(t) 为输出。[ s(t), v(t), a(t) ] 构成此系统的状态向量,张成的空间即该系统的状态空间。斯坦福学者给出了更一般性的阐释:任何物理系统的运动方程都可以很方便地用它的状态来表征

 

     

状态空间模型简单,但是具备强大的刻画能力,即使人脑也能用这个形式建模。这里概括了三个关键词:时变性 time-varying,非线性 nonlinear,通用性 general。SSM广泛应用于许多科学领域,并与隐式马尔可夫模型(HMM)相关。

 

论文作者在其早前一篇获奖论文 “Efficiently Modeling Long Sequences with Structured State Spaces 用结构化状态空间高效建模长序列”中提到:SSM 将一维输入信号u(t)映射到多维隐状态x(t),然后投影到一维输出信号y(t),可由简单的方程定义:

         
x'(t) =
Ax(t) + Bu(t)

y(t) = Cx(t) + Du(t)

 

将SSM用作深度序列模型中的黑盒表征,A, B, C, D参数可通过梯度下降学习到,并可忽略D,因为Du(t)可以被视为跳过连接(skip connection)且易于计算。对方程做离散化,例如 u(t) 变成:(u0, u1, . . .) ,可视为对连续方程u(t)的采样。A,B,C以及步长Δ相应变成Ā 等离散矩阵。离散化使得上述方程由“方程到方程”变成"序列到序列" 。Ā 即系统的状态转移矩阵。

 

 

论文称Mamba模型有两大特点:1.不使用注意力机制,核心创新是引入了选择性SSM,允许模型的参数( A,B,C, Δ)受到输入u(t)的影响,从而实现选择性信息传播; 2.为处理长序列提供了更有效的方式,使得计算和内存需求与序列长度呈线性关系,优于自注意下两者间的二次关系,并借助GPU硬件感知设计了高效算法。模型架构见下图:   

 

 

爱因斯坦校友提出的Transformer简化方案是条歧路”中,笔者梳理过,1. 层归一化 layer normalization其实是对"离散的概率向量之和与平滑的概率曲线积分"之间差异的校正,避免自由能概率分布偏离积分为 1;2. 跳过连接(Skip Connection) 通过在不同的path上跳过一些层,本质上等同于提供了不同尺度的信息提取路径,来弥补尺度选取离散化与线性化带来的非线性部分的损失; 3.参数的多少,参数的精度,隐变量空间维度的大小都代表着模型提取信息的精准度,也就是对原始连续概率分布的拟合逼近能力。

 

上述三点,论文中都有体现:

 

首先,Mamba 非常注重强化非线性部分的处理。"我们重复这个块,用标准归一化和残差连接交织,形成Mamba 架构","离散化与连续时间系统有着深度的连接,可以赋予它们额外的属性,如解不变性与自动确保模型适当归一化"。

 

可以看出,论文匠心独运,不仅"SSM的离散化"处理本身保障适当归一化,还在架构上与标准归一化与残差连接交织,确保了非线性处理能力,参数和步长都是如此,因而优于Transformer 特别是仍具有炼金术特征的skip connection部分。

     

 

其次,增加了参数捕获能力。"允许模型的参数( A,B,C, Δ)受到输入u(t)的影响",也就是 ( A,B,C, Δ)参数和步长,都作为输入u(t)的函数,使其依赖于输入以及与之伴随的张量形态的变化。笔者觉得这是在用输入input的信息概率分布 distribution 的形态shape,不断校准潜变量参数和步长,本质上效果与attention类似。

 

论文认为,线性时不变LTI模型的失败,从递归的角度来看,常数的状态转移不能从上下文中选择正确的信息。RWKV的WKV 机制采用LTI 线性时不变,可见其模型的局限。序列模型的效率与有效性权衡以状态压缩的程度为特征:高效模型须小,而有效模型须包含上下文必要信息。构建序列模型的基本原则是选择性,或上下文感知能力。

 

Mamba 让参数获得依据上下文提取信息的能力,强化了模型的参数捕获和对上下文的表征能力,与笔者在“爱因斯坦校友提出的Transformer简化方案是条歧路”中观点一致:增加模型的精度,增加隐变量的数量,可以扩大隐变量空间的维度,提高概率向量对实际信息的表征能力的丰富性,强化信息细微差别的区分能力。

 

     

Mamba所展现的能力,与笔者判断也一致 "各种DNN深度神经网络,本质上只要沿着这个思路增加参数捕获能力,都可以与Transformer殊途同归"。即使其并行性与百亿参数超大规模能力和效率仍有待观察。

 

细心读者可能注意到一个细节,论文对参数矩阵A是这样处理的:虽然A参数也可以是选择性的,但它最终只通过与∆的相互作用(A = exp(∆A)) 来影响模型。因此,∆的选择性足以确保(A,B)的选择性,并且是改进的主要来源。我们假设,除了∆,使A具有选择性将具有类似的性能,简单起见将其省略。

 

不知道是否笔者理解不到位,原始信息的概率分布是个多维度(甚至高维)的联合概率分布,步长Δ或者skip connection 仅仅是修正一个维度(信息层次)的非线性,其他维度的非线性也需要修正。下图是笔者头脑里对论文涉及问题的整体思维模型:

 

 

1.状态空间对事物的表征和刻画:状态空间的高维度,某时刻的信息,即某时刻的事物的能量的概率分布,是众多维度的联合概率分布,各维度都可能具有连续性和非线性,如何用线性系统近似,并最大努力消除非线性的影响非常关键;不同层次的潜变量空间,对信息的提取,和粗颗粒度逐层抽象,都需要类似重整化群 RG中的反复归一化,以消除“近似非线性处理”对整体概率为 1 的偏离; 

2.状态空间的动态性:即从时间的维度,研究整个状态空间的变迁。这个变迁是状态空间的大量非时间维度的信息逐层提取,叠加时间这一特殊维度的(状态-时间)序列sequence。不管是高维度低层次的细颗粒度的概率分布的时间变化,还是低维度高层次的粗颗粒度概率分布的时间变化,都是非线性时变系统,用线性时不变(LTI)的模型都是无法很好刻画的。 

3.状态空间时间序列的非马尔可夫性:思考attention 的价值,时序数据上的 attention 注意到了什么?诸如趋势, 周期性, 一次性事件等。非时间维度子空间内的 attention,注意到的是范畴内与范畴间的关系, 即某个时刻的状态空间。状态空间的时序,研究的是状态空间的动力学,外在驱动“力”或因素导致的状态的“流动”,即状态空间t时刻与 t-n时刻之间的关系,注意到是其时间依赖规律,往往不具备马尔可夫性。 

薛定谔的小板凳与深度学习的后浪”中笔者引用  “概率学界学术教父” 钟开莱先生在他的《Green, Brown, and Probability》书中的论述:“马尔可夫性质意味着,当现在已知时,过去不会对未来产生后效影响;但请注意,由于误解了“现在已知”这句话的确切含义,已经铸成了大错”  。

 

下面这个"年轻的父母接送孩子上下学"的例子可以帮助理解钟先生这句话: 

 

State t-1   在家      state t    学校     state t+1   公司   :  送娃上学

State t-1   公司      state t    学校     state t+1   在家    :接娃回家

 

t 时刻的隐状态空间表征能力很重要,当状态空间仅仅是 "state t 学校" 时,无法获知 state t+1 的状态,因为其还取决于state t-1的状态,而且甚至需要看 t-n 时刻 ,比如上周末老师布置了 t 时刻放学后去礼堂看演出。仔细想想,语言自回归,非马尔可夫性其实是常态,事实上时延系统基本都是非马尔可夫的。Attention 或者状态空间selective 选择性就非常关键。

     

 

Pytorch创始团队负责人硅谷AI大佬 Bill Jia 认为现在大模型应该从侧重空间关联转向加强时间关联。笔者觉得Bill 说的空间关联对应笔者上图中“非时间维度子空间”,而时间关联则是对应“状态空间的动态性”以及处理好“非马尔可夫性”。

 

Mamba论文 time sequence modeling 是这个方向的有益探索,具备很强的潜力,而且逻辑上判断也可以适用于多模态。Transformer Decoder 基本统一了大语言模型的神经网络架构,切换成新架构将会带来难以估量的成本,包括沉没成本,迁移成本,有风险的机会成本等。笔者觉得 Mamba后续可以侧重类似TimeGPT 那样的预测泛化场景,给AI4Science 带来有益的想象空间

 

  

1.Efficiently Modeling Long Sequences with Structured State Spaces  https://arxiv.org/pdf/2111.00396.pdf 

         

 

2.Mamba: Linear-Time Sequence Modeling with Selective State Spaces   https://arxiv.org/ftp/arxiv/papers/2312/2312.00752.pdf      

 

    

继续滑动看下一个
清熙
向上滑动看下一个

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存