Retentive Networks Meet Vision Transformers, 视觉RetNet

发布时间 2023-12-10 21:49:56作者: InunI
alias: Fan2023
tags: RetNet
rating: ⭐
share: false
ptype: article

RMT: Retentive Networks Meet Vision Transformers


初读印象

comment:: (RMT)Retentive Network(RetNet)因其显式衰减机制而在自然语言处理中受到关注,但它不适合基于图像的任务。本文提出了保留性自我注意力 (reSA),这是一种专为视觉模型设计的双向二维显性衰减形式注意力。

Why

NLP中RetNet提高了推理速度。在 RetNet 中,显式衰减机制是专为语言数据设计的,表现为单向、一维的建模衰减过程,为模型提供了基于距离变化的先验知识。除此之外,RetNet 还采用了线性注意,用门激活取代了自注意中的softmax。这两个因素使 RetNet 具有很高的灵活性和良好的性能,使其能够通过三种操作形式适应并行训练和递归推理(自回归推理)的要求。

以上特点不能直接用于视觉模型,图像中的标记需要双向、二维建模。此外,虽然语言模型是并行训练的,但它们必须以顺序的方式用于自回归推理。这与视觉主干不同,后者在训练和推理过程中都使用相同的并行形式。

What

RetNet

RetNet以循环的方式考虑序列建模问题:

Pasted image 20231121165145在为了并行训练,以上公式改为:Pasted image 20231121165857
]

  • 变量$θ_n$定义为$e^{inΩ}$,其中 i 是虚数单位,n 是参数,Ω 是一个常数。
  • $D\in\mathbb{R}^{|x|\times|x|}$包含因果掩蔽和指数衰减:
    • 如果 n 大于或等于 m,则 $d_{nm}$ 等于 $γ^ (n-m)$,其中 γ是衰减因子;否则, $d_{nm}$ 等于 0。

ReSA

去除因果

语言任务有因果性质,所以RetNet的保留是单项的,每个标记只能关注前面的标记,不能关注后面的标记。而图像任务没有标记关系。

Pasted image 20231121171141####2D特化
使用曼哈顿距离作为2D的距离

Pasted image 20231121171559

$(x_n, y_m)$是第n个点的坐标。
Pasted image 20231121171815####分解式ReSA
前几个阶段中,视觉token太多了,复杂度比较高,因此提出分解ReSA为图像的两个轴。

Pasted image 20231121182559

最后加入局部信息
Pasted image 20231121183521Pastedimage 20231121183605

How

Pasted image 20231121183836