ICML

ICML 2023 | 神经网络大还是小?Transformer模型规模对训练目标的影响

前言 本文研究了 Transformer 类模型结构(configration)设计(即模型深度和宽度)与训练目标之间的关系。结论是:token 级的训练目标(如 masked token prediction)相对更适合扩展更深层的模型,而 sequence 级的训练目标(如语句分类)则相对不适合 ......

【ICML2022】Understanding The Robustness in Vision Transformers

来自NUS&NVIDIA 文章地址:[2204.12451] Understanding The Robustness in Vision Transformers (arxiv.org) 项目地址:https://github.com/NVlabs/FAN 一、Motivation CNN使用滑动 ......

ICML 2023 | 轻量级视觉Transformer (ViT) 的预训练实践手册

前言 本文介绍一下最近被 ICML 2023 接收的文章:A Closer Look at Self-Supervised Lightweight Vision Transformers.文章聚焦在轻量级 ViT 的预训练上,相当于为相关方向的研究提供了一个 benchmark,相关的代码与模型也都 ......
轻量 轻量级 Transformer 视觉 手册
共3篇  :1/1页 首页上一页1下一页尾页