convolutions transformers introducing vision

SegNeXt: Rethinking Convolutional Attention Design for Semantic Segmentation

SegNeXt: Rethinking Convolutional Attention Design for Semantic Segmentation * Authors: [[Meng-Hao Guo]], [[Cheng-Ze Lu]], [[Qibin Hou]], [[Zhengning ......

InternImage: Exploring Large-Scale Vision Foundation Models with Deformable Convolutions 可变形卷积v3

InternImage: Exploring Large-Scale Vision Foundation Models with Deformable Convolutions * Authors: [[Wenhai Wang]], [[Jifeng Dai]], [[Zhe Chen]], [[Z ......

Fully convolutional networks for semantic segmentation

Fully convolutional networks for semantic segmentation * Authors: [[Jonathan Long]], [[Evan Shelhamer]], [[Trevor Darrell]] DOI: 10.1109/CVPR.2015.729 ......

U-Net: Convolutional Networks for Biomedical Image Segmentation

U-Net: Convolutional Networks for Biomedical Image Segmentation * Authors: [[Olaf Ronneberger]], [[Philipp Fischer]], [[Thomas Brox]] Local library 初读 ......

Real-Time Single Image and Video Super-Resolution Using an Efficient Sub-Pixel Convolutional Neural Network

Real-Time Single Image and Video Super-Resolution Using an Efficient Sub-Pixel Convolutional Neural Network * Authors: [[Wenzhe Shi]], [[Jose Caballer ......

Bottleneck Transformers for Visual Recognition

Bottleneck Transformers for Visual Recognition * Authors: [[Aravind Srinivas]], [[Tsung-Yi Lin]], [[Niki Parmar]], [[Jonathon Shlens]], [[Pieter Abbee ......

SeaFormer: Squeeze-enhanced Axial Transformer for Mobile Semantic Segmentation

SeaFormer: Squeeze-enhanced Axial Transformer for Mobile Semantic Segmentation * Authors: [[Qiang Wan]], [[Zilong Huang]], [[Jiachen Lu]], [[Gang Yu]] ......

UNetFormer: A UNet-like transformer for efficient semantic segmentation of remote sensing urban scene imagery

UNetFormer: A UNet-like transformer for efficient semantic segmentation of remote sensing urban scene imagery * Authors: [[Libo Wang]], [[Rui Li]], [[ ......

SegViT: Semantic Segmentation with Plain Vision Transformers

SegViT: Semantic Segmentation with Plain Vision Transformers * Authors: [[Bowen Zhang]], [[Zhi Tian]], [[Quan Tang]], [[Xiangxiang Chu]], [[Xiaolin We ......

CBAM: Convolutional Block Attention Module

CBAM: Convolutional Block Attention Module * Authors: [[Sanghyun Woo]], [[Jongchan Park]], [[Joon-Young Lee]], [[In So Kweon]] doi:https://doi.org/10. ......
Convolutional Attention Module Block CBAM

BiFormer: Vision Transformer with Bi-Level Routing Attention 使用超标记的轻量ViT

alias: Zhu2023a tags: 超标记 注意力 rating: ⭐ share: false ptype: article BiFormer: Vision Transformer with Bi-Level Routing Attention * Authors: [[Lei Zhu] ......
轻量 Transformer 标记 Attention BiFormer

Scale-Prior Deformable Convolution for Exemplar-Guided Class-Agnostic Counting

Scale-Prior Deformable Convolution for Exemplar-Guided Class-Agnostic Counting 初读印象 comment:: (计数用的一个网络)提出了一个标度优先的可变形卷积,将典范的信息,例如标度,整合到计数网络主干中。 动机 本文考 ......

Adaptive Sparse Convolutional Networks with Global Context Enhancement for Faster Object Detection on Drone Images

Adaptive Sparse Convolutional Networks with Global Context Enhancement for Faster Object Detection on Drone Images * Authors: [[Bowei Du]], [[Yecheng ......

2021-CVPR-Transformer Tracking

Transformer Tracking 相关性在跟踪领域起着关键作用,特别是在最近流行的暹罗跟踪器中。相关操作是考虑模板与搜索区域之间相似性的一种简单的融合方式。然而,相关操作本身是一个局部线性匹配过程,导致语义信息的丢失并容易陷入局部最优,这可能是设计高精度跟踪算法的瓶颈。还有比相关性更好的特征 ......

Rethinking and Improving Relative Position Encoding for Vision Transformer: ViT中的位置编码

Rethinking and Improving Relative Position Encoding for Vision Transformer * Authors: [[Kan Wu]], [[Houwen Peng]], [[Minghao Chen]], [[Jianlong Fu]], ......

Conv2Former: A Simple Transformer-Style ConvNet for Visual Recognition:使用大核卷积调制来简化注意力

Conv2Former: A Simple Transformer-Style ConvNet for Visual Recognition * Authors: [[Qibin Hou]], [[Cheng-Ze Lu]], [[Ming-Ming Cheng]], [[Jiashi Feng]] ......

MetaFormer Is Actually What You Need for Vision:通用的ViT架构才是关键

MetaFormer Is Actually What You Need for Vision * Authors: [[Weihao Yu]], [[Mi Luo]], [[Pan Zhou]], [[Chenyang Si]], [[Yichen Zhou]], [[Xinchao Wang]] ......
MetaFormer 架构 Actually 关键 Vision

Open-World Object Manipulation using Pre-trained Vision-Language Models

概述 提出MOO: Manipulation of Open-World Objects 用预训练的VLM在图像中标记instruction的object的坐标,传入policy进行控制,可以zero-shot泛化到novel object,还支持手指、点击输入指令。 问题 机器人泛化到训练中没有见 ......

Swin Transformer: Hierarchical Vision Transformer using Shifted Windows详解

初读印象 comment:: (Swin-transformer)代码:https://github. com/microsoft/Swin-Transformer 动机 将在nlp上主流的Transformer转换到cv上。存在以下困难: nlp中单词标记是一个基本单元,但是视觉元素在尺度上有很大 ......

Segmentation Transformer: Object-Contextual Representations for Semantic Segmentation;OCRNet

Segmentation Transformer: Object-Contextual Representations for Semantic Segmentation * Authors: [[Yuhui Yuan]], [[Xiaokang Chen]], [[Xilin Chen]], [[ ......

从滑动窗口到YOLO、Transformer:目标检测的技术革新

本文全面回顾了目标检测技术的演进历程,从早期的滑动窗口和特征提取方法到深度学习的兴起,再到YOLO系列和Transformer的创新应用。通过对各阶段技术的深入分析,展现了计算机视觉领域的发展趋势和未来潜力。 关注TechLead,分享AI全维度知识。作者拥有10+年互联网服务架构、AI产品研发经验 ......
Transformer 目标 技术 YOLO

Instruction-Following Agents with Multimodal Transformer

概述 提出了InstructRL,包含一个multimodal transformer用来将视觉obs和语言的instruction进行编码,以及一个transformer-based policy,可以基于编码的表示来输出actions。 前者在1M的image-text对和NL的text上进行训 ......

关于UIView transform使用注意点

先上代码 let tView = UIView()override func viewDidLoad() { tView.backgroundColor = .orange view.addSubview(tView)} override func viewWillLayoutSubViews() ......
transform UIView

《MiniGPT-4: Enhancing Vision-language Understanding with Advanced Large Language Models》论文学习

一、ABSTRACT 最新的GPT-4展示了非凡的多模态能力,例如直接从手写文本生成网站和识别图像中的幽默元素。这些特性在以往的视觉-语言模型中很少见。然而,GPT-4背后的技术细节仍然未公开。我们认为,GPT-4增强的多模态生成能力源自于复杂的大型语言模型(LLM)的使用。 为了检验这一现象,我们 ......

将Transformer用于扩散模型,AI 生成视频达到照片级真实感

前言 在视频生成场景中,用 Transformer 做扩散模型的去噪骨干已经被李飞飞等研究者证明行得通。这可算得上是 Transformer 在视频生成领域取得的一项重大成功。 本文转载自机器之心 仅用于学术分享,若侵权请联系删除 欢迎关注公众号CV技术指南,专注于计算机视觉的技术总结、最新技术跟踪 ......
真实感 Transformer 模型 照片 视频

纯卷积BEV模型的巅峰战力 | BEVENet不用Transformer一样成就ADAS的量产未来(转)

近年来,在自动驾驶领域,鸟瞰视角(BEV)空间中的3D目标检测作为一种普遍的方法逐渐脱颖而出。尽管与视角视图方法相比,BEV方法在精度和速度估计方面得到了改进,但将BEV技术部署到实际自动驾驶车辆中仍然具有挑战性。这主要归因于它们依赖于基于视觉 Transformer (ViT)的架构,这使得相对于 ......
卷积 巅峰 Transformer 模型 成就

【论文阅读笔记】【多模态-Vision-Language Pretraining】 BLIP: Bootstrapping Language-Image Pre-training for Unified Vision-Language Understanding and Generation

BLIP ICML 2022 (Spotlight) 读论文思考的问题 论文试图解决什么问题?写作背景是什么? 问题: 在视觉-语言预训练(VLP)中,如何更加高效地利用充斥着噪声的海量图文对数据,提升预训练效果? 如何设计模型,使得预训练后的模型在理解(understanding-based)任务 ......

【学习笔记】transformer 简札

高铁心血来潮逼着自己把这个模型的结构看了一遍,不写下来会忘掉的 Encoder 输入是词向量。 word vector -> [(multihead) self-attention -> forward ]×n-> layer normalization self attention 就是 qkv矩 ......
transformer 笔记

Swin Transformer 马尔奖论文(ICCV 2021最佳论文)

目录 简介 作者之一的微软亚研院的首席研究员胡瀚老师在bibili讲过该论文 swin transformer比ViT做的更好的原因之一就是它将图片的一些特性嵌入到了网络模型之中,比如说平移不变性和尺寸不变性等,这样使得网络能够在cv领域做的更好。 该文章提出的Swin Transformer可以被 ......
论文 Transformer Swin ICCV 2021

MIT斯坦福Transformer最新研究:过度训练让中度模型「涌现」结构泛化能力

前言 过度训练让中度模型出现了结构泛化能力。 本文转载自新智元 仅用于学术分享,若侵权请联系删除 欢迎关注公众号CV技术指南,专注于计算机视觉的技术总结、最新技术跟踪、经典论文解读、CV招聘信息。 CV各大方向专栏与各个部署框架最全教程整理 【CV技术指南】CV全栈指导班、基础入门班、论文指导班 全 ......
Transformer 模型 能力 结构 MIT
共510篇  :2/17页 首页上一页2下一页尾页