cvpr-transformer transformer tracking 2021

VIT Vision Transformer

VIT Vision Transformer 目录VIT Vision TransformerViT模型结构图像划分PatchLinear Projection of Flatted PatchesPatch+Position Embedding分类向量和位置向量EncoderMLP Head(全连 ......
Transformer Vision VIT

DETR基于Transformer目标检测

DETR基于Transformer目标检测 目录DETR基于Transformer目标检测DETR网络结构和NLP Transformer对比Object QueryFFN为什么DETR不需要NMS优缺点参考资料 DETR首次将Transformer应用到了目标检测任务中。图像会先经过一个传统的CN ......
Transformer 目标 DETR

ICPC2021Kunming G Glass Bead Game 题解

Question ICPC2021Kunming G Glass Bead Game 有 \(n\) 个玻璃珠, \(B_1,B_2,\cdots, B_n\) 每一步你可以选择一个 \(B_i\) 移道第一个位置上,花费的代价为操作前 \(B_i\) 前面的玻璃珠的个数。已知每一步选择玻璃珠 \( ......
题解 Kunming Glass ICPC 2021

ICPC2021Kunming G Find the Maximum 题解

Question Find the Maximum 给出一个树,每个点有一个权值 \(b_n\),求一条树上路径 \(V\),要求 \(\frac{\sum_{u\in V (-x^2+b_u x)}}{|V|}\) 最大,其中 \(x\) 是自己选择的一个树 Solution 先转化一下 \(\f ......
题解 Kunming Maximum ICPC 2021

2021 - 951 数据结构

题目 一、单项选择题 1. 算法的时间复杂度与( )有关。 A. 问题规模 B. 计算机硬件的运行速度 C 源程序的长度 D. 编译后执行程序的质量 2.向一个有n个元素的顺序表中插入一个新元素并保持原来顺序不变,则平均要移动( )个元素。 A. n B. n/2 C. 2n D. n² 3.设指针 ......
数据结构 结构 数据 2021 951

2021 - 952 计算机网络

题目 一、填空题 1.计算机网络协议的三个要素分别是 、语义和 。 2.信号减损的三种类型包括: 、 失真 和 。 3.无线局域网 MAC 层的接入控制机制分为 和 ,后者采用的接入算法是 。 4. 若数据链路层采用选择重传 ARQ 的滑动窗口方法,发送帧的序列号用 8bit表示,发送窗口的最大值为 ......
计算机网络 2021 952

【Transformer 基础系列】手推显存占用

https://zhuanlan.zhihu.com/p/648924115 本文试图以最清晰的方式手动推导 Transformers 每一步的参数量到显存、计算量问题。理解底层,才能更好的做训练和优化。可能是目前最全的大模型显存优化方案分析。 本文内容包括(1)模型训练和推理过程中的显存占用(2) ......
显存 Transformer 基础

android-studio-2021.1.1.11-windows 版本遇到的各种大坑

1、使用2023.12月的最新版本会无法选择java语言开发,所以必须选择较老的版本,比如我选择的android-studio bumb blebee 2021.1.1.11这个版本就可以选择java语言。 2、不光需要设置代码自动补全提示,更重要的是最新的SDK ,android api 34有b ......
大坑 android-studio android windows 版本

Unity3D 通过transform实现人物移动还是velocity详解

Unity3D是一款非常流行的游戏引擎,它提供了多种方式来实现游戏中的人物移动。其中,最常用的两种方法是通过transform组件和通过velocity属性来实现。 对啦!这里有个游戏开发交流小组里面聚集了一帮热爱学习游戏的零基础小白,也有一些正在从事游戏开发的技术大佬,欢迎你来交流学习。 通过tr ......
transform velocity Unity3D 人物 还是

EC Final 2021

1. EC Final 2021 趣事:vp 开始后发现其实我之前在 2022.1 帮验过 《EC Final Easy Version》 好像做了 ABE,但都忘了,当时 20min 过的 B,现在好像看错题还罚时了三次。 https://qoj.ac/results/QOJ104 https:/ ......
Final 2021 EC

2021英语(二)真题之小作文

2021英语(二)真题之小作文要求 Directions:Suppose you are organizing an online meeting. Write an email to Jake, an international student, to 1) invite him to parti ......
真题 作文 2021

kettle从入门到精通 第二十六课 再谈 kettle Transformation executor

1、前面文章有学习过Transformation executor ,但后来测试kettle性能的时候遇到了很大的问题,此步骤的处理性能太慢,导致内存溢出等问题。所以再次一起学习下此步骤的用法。 2、 如下图中rds-sametable-同步逻辑处理使用的是Transformation execut ......
kettle Transformation executor

sol. [省选联考 2021 A/B 卷] 滚榜

[省选联考 2021 A/B 卷] 滚榜 算法标签:状压 DP,差分,费用提前计算。 题目描述 给定 \(n\) 个非负整数 \(a_1, a_2, \dots, a_n\),定义 \(d_i\) 表示以 \(a_i\) 为第一关键字降序排序,以 \(i\) 为第二关键字升序排序后的下标。现有 \( ......
2021 sol

transformer 预测 ENSO

第一篇《A self-attention–based neural network for threedimensional multivariate modeling and its skillful ENSO predictions 》 发表在Sci Adv. 张荣华 起名3D-Geoforme ......
transformer ENSO

[PA2021] Wystawa

[PA2021] Wystawa 牛逼啊喔趣。 题意 给定长度为 \(n\) 的序列 \(a, b\)。 你需要构造一个序列 \(c\),构造方法为: 选择 \(k\) 个 \(i\),令 \(c_i \leftarrow a_i\)。 对于其他 \(i\),令 \(c_i \leftarrow b ......
Wystawa 2021 PA

NOIP2021 sol

20231201-20231221 NOIP2021 sol A. [NOIP2021] 报数 [NOIP2021] 报数 设 \(p(x)\) 表示 \(x\) 的十进制表示中是否含有数字 \(7\),若含有则 \(p(x) = 1\),否则 \(p(x) = 0\)。则一个正整数 \(x\) 不 ......
NOIP 2021 sol

Nacos未授权 CVE-2021-29441

Nacos未授权 CVE-2021-29441 环境搭建 环境dockerfile在文末 环境启动 docker-compose up -d 查看下当前的容器 docker ps 漏洞复现 访问Web页面 127.0.0.1:8848 抓包,访问http://127.0.0.1:8848/nacos ......
Nacos 29441 2021 CVE

可视化学习:CSS transform与仿射变换

在几年前,我就在一些博客中看到关于CSS中transform的分析,讲到它与线性代数中矩阵的关系,但当时由于使用transform比较少,再加上我毕竟是个数学学渣,对数学有点畏难心理,就有点看不下去,所以只是随便扫了两眼,就没有再继续了解了。现在在学习可视化,又遇到了这个点,又说到这是可视化的基础知... ......
仿射 transform CSS

transformer总体架构

transformer总体架构 目录transformer总体架构循环神经网络总体架构EncoderDecoder输入输出层模型输入位置编码模型输出自注意力机制关于QKV的理解Q, K, V 及注意力计算多头注意力机制多头注意力机制作用Feed Forward 层参考资料 论文地址:Attentio ......
transformer 架构 总体

transformer补充细节

transformer补充细节 目录transformer补充细节注意力机制细节为什么对点积注意力进行缩放多头带来的好处数据流训练时数据流推理时数据流解码器中注意力的不同带掩码的注意力机制位置编码整型数值标记[0,1]范围标记位置二进制标记周期函数标识用sin和cos交替来表示位置训练测试细节参考资 ......
transformer 细节

P8743 [蓝桥杯 2021 省 A] 异或数列 题解

题意补充:初始 \(a,b\) 均为 \(0\)。 位越高对 \(a,b\) 的贡献越大,所以从高位往低位考虑。给几组样例以便分析: 1 0 0 0 0 1 1 0 0 0 1 1 1 0 0 1 1 1 0 答案分别是 \(1,0,-1,1\)。 设当前位有 \(x\) 个 \(1\),有 \(y ......
蓝桥 数列 题解 P8743 8743

NOI 大纲:2021 vs. 2023

整体 正文采用文本格式,而不是原来模糊的图片,字号更大,空格更多。 J 组 明确了需要会使用 min,max,swap。 加入了联合体。(毒瘤,至今我还没用过) “二叉树的孩子表示法”改为“二叉树的表示与存储”。 加入计数排序。(是的这事情我吐槽了多次) 加入了深搜广搜(第一次修订没想到你敢信?) ......
大纲 2021 2023 NOI vs

[USACO2021JAN] Minimum Cost Paths P

[USACO21JAN] Minimum Cost Paths P 题目描述 Farmer John 的牧草地可以看作是一个\(N×M\)(\(2≤N≤10^9, 2≤M≤2⋅10^5\))的正方形方格组成的二维方阵(想象一个巨大的棋盘)。对于 \(x∈[1,N],y∈[1,M]\),从上往下第 \ ......
Minimum USACO Paths 2021 Cost

P7831 [CCO2021] Travelling Merchant

题意不多赘述。 注:全文所用的“点 \(u\) 的出度”均指的是点 \(u\) 在原图上的出度。 首先我们考虑 \(r_{i} = 0\) 的情况怎么写,这时我们会发现要么答案是 \(0\) 要么无解。当当前点 \(u\) 无论怎么走都走不到一个环上,即无论怎么走最终都会走到一个出度为 \(0\) ......
Travelling Merchant P7831 7831 2021

P8386 [PA2021] Od deski do deski 题解

显然是一道计数 dp。 dp 状态应该是最难的一部分了,个人认为这种状态设计得比较巧妙。如果像我刚开始一样设 \(dp_{i,j}\) 表示序列中一共有 \(i\) 个数,序列最后一个数为 \(j\) 的合法方案数的话,那么方程就会变得很不好转移,因为我们不知道当前的 \(j\) 和之前的某些数能不 ......
题解 deski P8386 8386 2021

Sw-YoloX An anchor-free detector based transformer for sea surface object detection

Sw-YoloX An anchor-free detector based transformer for sea surface object detection 基于Transformer用于海上目标检测的无锚检测器:Sw-YoloX 1)由于不同海洋状态下的活体和漂浮物体数据稀缺且昂贵,我们 ......

Laravel——CVE-2021-3129

Laravel——laravel 远程代码执行 (CVE-2021-3129) 启动环境 Laravel <= 8.4.2 https://github.com/zhzyker/CVE-2021-3129 需要使用linux运行,运行exp,需要调用phpggc python3 exp.py htt ......
Laravel 2021 3129 CVE

Vision Transformer with Super Token Sampling

Vision Transformer with Super Token Sampling * Authors: [[Huaibo Huang]], [[Xiaoqiang Zhou]], [[Jie Cao]], [[Ran He]], [[Tieniu Tan]] Local library 初读 ......
Transformer Sampling Vision Super Token

Bottleneck Transformers for Visual Recognition

Bottleneck Transformers for Visual Recognition * Authors: [[Aravind Srinivas]], [[Tsung-Yi Lin]], [[Niki Parmar]], [[Jonathon Shlens]], [[Pieter Abbee ......

SeaFormer: Squeeze-enhanced Axial Transformer for Mobile Semantic Segmentation

SeaFormer: Squeeze-enhanced Axial Transformer for Mobile Semantic Segmentation * Authors: [[Qiang Wan]], [[Zilong Huang]], [[Jiachen Lu]], [[Gang Yu]] ......
共926篇  :2/31页 首页上一页2下一页尾页