pytorch-vanilla transformer pytorch vanilla

PyTorch 神经网络基础

模型构造 在代码里 任何一个层或者神经网络都应该是Module的子类 通过继承nn.Module 可以更灵活的去自定义我们的操作 参数管理 自定义层 带参数的层需要给出输入的维度和输出的维度 读写文件 ......
网络基础 神经 PyTorch 基础 网络

Visual Transformer 与归纳偏置

开端 ViT(Visual Transformer)是 2020 年 Google 团队提出的将 Transformer 应用在图像分类的模型,但是当训练数据集不够大的时候,ViT 的表现通常比同等大小的 ResNets 要差一些。 为什么呢?寻找答案的过程中,发现了 归纳偏置 这个概念。 在阅读 ......
Transformer Visual

PyTorch 系列

PyTorch【】-模型保存、加载、加载内置模型 PyTorch 模型所有属性 及 应用 PyTorch 形变操作汇总(包括形状、维度、合并拆分等) PyTorch-优化器optim与学习率 PyTorch-池化 PyTorch【】-tensoboard 详解 PyTorch-function 之 ......
PyTorch

transformers 系列

Attention 注意力机制【1】-入门篇 注意力机制【2】- CV中的注意力机制 注意力机制【3】-Self Attention 注意力机制【4】-多头注意力机制 注意力机制【5】Scaled Dot-Product Attention 和 mask attention 注意力机制【6】-tra ......
transformers

Pandas - apply、agg、transform 函数

apply:行或列的操作。 agg:聚合,可以传递字典,对多个列使用不同的函数。最终结果可能会合并,与原 DataFrame 列长度不保持一致。 transform:转换,也可以对多个列使用不同的函数。但是最终结果与原 DataFrame 列长度保持一致,不会聚合。 ......
函数 transform Pandas apply agg

pytorch转onnx中关于卷积核的问题

pytorch导出onnx过程中报如下错误: RuntimeError: Unsupported: ONNX export of convolution for kernel of unknown shape. 我报错的部分代码如下: def forward(self, input): n, c, ......
卷积 pytorch 问题 onnx

Swin Transformer

Swin Transformer 目录Swin Transformer简介VIT的缺陷核心创新总体结构和运作网络细节Patch partitionLinear EmbeddingPatch MergingSwin Block模块W-MSASW-MSAAttention Mask计算成本分析主要优势S ......
Transformer Swin

VIT Vision Transformer

VIT Vision Transformer 目录VIT Vision TransformerViT模型结构图像划分PatchLinear Projection of Flatted PatchesPatch+Position Embedding分类向量和位置向量EncoderMLP Head(全连 ......
Transformer Vision VIT

DETR基于Transformer目标检测

DETR基于Transformer目标检测 目录DETR基于Transformer目标检测DETR网络结构和NLP Transformer对比Object QueryFFN为什么DETR不需要NMS优缺点参考资料 DETR首次将Transformer应用到了目标检测任务中。图像会先经过一个传统的CN ......
Transformer 目标 DETR

快速使用 Pytorch 的混合精度进行训练

使用混合精度的代码示例 以非常基础的训练代码片段为例: for epoch in range(epochs): model.train() for i, (images, labels) in enumerate(loader_train): images = images.to(device) l ......
精度 Pytorch

【Transformer 基础系列】手推显存占用

https://zhuanlan.zhihu.com/p/648924115 本文试图以最清晰的方式手动推导 Transformers 每一步的参数量到显存、计算量问题。理解底层,才能更好的做训练和优化。可能是目前最全的大模型显存优化方案分析。 本文内容包括(1)模型训练和推理过程中的显存占用(2) ......
显存 Transformer 基础

Unity3D 通过transform实现人物移动还是velocity详解

Unity3D是一款非常流行的游戏引擎,它提供了多种方式来实现游戏中的人物移动。其中,最常用的两种方法是通过transform组件和通过velocity属性来实现。 对啦!这里有个游戏开发交流小组里面聚集了一帮热爱学习游戏的零基础小白,也有一些正在从事游戏开发的技术大佬,欢迎你来交流学习。 通过tr ......
transform velocity Unity3D 人物 还是

PYTORCH基础(15)torch.nn库五大基本功能:nn.Parameter、nn.Linear、nn.functioinal、nn.Module、nn.Sequentia

第1章 torch.nn简介 1.1 torch.nn相关库的导入 #环境准备 import numpy as np # numpy数组库 import math # 数学运算库 import matplotlib.pyplot as plt # 画图库 import torch # torch基础 ......
nn functioinal Parameter Sequentia PYTORCH

kettle从入门到精通 第二十六课 再谈 kettle Transformation executor

1、前面文章有学习过Transformation executor ,但后来测试kettle性能的时候遇到了很大的问题,此步骤的处理性能太慢,导致内存溢出等问题。所以再次一起学习下此步骤的用法。 2、 如下图中rds-sametable-同步逻辑处理使用的是Transformation execut ......
kettle Transformation executor

基于pytorch写一个三层神经网络,训练数据并导出模型

import torch import torch.nn as nn import torch.optim as optim # 定义三层神经网络 class ThreeLayerNN(nn.Module): def __init__(self, input_size, hidden_size1, ......
神经网络 模型 神经 pytorch 数据

CF contest 1909 Pinely Round 3 (Div. 1 + Div. 2) 题解(Vanilla的掉分赛)

[Pinely Round 3 (Div. 1 + Div. 2) - Codeforces](https://codeforces.com/contest/1909) $$ \color{purple}\large\textbf{世界上只有一种真正的英雄主义,} $$ $$ \color{red}... ......
题解 Div contest Vanilla Pinely

transformer 预测 ENSO

第一篇《A self-attention–based neural network for threedimensional multivariate modeling and its skillful ENSO predictions 》 发表在Sci Adv. 张荣华 起名3D-Geoforme ......
transformer ENSO

Pytorch模型结构修改

1. Var方差在pytorch中的差别: tlist = input.tolist() print(input) print(np.mean(tlist), np.var(tlist)) print(torch.mean(input), torch.var(input)) 可以看到numpy与to ......
模型 Pytorch 结构

可视化学习:CSS transform与仿射变换

在几年前,我就在一些博客中看到关于CSS中transform的分析,讲到它与线性代数中矩阵的关系,但当时由于使用transform比较少,再加上我毕竟是个数学学渣,对数学有点畏难心理,就有点看不下去,所以只是随便扫了两眼,就没有再继续了解了。现在在学习可视化,又遇到了这个点,又说到这是可视化的基础知... ......
仿射 transform CSS

pytorch——基于循环神经网络的情感分类

任务目标 基于给定数据集,进行数据预处理,搭建以LSTM为基本单元的模型,以Adam优化器对模型进行训练,使用训练后的模型进行预测并计算预测分类的准确率。 数据集信息 IMDB数据集是一个对电影评论标注为正向评论与负向评论的数据集,共有25000条文本数据作为训练集,25000条文本数据作为测试集。 ......
神经网络 神经 pytorch 情感 网络

从分布式计算的角度看pytorch和TensorFlow哪个更优?

背景: pytorch框架是一个从学术圈出来的框架,因此pytorch并不原生支持分布式计算,而且在大模型火爆的今年以外好像在深度学习领域使用分布式计算的场景确实不多,所以pytorch并不原生支持分布式计算的事情好像也并无大碍,而且pytorch可以通过安装第三方库的方式实现同步形式的分布式计算。 ......
分布式 TensorFlow 角度 pytorch

transformer总体架构

transformer总体架构 目录transformer总体架构循环神经网络总体架构EncoderDecoder输入输出层模型输入位置编码模型输出自注意力机制关于QKV的理解Q, K, V 及注意力计算多头注意力机制多头注意力机制作用Feed Forward 层参考资料 论文地址:Attentio ......
transformer 架构 总体

transformer补充细节

transformer补充细节 目录transformer补充细节注意力机制细节为什么对点积注意力进行缩放多头带来的好处数据流训练时数据流推理时数据流解码器中注意力的不同带掩码的注意力机制位置编码整型数值标记[0,1]范围标记位置二进制标记周期函数标识用sin和cos交替来表示位置训练测试细节参考资 ......
transformer 细节

【Pytorch基础实战】第二节,卷积神经网络

项目地址 https://gitee.com/wxzcch/pytorchbase/tree/master/leason_2 源码 import torch from torch import nn, optim from torch.autograd import Variable from to ......
卷积 神经网络 实战 神经 Pytorch

Sw-YoloX An anchor-free detector based transformer for sea surface object detection

Sw-YoloX An anchor-free detector based transformer for sea surface object detection 基于Transformer用于海上目标检测的无锚检测器:Sw-YoloX 1)由于不同海洋状态下的活体和漂浮物体数据稀缺且昂贵,我们 ......

Vision Transformer with Super Token Sampling

Vision Transformer with Super Token Sampling * Authors: [[Huaibo Huang]], [[Xiaoqiang Zhou]], [[Jie Cao]], [[Ran He]], [[Tieniu Tan]] Local library 初读 ......
Transformer Sampling Vision Super Token

Bottleneck Transformers for Visual Recognition

Bottleneck Transformers for Visual Recognition * Authors: [[Aravind Srinivas]], [[Tsung-Yi Lin]], [[Niki Parmar]], [[Jonathon Shlens]], [[Pieter Abbee ......

SeaFormer: Squeeze-enhanced Axial Transformer for Mobile Semantic Segmentation

SeaFormer: Squeeze-enhanced Axial Transformer for Mobile Semantic Segmentation * Authors: [[Qiang Wan]], [[Zilong Huang]], [[Jiachen Lu]], [[Gang Yu]] ......

UNetFormer: A UNet-like transformer for efficient semantic segmentation of remote sensing urban scene imagery

UNetFormer: A UNet-like transformer for efficient semantic segmentation of remote sensing urban scene imagery * Authors: [[Libo Wang]], [[Rui Li]], [[ ......

SegViT: Semantic Segmentation with Plain Vision Transformers

SegViT: Semantic Segmentation with Plain Vision Transformers * Authors: [[Bowen Zhang]], [[Zhi Tian]], [[Quan Tang]], [[Xiangxiang Chu]], [[Xiaolin We ......
共940篇  :2/32页 首页上一页2下一页尾页