深度pytorch 4.6

利用pytorch自定义CNN网络(三):构建CNN模型

本文是利用pytorch自定义CNN网络系列的第三篇,主要介绍如何构建一个CNN网络,关于本系列的全文见[这里](https://www.cnblogs.com/wpx123/p/17613613.html "这里")。 笔者的运行设备与软件:CPU (AMD Ryzen™ 5 4600U) + p ......
CNN 模型 pytorch 网络

pytorch的简单线性回归

2023-08-09 本节课视频:https://www.bilibili.com/video/BV1PX4y1g7KC?p=4&spm_id_from=pageDriver&vd_source=bd35cfd68e5bfc28dcf5a57f74e25ae3 首先是创建数据迭代器 def load ......
线性 pytorch

大连人工智能计算平台——华为昇腾AI平台——高性能计算HPC的pytorch源码编译报错——USE_CUDA=OFF——编译好的pytorch不支持CUDA的问题解决

如题: pytorch源码编译报错——USE_CUDA=OFF 在编译pytorch源码的时候发现错误,虽然编译环境中已经安装好CUDA和cudnn,环境变量也都设置好,但是编译好的pytorch包wheel总是在运行torch.cuda.is_available() 显示false,于是从编译源码 ......
pytorch 平台 人工智能 CUDA 高性能

利用pytorch自定义CNN网络(二):数据集的准备

本文是利用pytorch自定义CNN网络系列的第二篇,主要介绍构建网络前数据集的准备,关于本系列的全文见[这里](https://www.cnblogs.com/wpx123/p/17613613.html "这里")。 笔者的运行设备与软件:CPU (AMD Ryzen™ 5 4600U) + p ......
pytorch 数据 网络 CNN

CUDA11.3编译pytorch2.0.1报错:error: ‘nvmlProcessInfo_v1_t’ was not declared in this scope

问题如题: CUDA11.3编译pytorch2.0.1报错:error: ‘nvmlProcessInfo_v1_t’ was not declared in this scope 解决方法参考: https://github.com/pytorch/pytorch/issues/100618 简 ......

Bert Pytorch 源码分析:五、模型架构简图 REV1

## 注意力 ![在这里插入图片描述](https://img-blog.csdnimg.cn/abe43c5ca40948dfb3c195c4330b7ffa.jpeg#pic_center) ## FFN ![在这里插入图片描述](https://img-blog.csdnimg.cn/9f57 ......
简图 架构 源码 模型 Pytorch

rocky linux:安装pytorch(pytorch 2.0.1 / Python 3.9.16)

一,pytorch官网: https://pytorch.org/ 如图: 根据自己的需求选择版本、平台、语言环境等信息, 然后运行命令 二,运行pip安装命令: [root@img bin]# pip3 install torch torchvision torchaudio --index-ur ......
pytorch Python rocky linux 16

利用pytorch自定义CNN网络(一):torchvision工具箱

本文是利用pytorch自定义CNN网络系列的第一篇,主要介绍 torchvision工具箱及其使用,关于本系列的全文见[这里](https://www.cnblogs.com/wpx123/p/17613613.html "这里")。 笔者的运行设备与软件:CPU (AMD Ryzen™ 5 46 ......
工具箱 torchvision pytorch 工具 网络

大连人工智能计算平台——华为昇腾AI平台——高性能计算HPC的pytorch环境报错——torch.cuda.is_available()显示false——NVIDIA显卡驱动版本过低导致pytorch无法使用cuda

在使用这个HPC平台的时候发现了这么一个问题,那就是编译好的pytorch-cuda和anaconda官方安装的pytorch-cuda均不能调用cuda计算,这个现象十分的诡异,经过长时间的调查发现了问题所在——NVIDIA驱动版本过低。 给出该HPC的显卡驱动版本: ......

深度神经网络

需要解决的问题: 1、掉入局部最优解的陷阱 2、过拟合(陷入对特定模式的数据进行最优化,无法对未知输入进行正确的预测) 3、梯度消失——使用ReLU作为激励函数 4、学习时间过长 一些解决方案: 1、更换最优化算法 2、批次尺寸最优化 3、对超参数的最优化(神经网络层数、神经元个数、学习系数) 4、 ......
神经网络 深度 神经 网络

pytorch-两个PyTorch中的Sequential模型合并成一个

要将两个PyTorch中的Sequential模型合并成一个,你可以使用`nn.Sequential`的`add_module`方法或者直接使用`*`操作符来解包Sequential模型并将它们合并。以下是两种方法的示例: 方法一:使用`add_module`方法 ```python import ......
Sequential 模型 两个 pytorch PyTorch

深度学习

得分函数 W:权重参数,对结果起着决定性的影响因素,权重的大小指的是这个像素的影响程度的大小,权重的正负表示对结果起着促进作用还是抑制作用 b:偏置参数,对结果进行微调操作 W矩阵是优化得来的 损失函数 这个损失函数是大于0的,数值越大表明我们求得的权重矩阵越不好,在计算损失函数之前我们知道我们的输 ......
深度

易基因:m5C RNA甲基转移酶及其在癌症中的潜在作用机制|深度综述

大家好,这里是专注表观组学十余年,领跑多组学科研服务的易基因。 近年来,5-甲基胞嘧啶(m5C)RNA修饰已成为通过编码和非编码RNA调控RNA代谢和功能的关键参与者。越来越多的证据表明,m5C可以调控RNA稳定性、翻译、转录、出核和切割,以及介导细胞增殖、分化、凋亡、应激反应和其他生物学功能。人的 ......
甲基 癌症 基因 潜在 深度

从源码层面深度剖析Spring循环依赖

本文从源码层面介绍了Spring如何创建bean、如何解决循环依赖,同时也介绍了不能解决哪些循环依赖,同时在文章的最后解决循环依赖报错的几个方法 ......
层面 源码 深度 Spring

深度学习的一些基础函数

上半年学习的一些记录 主要参考的书:《写给新手的深度学习:用Python学习神经网络和反向传播》 Numpy: linspace reshape 广播机制(数组在某一轴上扩展,值和原来一样,扩展之后可以和其他维度的数组做基本计算) 切片 transpose 调换轴 其中transpose(1,0)等 ......
函数 深度 基础

检测数组深度,数据深度,几维数组

``` /** * 检测数据的深度 * @param $array 要检测的数组 * @return int 返回深度值 */ function array_depth($array) { $max_depth = 1; foreach ($array as $value) { if (is_arr ......
数组 深度 数据

深度神经网络调优

1.选择合适的模型架构 总结:当开始一个新的工程时,试着复用已经有效果的模型 1)首先,选择一个已经被广泛使用和建立起来的模型架构来先让其正常工作。可以在以后再建立一个定制化的模型。 2)模型架构一般都具有多种超参数,这些超参数决定了模型的尺寸和其他一些细节(如,层数,层 宽,激活函数的类型),因此 ......
神经网络 深度 神经 网络

深度学习框架 —— 分布式训练

现在深度学习的模型结构越来越大,参数动不动都是上亿甚至上千亿,这也对训练模型的资源量有很高的要求,显然单个机器上要训练这么大的网络是不现实的,因此学术界和工业界自然开始研究用分布式训练。也就是将一个机器学习模型任务拆分成多个子任务,并将子任务分发给多个计算节点,解决资源瓶颈。 # 1. 分布式训练概 ......
分布式 框架 深度

pytorch如何保存和加载模型

两种方法:保存和加载参数 和 保存加载整个模型 保存和加载参数 #保存 torch.save(model.state_dict,PATH) #PATH推荐格式为.pt #加载 model=TheModelClass(*args, **kwargs ) model.load_state_dict(to ......
模型 pytorch

深度学习编译器后端和运行时

编译器前端将用户代码解析得到计算图 IR,并且做了一些和计算设备无关的通用优化。编译器后端做的优化就和具体的设备有关了(不同设备有不同的 allocator,不同的编程模型,比如英伟达的 CUDA),后端优化更加贴合硬件,会针对硬件特点为 IR 中的计算节点选择在硬件上的算子,然后为每个算子的输入输 ......
编译器 深度

FCN-全卷积网络-pytorch搭建

代码摘自:https://github.com/sovit-123/Semantic-Segmentation-using-Fully-Convlutional-Networks 预备知识: 下载预训练权重,抽取出网络层实例:运行如下代码,自动下载到 C:\Users\**\.cache\torch ......
卷积 pytorch 网络 FCN

深度 Q 网络(deep Q network,DQN)原理&实现

# 深度 Q 网络(deep Q network,DQN)原理&实现 ## 1 Q-Learning 算法 ### 1.1 算法过程 Q-learning是一种用于解决强化学习问题的无模型算法。强化学习是一种让智能体学习如何在环境中采取行动以最大化某种累积奖励的机器学习方法。 在Q-learning ......
深度 原理 network 网络 deep

NiN网络——pytorch版

import torch from torch import nn from d2l import torch as d2l def nin_block(in_channels,out_channels,kernel_size,strides,padding): return nn.Sequenti ......
pytorch 网络 NiN

GoogLeNet网络——pytorch版

import torch from torch import nn from torch.nn import functional as F from d2l import torch as d2l class Inception(nn.Module): # c1-c4是每条路径的输出通道数 def ......
GoogLeNet pytorch 网络

AlexNet深度卷积神经网络——pytorch版

import torch from torch import nn from d2l import torch as d2l net = nn.Sequential( # (224-11+1+2)/4=54 nn.Conv2d(1,96,kernel_size=11,stride=4,padding ......
卷积 神经网络 深度 神经 AlexNet

VGG使用块的网络——pytorch版

import torch from torch import nn from d2l import torch as d2l def vgg_block(num_convs,in_channels,out_channels): layers = [] for _ in range(num_convs ......
pytorch 网络 VGG

池化层——pytorch版

import torch from torch import nn from d2l import torch as d2l # 实现池化层的正向传播 def pool2d(x,pool_size,mode='max'): # 获取窗口大小 p_h,p_w=pool_size # 获取偏移量 y=t ......
pytorch

LeNet卷积神经网络——pytorch版

import torch from torch import nn from d2l import torch as d2l class Reshape(torch.nn.Module): def forward(self,x): # 批量大小默认,输出通道为1 return x.view(-1,1 ......
卷积 神经网络 神经 pytorch LeNet

步幅与填充——pytorch

import torch from torch import nn def comp_conv2d(conv2d,x): # 在维度前面加上通道数和批量大小数1 x=x.reshape((1,1)+x.shape) # 得到4维 y=conv2d(x) # 把前面两维去掉 return y.resh ......
步幅 pytorch

多输入多输出通道——pytorch版

import torch from d2l import torch as d2l from torch import nn # 多输入通道互相关运算 def corr2d_multi_in(x,k): # zip对每个通道配对,返回一个可迭代对象,其中每个元素是一个(x,k)元组,表示一个输入通道 ......
通道 pytorch