深度pytorch 5.1
动手深度学习pytorch 5-7章
深度学习计算 1. 块提供的基本功能: 1. 输入数据作为前向传播函数的参数 2. 通过前向传播函数生成输出 3. 计算其输出关于输入的梯度 4.存储和访问前向传播计算所需的参数 5. 根据需要初始化模型参数 2. Sequential 类 1. 将块逐个追加到列表中的函数 2. 前向传播函数,用于 ......
深度学习样本绘制注意事项
在绘制深度学习样本的时候,部分初学者总是用绘制监督分类样本的方法绘制深度学习样本,在图像上随意绘制样本,这种绘制样本的方法不适用于深度学习样本绘制。 如下为错误的示例: 深度学习样本绘制应遵循“全、多、精”三个原则: 样本子区域选取,应该全面覆盖多种地物类型。 绘制样本尽可能地多,推荐绘制子区域内8 ......
sass样式穿透,深度作用选择器, 父选择器
scss .el-input-number { ::v-deep #inputNumber { text-align: left; } } css .el-input-number >>> #inputNumber { text-align: left; } & a { font-weight: b ......
3_transforms (pytorch tutorial)
Transforms Data does not always come in its final processed form that is required for training machine learning algorithms. We use transforms to perfo ......
pytorch在有限的资源下部署大语言模型(以ChatGLM-6B为例)
pytorch在有限的资源下部署大语言模型(以ChatGLM-6B为例) Part1知识准备 在PyTorch中加载预训练的模型时,通常的工作流程是这样的: my_model = ModelClass(...)state_dict =torch.load(checkpoint_file) 用简单的话 ......
基于深度强化学习(DQN)的迷宫寻路算法
QLearning方法有着明显的局限性,当状态和动作空间是离散的且维数不高时可使用Q-Table存储每个状态动作的Q值,而当状态和动作时高维连续时,该方法便不太适用。可以将Q-Table的更新问题变成一个函数拟合问题,通过更新参数θ使得Q函数逼近最优Q值。DL是解决参数学习的有效方法,可以通过引进D ......
【pytorch】土堆pytorch教程学习(二)加载数据
Pytorch加载数据初认识 pytorch 中加载数据主要涉及两个类:Dataset 和 Dataloader。 Dataset 提供一种方式去获取数据及其label Dataloader 为网络提供不同的数据形式 Dataset Dataset 实现的功能: 获取每个数据及其label 获取数据 ......
【pytorch】土堆pytorch教程学习(一)环境配置及安装
管理虚拟环境 不同的项目需要不同的环境,Anaconda集成的conda包可以创建不同的环境并进行隔离。 打开 Anaconda Promp,创建环境,其中 pytorch 为创建的环境名: conda create -n 虚拟环境名 python=版本 启动环境 conda activate 虚拟 ......
深度学习基础入门篇[七]:常用归一化算法、层次归一化算法、归一化和标准化区别于联系、应用案例场景分析。
深度学习基础入门篇[七]:常用归一化算法、层次归一化算法、归一化和标准化区别于联系、应用案例场景分析。 ......
深度学习--可视化、过拟合
深度学习--可视化、过拟合 cmd运行命令:python -e visdom.server 用法: from visdom import Visdom viz = Visdom() viz.line([0.],[0.],win='train_loss',opts=dict(title='train ......
深度学习入门系列之doc
这周老师让把深度学习的名词过一遍,小玛同学准备在过一遍Deep Learning名词的同时把基本的模型也过一遍。 感谢杰哥发我深度学习入门系列能让我有机会快速入门。 下面就来doc一些学到的东西 感知器(线性单元)有个问题就是当面对的数据集不是线性可分的时候,“感知器规则”可能无法收敛,这意味着我们 ......
深度学习--全连接层、高阶应用、GPU加速
深度学习--全连接层、高阶应用、GPU加速 MSE均方差 Cross Entropy Loss:交叉熵损失 Entropy 熵: 1948年,香农将统计物理中熵的概念,引申到信道通信的过程中,从而开创了信息论这门学科,把信息中排除了冗余后的平均信息量称为“信息熵”。香农定义的“熵”又被称为香农熵或信 ......
深度神经网如何通过从数据中学习特征来帮助避免人工提取特征
深度神经网络(dnn)通过从数据中直接学习特征,无需人为干预或专业知识,可以帮助避免需要手动提取特征的繁琐过程。 深度神经网络由许多层组成,每个层都包含许多神经元。这些神经元组合成了一系列权重和偏差来映射输入特征到输出目标。通过反向传播算法,模型可以更新权重和偏差以优化其预测效果。 在训练dnn时, ......
5.深度学习计算
除了庞大的数据集和强大的硬件, 优秀的软件工具在深度学习的快速发展中发挥了不可或缺的作用。 从2007年发布的开创性的Theano库开始, 灵活的开源工具使研究人员能够快速开发模型原型, 避免了我们使用标准组件时的重复工作, 同时仍然保持了我们进行底层修改的能力。 随着时间的推移,深度学习库已经演变... ......
如何配置一个用于深度学习的 GPU 服务器 [Ubuntu 18.04 LTS 为例]
一、硬件配置 CPU of Intel i9-9980XE (18-core 36-thread, @3.0-4.4 GHz), RAM of 128 GB (DDR4), GPU of NVIDIA RTX 2080 Ti*4 (11 GB GDDR6*4), and M.2 NVMe SSD o ......
跟姥爷深度学习4 从数学计算看神经网络
一、前言 我们前面简单的做了一个气温预测,经过反复调试,效果还不错。实际上在这个方向上我们还可以更进一步优化,但因为我们是学习嘛,主要还是看广度而不是深度。考虑到后面要开始学习卷积网络,我们必须把更基础的内容搞明白才行,比如神经网络到底是如何工作的,如果不搞明白后面卷积就只能说用法而不明白原因了。所 ......
递推与递归和DFS深度优先搜索
递推与递归和DFS深度优先搜索 跳台阶 递归实现指数级枚举 递归实现排列型枚举 递归实现组合型枚举 P1036 选数 习题课 递推/ 递归 / DFS P2089 烤鸡 指数 P1088 火星人 全排列 P1149 火柴棒等式 指数 + 预处理 P2036 PERKET 指数 P1135 奇怪的电梯 ......
wsl2+docker跑深度学习
wsl(ubuntu20.04)+docker安装paddle 1.中文显示设置 安装语言包 sudo apt install language-pack-zh-hans 设置locale sudo vi /etc/locale.gen 找到 zh_CN.UTF-8 UTF-8 并取消注释,然后保存 ......
深度学习--统计与数据映射
深度学习--统计与数据映射 范数 import torch #范数norm 第一范数:绝对值求和 第二范数:平方和后求根号 norm使用要求是浮点数 a=torch.full([8],1.) #tensor([1., 1., 1., 1., 1., 1., 1., 1.]) b=a.view(2,4 ......
【深度思考】聊聊CGLIB动态代理原理
1. 简介 CGLIB的全称是:Code Generation Library。 CGLIB是一个强大的、高性能、高质量的代码生成类库,它可以在运行期扩展Java类与实现Java接口, 底层使用的是字节码处理框架ASM。 Github地址:https://github.com/cglib/cglib ......
深度学习基础入门篇[六(1)]:模型调优:注意力机制[多头注意力、自注意力],正则化【L1、L2,Dropout,Drop Connect】等
深度学习基础入门篇[六(1)]:模型调优:注意力机制[多头注意力、自注意力],正则化【L1、L2,Dropout,Drop Connect】等 ......
pytorch_ssd 代码注释
box_utils.py # -*- coding: utf-8 -*- import torch def point_form(boxes): """ Convert prior_boxes to (xmin, ymin, xmax, ymax) representation for compar ......
mac安装并配置nexus3.5.1版本
一、安装nexus 前置条件 :已经安装了JDK 1:下载nexus(http://www.sonatype.com/download-oss-sonatype) 最新版本(我的是3.5.1). 2:解压下载文件,我的放在了/Users/xxx/myApp下 3:配置环境变量: 打开/etc目录,在 ......
深度学习--数学运算符
深度学习--数学运算符 基础运算符 加减乘除 import torch a=torch.randint(1,10,[2,2]) b=torch.randint(1,10,[2,2]) print(a) #tensor([[9, 7],[5, 8]]) print(b) #tensor([[2, 4] ......
N1、Pytorch文本分类入门
一、背景介绍¶ 本节是一个使用PyTorch实现的简单文本分类实战案例。在这个例子中,我们将使用AG News数据集进行文本分类。 AG News(AG's News Topic Classification Dataset)是一个广泛用于文本分类任务的数据集,尤其是在新闻领域。该数据集是由AG's ......
深度学习--PyTorch维度变换、自动拓展、合并与分割
深度学习--PyTorch维度变换、自动拓展、合并与分割 一、维度变换 1.1 view/reshape 变换 这两个方法用法相同,就是变换变量的shape,变换前后的数据量相等。 a=torch.rand(4,1,28,28) a.view(4,28*28) #tensor([[0.9787, ......
pytorch学习笔记(二)
pytorch的基本数据结构是张量Tensor。张量即多维数组。Pytorch的张量和numpy中的array很类似。 本节我们主要介绍张量的数据类型、张量的维度、张量的尺寸、张量和numpy数组等基本概念。 张量的数据类型和numpy.array基本一一对应,但是不支持str类型。 一般神经网络建 ......
用一阶矩初步控制随机二叉树的深度
回顾 Catalan 数 $$ C = z(1 + C)^2, $$ 根据 Lagrange 反演, 我们有 $$ z^n^k = \frac{k}{n}[t^{n-1}] (1+t)^{2n+k-1} = \frac{k}{n} \binom{2n+k-1}{n+k}. $$ 考虑计数随机二叉树有 ......