损失torch

cuda\cudnn\torch安装

cuda toolkits 是工具包包含cuda和显卡驱动,需要选择显卡合适的版本,到官网查看 cudnn是加速的 torch是需要支持cuda的版本 cuda安装 1、https://blog.csdn.net/RenZuoym/article/details/132211730 2、下载:cud ......
cudnn torch cuda

【pytorch深度学习报错】AttributeError: module 'torch' has no attribute '_six'

1.AttributeError: module 'torch' has no attribute '_six'报错: 答:指的是安装的pytorch版本里面没有_six.py文件,因为在pytorch2.0版本以后不在具有此文件。 2.两个解决方法 答:①将2.0版本以前的_six.py文件复制到 ......
39 AttributeError attribute 深度 pytorch

机器学习笔记(五)更换损失函数:交叉熵

前言 我们之前用的是均方差作为我们神经网络的损失函数评估值,但是我们对于结果,比如给定你一张应该是0的照片,它识别成了6,这个时候这个均方差表达了什么特别的含义吗?显然你识别成6并不代表它比识别成1的情况误差更大。 所以说我们需要一种全新的方式,基于概率的方案来对结果进行规范。也就是我们说的交叉熵损 ......
函数 损失 机器 笔记

神经网络中的分位数回归和分位数损失

在使用机器学习构建预测模型时,我们不只是想知道“预测值(点预测)”,而是想知道“预测值落在某个范围内的可能性有多大(区间预测)”。例如当需要进行需求预测时,如果只储备最可能的需求预测量,那么缺货的概率非常的大。但是如果库存处于预测的第95个百分位数(需求有95%的可能性小于或等于该值),那么缺货数量 ......
位数 神经网络 神经 损失 网络

PYTORCH基础(15)torch.nn库五大基本功能:nn.Parameter、nn.Linear、nn.functioinal、nn.Module、nn.Sequentia

第1章 torch.nn简介 1.1 torch.nn相关库的导入 #环境准备 import numpy as np # numpy数组库 import math # 数学运算库 import matplotlib.pyplot as plt # 画图库 import torch # torch基础 ......
nn functioinal Parameter Sequentia PYTORCH

机器学习-线性分类-支持向量机SVM-合页损失-SVM输出概率值-16

目录1. SVM概率化输出2. 合页损失 1. SVM概率化输出 标准的SVM进行预测 输出的结果是: 是无法输出0-1之间的 正样本 发生的概率值 sigmoid-fitting 方法: 将标准 SVM 的输出结果进行后处理,转换成后验概率 A,B 为待拟合的参数, f 为样本 x 的无阈值输出。 ......
合页 向量 线性 概率 SVM

常用损失函数

常用损失函数 目录 损失函数的意义 均方误差(MSE) 计算方法 适用场景 代码 均方根误差(RMSE) 计算方法 使用场景 代码 平均绝对误差(MAE) 计算方法 适用场景 代码 交叉熵损失 计算方法 适用场景 代码 对数似然损失 计算方法 适用场景 代码 余弦相似度损失(CSL) 计算方法 推理 ......
函数 损失 常用

机器学习-线性回归-损失函数+正则化regularization-06

目录1. 为什么要加上正则项2 L1稀疏 L2平滑3. 代码1--L2正则4 代码2--L2正则25. 代码3--l1正则 1. 为什么要加上正则项 防止模型的过拟合 需要在损失函数LOSS(MSE或者交叉熵)再加上正则项 常用的惩罚项有L1正则项或者L2正则项 其实L1和L2正则的公式数学里面的意 ......
正则 regularization 线性 函数 损失

常用损失函数

损失函数的意义 衡量模型性能。损失函数提供了一种量化模型预测结果与实际结果之间差异的方法。通过这种量化,我们可以客观地评价模型的好坏。 模型优化的指导。模型训练实际上是一个优化过程,目的是最小化损失函数。 模型选择和调整。不同的问题可能更适合不同的损失函数。 处理不平衡数据。在现实世界的数据中,常出 ......
函数 损失 常用

torch 多进程训练和分布式训练

通常来说,多进程没有涉及到梯度同步的概念。 分布式则设计梯度同步。分布式中,如果用cpu,则指定gloo后端。用gpu,则指定nccl后端。 多进程训练 只需要mp.spawn即可,每个进程只负责自己的模型训练,不涉及梯度同步。 例子 https://www.geeksforgeeks.org/mu ......
分布式 进程 torch

深度学习中前馈神经网络的认识以及损失函数,梯度下降的一些算法

1.前馈神经网络 前馈神经网络就是上次提到的网络模型的基础上它仅可以向前传播,往前传播应该有的权值w,不断提取特征 2.损失函数 损失函数是什么? 它是输入之后在隐藏层的传播过程中每一次数据传入对它预测结束之后都有一个预测值,这个预测值和真实得出来的结果有一定的误差,对这个误差进行拟合,需要用一些函 ......
神经网络 梯度 算法 函数 深度

torch反向传播backward()函数解析

参考网址: https://blog.csdn.net/weixin_44179269/article/details/124573992?ops_request_misc=%257B%2522request%255Fid%2522%253A%2522170167791616800197042802 ......
函数 backward torch

torch版本真的很重要!!!

事情的经过就是,跑深度学习代码的时候,遇到了一系列的错误 参数维度对不上 1.运行时,发现预训练模型得到的参数跟我模型要的对不上,傻逼了,当时没看见github得issues里面就有解答,找了大半天,还尝试去改模型参数。 其实就是因为下载的预训练模型参数的版本不对,应该用旧的版本。 cuda用不了 ......
版本 torch

torch.max

dim (可选): 沿着哪个维度计算最大值,默认是计算整个张量的最大值 写法1x = torch.tensor([[1, 2, 3], [4, 5, 6]]) values,_= torch.max(x, dim=0) print(values) # 输出每行的最大值 [3, 6] tensor([ ......
torch max

torch.cpu

将张量从GPU移到CPU上 import torch # 创建一个张量并将其放在GPU上 tensor_gpu = torch.randn((3, 3)).cuda() # 将张量从GPU移动到CPU tensor_cpu = tensor_gpu.cpu() ......
torch cpu

torch.detach

在深度学习中,通常使用自动微分(Autograd)来计算梯度,以便进行反向传播和优化。 在这个过程中,PyTorch会构建一个计算图,用于跟踪张量之间的计算关系。这个计算图是由各个张量之间的运算所构成的,以便在进行反向传播时计算梯度。 .detach()方法的作用是创建一个新的张量,与原始张量共享相 ......
detach torch

torch.cat

拼接tensor torch.cat(tensors, dim): 沿指定维度拼接张量。 tensor1 = torch.tensor([[1, 2, 3], [4, 5, 6]]) tensor2 = torch.tensor([[7, 8, 9], [10, 11, 12]]) # dim=0 ......
torch cat

torch.add等

数学运算: a = torch.tensor([[1, 2, 3], [4, 5, 6]]) b = torch.tensor([[7, 8, 9], [10, 11, 12]]) tensor([[1, 2, 3], [4, 5, 6]]) tensor([[ 7, 8, 9], [10, 11, ......
torch add

torch.cuda

什么时候需要将计算放置再gpt,cuda上 数据,模型放在cuda上计算之后,还用导回cpu吗 用法 torch.cuda.is_available() torch.cuda.device() ......
torch cuda

MySQL运行在docker容器中会损失多少性能

前言 自从使用docker以来,就经常听说MySQL数据库最好别运行在容器中,性能会损失很多。一些之前没使用过容器的同事,对数据库运行在容器中也是忌讳莫深,甚至只要数据库跑在容器中出现性能问题时,首先就把问题推到容器上。 那么到底会损失多少,性能损失会很多吗? 为此我装了两个MySQL,版本都是8. ......
容器 损失 性能 docker MySQL

torch保存模型

保存模型有两种方式,方式不同,在调用模型的时候也不同 我更建议用torch.jit。。。这样不需要在写模型的参数 torch.save 保存模型: import torch import torch.nn as nn # 假设 model 是你的 PyTorch 模型 class SimpleMod ......
模型 torch

torch用法--张量操作

创建张量: torch.tensor(data): 从数据中创建张量。用列表创建,numpy创建 维度只看[ ] # 一维张量 data_1d = [1, 2, 3] tensor_1d = torch.tensor(data_1d)# 结果tensor([1, 2, 3]) # 二维张量 data ......
张量 torch

Torch张量是什么

定义: 在PyTorch中,张量(tensor)是一种类似于多维数组的数据结构,它是PyTorch的核心数据类型。张量可以具有不同的维度,例如标量(0维张量,类似于一个数字)、向量(1维张量,类似于一维数组)、矩阵(2维张量,类似于二维数组)以及更高维度的数组。 张量的维度,矩阵的维度主要看第一个数 ......
张量 Torch

大规模神经网络优化:神经网络损失空间“长”什么样?

前言 如何刻画网络的优化性质呢?在优化相关的论文中,通常通过分析 Hessian 矩阵及其特征值,或者将损失函数进行一维或二维的可视化来分析网络的优化性质。我们希望这些指标能够帮助我们更好的理解网络损失的 landscape,优化器优化轨迹的性质等等。我们希望将这些指标刻画的性质与优化器的设计关联起 ......
神经网络 神经 网络 大规模 损失

torch的用法总结

张量操作(Tensors): 创建张量(列表、numpy、0、1) 张量操作(改变形状、索引切片、) 数学操作(加 乘) 查看形状 Autograd(自动求导): 定义可训练参数:torch.nn.Parameter自动求导上下文管理器:torch.autograd损失函数:torch.nn.fun ......
torch

ALBEF-ITC损失部分

《Align before Fuse: Vision and Language Representation Learning with Momentum Distillation》 引言 VLP目标是从大规模图片-文本对子中学习到多模态表示,一次改进下游的视觉-语言任务。 VLP框架的局限性如下: ......
ALBEF-ITC 损失 部分 ALBEF ITC

torch常见激活函数

torch常见激活函数 目录torch常见激活函数激活函数定义Sigmoid型S激活函数sigmoid函数Tanh函数LogSigmoid函数Softmax函数Softplus函数ReLU型及其改进ReLU函数PReLU函数LeakyReLU函数RReLU函数ReLU6函数ELU指数线性单元SELU ......
函数 激活 常见 torch

yolo v5 下载新数据集被防火墙proxy挡住,如何设置proxy. torch.hub.download_url_to_file问题;

当我们想运行yolo v5时候,我们发现有的时候,由于网关问题,proxy会成为阻碍。例如如下错误; 将代码如下修改,就能改好: 1. 原始代码: 2. 增加proxy设置: import urllib.request import torch.hub # 设置代理信息 proxy_support ......

DDOS攻击,流量超导致经济损失,考虑是否自己托管服务器,不要用云服务器

云服务器还是要小心,流量超标。erwa 前几天阿里云宕掉了。 ......
服务器 流量 损失 经济 DDOS

无线信道-路径损失以及信道衰落

看了很多论文有关无线的论文,一直对他的论文里的信道模型很迷惑,大体结合搜到的资料以及论文整理一下。 1、衰落 \(\quad\)无线通信里,信号强度的变化可以分为大尺度衰落(Large-scale fading)和小尺度衰落(Small-scale fading),这两者由不同的物理现象引起,并在不 ......
信道 路径 损失 无线
共168篇  :1/6页 首页上一页1下一页尾页