卷积

『学习笔记』狄利克雷卷积

## 定义 对于两个数论函数 $f, g$,存在运算 $* $,满足 $f * g = h$。其中 $* $ 读作“卷”。 计算式为: $$h(x) = \sum _ {k \times \lambda = x} f(k) \times g(\lambda).$$ ## 一些有意思的性质 然后我们再 ......
卷积 笔记

【小记】狄利克雷卷积trick

# 定义 单位函数$\epsilon(n)=[n=1]$ 幂函数$Id_k(n)=n^k$特别的$Id(n)=n$ 除数函数$\sigma_k(n)=\sum_{i\mid n}i^k$ 欧拉函数$\phi(n)=\sum_{i=1}^n[\gcd(i,n)=1]$ 莫比乌斯函数$\mu(n)=\b ......
卷积 小记 trick

使用卷积操作实现因子分解机

本文将介绍如何使用卷积操作实现因子分解机器。卷积网络因其局部性和权值共享的归纳偏差而在计算机视觉领域获得了广泛的成功和应用。卷积网络可以用来捕获形状的堆叠分类特征(B, num_cat, embedding_size)和形状的堆叠特征(B, num_features, embedding_size) ......
卷积 因子

【矩阵论】含卷积求导和优化问题闭式解

本篇使用的[符号说明](https://www.cnblogs.com/edlinf/p/17585260.html),考虑优化问题 $$\min\limits_{K} \frac12\|A*K-B\|_F^2+\gamma\|K\|_F^2,\tag{1}$$ 其中$A,B\in M_{m,n}$ ......
卷积 闭式 矩阵 问题

感受野的计算(膨胀卷积/空洞卷积计算)

## 膨胀卷积(空洞卷积)等效大小: $$ K_{等效大小}=(d-1)(K_{size}-1)+K_{size} $$ 其中$K_{size}$代表空洞卷积的kernel size,d代表dilation rate(普通卷积为1),$K_{等效大小}$代表空洞卷积转换成同样感受野的普通卷积的ker ......
卷积 空洞

卷积神经网络更新

基础 高斯核 权重归一化是只核中每一个元素的值都除以这个核中所有元素值的总和,我们将进行权重归一化的模板称为平滑模板。 也就是说对核中心的值归一化的时候,如果增大模板则分子不变分母变大,因此核中心的值归一化后变小,这会导致图像中中心像素的权值变小,因此中心像素越容易受到周围像素的影响,核的平滑效果越 ......
卷积 神经网络 神经 网络

卷积神经网络

### 卷积神经网络整体架构 ![](https://img2023.cnblogs.com/blog/1537138/202308/1537138-20230820205607703-2002912051.png) ### 卷积层涉及参数 ![](https://img2023.cnblogs.c ......
卷积 神经网络 神经 网络

头疼!卷积神经网络是什么?CNN结构、训练与优化一文全解

> 本文全面探讨了卷积神经网络CNN,深入分析了背景和重要性、定义与层次介绍、训练与优化,详细分析了其卷积层、激活函数、池化层、归一化层,最后列出其训练与优化的多项关键技术:训练集准备与增强、损失函数、优化器、学习率调整、正则化技巧与模型评估调优。旨在为人工智能学者使用卷积神经网络CNN提供全面的指 ......
卷积 神经网络 神经 结构 网络

狄利克雷卷积和积性函数

## 数论函数 数论函数指定义域为正整数,值域是一个数集且满足 $f(1) \neq 0$ 的函数。我们可以将数论函数看作一个数列。 设有 $f(n),g(n)$ 两个数论函数,有几种常见运算: - 加法:$(f+ g)(n)=f(n)+g(n)$ - 数乘:$(af)(n)=a \cdot f(n ......
卷积 函数

卷积层

# 卷积层 ## 卷积操作 [torch.nn](https://pytorch.org/docs/stable/nn.html)是对[torch.function](https://pytorch.org/docs/stable/nn.functional.html)的封装 pytorch官网详细 ......
卷积

卷积神经网络

如果一张28*28*1的图像作为输入,那么传统的神经网络输入的是向量,而卷积神经网络输入的是三维矩阵 卷积层作用是特征提取,池化层的作用是压缩特征,注意卷积层的卷积策略是不对图像的最外层的像素进行处理 颜色通道的处理策略 3个颜色通道,每个颜色通道分别做计算,再把每个通道卷积结果相加 卷积的策略 上 ......
卷积 神经网络 神经 网络

莫比乌斯反演 & gcd 卷积

没有写一些概念(?((( 我是梅比乌斯厨=莫比乌斯厨=牲畜(暴论。 ### 前置芝士 #### 积性分解 对于积性函数 $f$,给出 $n=\prod_{i=1}^m p_i^{c_i}$。有 $f(n)=\prod_{i=1}^m f(p_i^{c_i})$。意思是跟 质因子 & 幂次 相关度较高 ......
卷积 amp gcd

学习笔记——狄利克雷卷积

# 狄利克雷卷积 用于计算求和问题(如莫比乌斯反演) ## 定义 设$f$和$g$为算数函数,其卷积为$f*g$, 则 $$(f*g)(n)=\sum_{d|n}f(d)g(\frac nd)$$ 卷积是对正因数求和。 举个例子:定义恒等函数$I(n)=n$,常数函数$1(n)=1$. 则 $$(I ......
卷积 笔记

基于卷积神经网络的MAE自监督方法

本文分享自华为云社区《基于卷积神经网络的MAE自监督方法》,作者: Hint 。 图像自监督预训练算法是近年来的重要研究方向,MAE是其中基于ViT实现的代表性方法,学习到了鲁棒的视觉特征。MAE全称是Masked Autoencoders,是由何凯明提出的自监督预训练方法,借鉴了BERT的预训练任 ......
卷积 神经网络 神经 方法 网络

卷积神经网络

卷积神经网络CNN——常用于图像识别 (1)卷积层 · 卷积——通过对图像进行卷积运算,可以对图像的某个特征进行选择性的增强或减弱 · 图像的局部性——各个像素点与其附近的像素点之间具有强关联——卷积层利用此对图像的特征进行检测 · 图像的张数——RGB就是三个,即通道数,单色图像通道数为1 · 通 ......
卷积 神经网络 神经 网络

基于CNN卷积神经网络的图像分割matlab仿真

1.算法理论概述 本文将从专业角度详细介绍基于CNN卷积神经网络的图像分割。主要包括以下几个方面:图像分割的基本原理、CNN卷积神经网络的基本结构、训练数据集的准备、网络训练和测试等。 1.1 图像分割的基本原理 图像分割是将一幅图像分割为多个具有独立语义的区域的过程。图像分割可以应用于计算机视觉、 ......
卷积 神经网络 图像 神经 matlab

FCN-全卷积网络-pytorch搭建

代码摘自:https://github.com/sovit-123/Semantic-Segmentation-using-Fully-Convlutional-Networks 预备知识: 下载预训练权重,抽取出网络层实例:运行如下代码,自动下载到 C:\Users\**\.cache\torch ......
卷积 pytorch 网络 FCN

AlexNet深度卷积神经网络——pytorch版

import torch from torch import nn from d2l import torch as d2l net = nn.Sequential( # (224-11+1+2)/4=54 nn.Conv2d(1,96,kernel_size=11,stride=4,padding ......
卷积 神经网络 深度 神经 AlexNet

LeNet卷积神经网络——pytorch版

import torch from torch import nn from d2l import torch as d2l class Reshape(torch.nn.Module): def forward(self,x): # 批量大小默认,输出通道为1 return x.view(-1,1 ......
卷积 神经网络 神经 pytorch LeNet

实现二维卷积层

import torch from torch import nn from d2l import torch as d2l def corr2d(x,k): """计算二维互相关运算""" # 获取卷积核的高和宽 h,w=k.shape # 输出的高和宽 y=torch.zeros((x.shap ......
卷积

深度学习-->卷积神经网络(LeNet)

LeNet: # LeNet import d2lzh as d2l import mxnet as mx from mxnet import autograd, gluon, init, nd from mxnet.gluon import loss as gloss, nn import tim ......
卷积 神经网络 深度 神经 LeNet

doubly block toeplitz matrix 在加速矩阵差卷积上的应用

[文档链接](https://genn-team.github.io/posts/sw_blog_toeplitz.html) CNN 的卷积是执行了 $w'_ {i,j}=\sum\limits_{x,y}w_{i+x,j+y}\times C_{x,y}$,有人认为每次平移卷积核,运算量很大,又 ......
卷积 矩阵 toeplitz doubly matrix

卷积神经网络(LeNet)

卷积神经网络(LeNet) 卷积神经网络(LeNet) ......
卷积 神经网络 神经 LeNet 网络

深度学习-->卷积神经网络

二维卷积层: from mxnet import autograd, nd from mxnet.gluon import nn # 定义函数corr2d,用于实现二维卷积操作 def corr2d(x, k): # 获取卷积核的高度和宽度 h, w = k.shape # 初始化输出y,其形状为( ......
卷积 神经网络 深度 神经 网络

卷积神经网络CNN

# 卷积神经网络 假设一张图片由28x28个像素块构成,每个像素块有一个值,称为灰度值,取值范围是0-255。而在深度学习中,我们用一个28x28的矩阵来存储图片信息,将0-255的灰度值转换为0-1之间的值。0代表全白,1代表全黑。图片存储的时候以0-255灰度值存储,而我们将图片载入到网络中时, ......
卷积 神经网络 神经 网络 CNN

6.6 卷积神经网络LeNet

LeNet,它是最早发布的卷积神经网络之一,因其在计算机视觉任务中的高效性能而受到广泛关注。 这个模型是由AT&T贝尔实验室的研究员Yann LeCun在1989年提出的(并以其命名),目的是识别图像中的手写数字。 总体来看,LeNet由两个部分组成: 卷积编码器:由两个卷积层组成; 全连接层密集块 ......
卷积 神经网络 神经 LeNet 网络

opencv-python 卷积操作

1 图像卷积 图像卷积就是卷积核在图像上按行滑动遍历像素时不断的相乘求和的过程,卷积可以用来提取特征,去噪,平滑等。 如下图: ......
卷积 opencv-python opencv python

算法学习笔记(24): 狄利克雷卷积和莫比乌斯反演

# 狄利克雷卷积和莫比乌斯反演 > 看了《组合数学》,再听了学长讲的……感觉三官被颠覆…… [TOC] ## 狄利克雷卷积 如此定义: $$ (f*g)(n) = \sum_{xy = n} f(x)g(y) $$ 或者可以写为 $$ (f * g)(n) = \sum_{d | n} f(d) g ......
卷积 算法 笔记 24

6.2 图像卷积

我们定义一个函数,实现图像的卷积操作。 这里X[i:i+h,j:j+w]的用法是把X这个大矩阵中,行数从i到i+h-1,列数从j到j+w-1的一小块给拿出来了,例子如下: A = torch.tensor([ [1,1,1,1], [2,2,2,2], [3,3,3,3], [4,4,4,4] ]) ......
卷积 图像 6.2

狄利克雷卷积

## Part1.定义: 狄利克雷(Dirichlet)卷积是定义在数论函数上的一种二维运算,常常记为: $h\left ( x \right )=\sum_{ab=x}^{}f\left ( a \right ) * g\left ( b \right ) =\sum_{d|x}^{}f\left ......
卷积