卷积 数论

结构化剪枝 之 L1 剪卷积核 笔记

论文:https://arxiv.org/pdf/1608.08710.pdf 摘要 CNN 在各种应用中的成功伴随着计算和参数存储成本的显著增加。最近减少这些开销的努力包括在不损害原始精度的情况下修剪和压缩各个层的权重。然而,基于大小的权值修剪减少了完全连接层的大量参数,并且由于修剪后的网络中的不 ......
卷积 结构 笔记 L1

循环卷积

P3321 [SDOI2015] 序列统计 问有多少个值域为 \([0,m-1]\) 的序列 \(A\) 满足 \(\prod_{i=1}^{n}A_i\equiv x(\operatorname{mod}m)\). 答案对 \(1004535809\) 取模。 \(1\le n\le 10^9\) ......
卷积

可分离卷积(Separable Convolution)等价转换为传统卷积(Ordinary convolution)的方法,(等价转换,即最终处理效果一致)

写在前面: 可分离卷积提出的原因 卷积神经网络在图像处理中的地位已然毋庸置疑。卷积运算具备强大的特征提取能力、相比全连接又消耗更少的参数,应用在图像这样的二维结构数据中有着先天优势。然而受限于目前移动端设备硬件条件,显著降低神经网络的运算量依旧是网络结构优化的目标之一。本文所述的Separable ......

数论——欧拉函数、欧拉定理、费马小定理 学习笔记

数论——欧拉函数、欧拉定理、费马小定理 欧拉函数 定义 欧拉函数(Euler's totient function),记为 \(\varphi(n)\),表示 \(1 \sim n\) 中与 \(n\) 互质的数的个数。 也可以表示为:\(\varphi(n) = \sum\limits_{i = ......
定理 数论 函数 笔记

数论——欧拉函数、欧拉定理 学习笔记

数论——欧拉函数、欧拉定理 欧拉函数 定义 欧拉函数(Euler's totient function),记为 \(\varphi(n)\),表示 \(1 \sim n\) 中与 \(n\) 互质的数的个数。 也可以表示为:\(\varphi(n) = \sum\limits_{i = 1}^n [ ......
数论 定理 函数 笔记

数论——线性同余方程、乘法逆元 学习笔记

数论——线性同余方程、乘法逆元 众所周知: 说明 除非特殊说明,以下提到的 exgcd 函数均定义为: // ax + by = gcd(a, b) ll exgcd(ll a, ll b, ll &x, ll &y, ll d = 0) { if (b == 0) x = 1, y = 0, d ......
数论 乘法 线性 方程 笔记

NTT(快速数论变换)学习

回顾:FFT FFT(快速傅立叶变换)学习 - Isakovsky - 博客园 (cnblogs.com) 目的:将多项式的系数表示法形式转换为点值表示法形式,或者说,快速计算出多项式在若干个点上的值. 中心思想:适当地选取自变量,使得自变量两两互为相反数,求出的多项式值可重复利用,减少运算次数 例 ......
数论 NTT

基于CNN卷积神经网络的调制信号识别算法matlab仿真

1.算法运行效果图预览 2.算法运行软件版本 MATLAB2022A 3.算法理论概述 在无线通信系统中,调制信号的识别是一项重要的任务。通过识别接收到的信号的调制方式,可以对信号进行解调和解码,从而实现正确的数据传输和通信。卷积神经网络(Convolutional Neural Network,C ......
卷积 神经网络 算法 信号 神经

数论——欧几里得算法和扩展欧几里得算法 学习笔记

数论——欧几里得算法和扩展欧几里得算法 引入 最大公约数 最大公约数即为 Greatest Common Divisor,常缩写为 gcd。 一组整数的公约数,是指同时是这组数中每一个数的约数的数。\(\pm 1\) 是任意一组整数的公约数; 一组整数的最大公约数,是指所有公约数里面最大的一个。 最 ......
算法 数论 笔记

《动手学深度学习 Pytorch版》 6.6 卷积神经网络

import torch from torch import nn from d2l import torch as d2l 6.6.1 LeNet LetNet-5 由两个部分组成: - 卷积编码器:由两个卷积核组成。 - 全连接层稠密块:由三个全连接层组成。 模型结构如下流程图(每个卷积块由一个 ......
卷积 神经网络 深度 神经 Pytorch

快速数论变换(NTT)

在系数均为整数的时候,可以用NTT代替FFT,这样不会出现精度问题。 #include <bits/stdc++.h> using namespace std; typedef long long lld; const int N = 20000005; const lld g = 3, mod = ......
数论 NTT

《动手学深度学习 Pytorch版》 6.2 图像卷积

import torch from torch import nn from d2l import torch as d2l 6.2.1 互相关计算 X = torch.tensor([[0.0, 1.0, 2.0], [3.0, 4.0, 5.0], [6.0, 7.0, 8.0]]) K = t ......
卷积 深度 图像 Pytorch 6.2

《动手学深度学习 Pytorch版》 6.1 从全连接层到卷积

6.1.1 不变性 平移不变性(translation invariance): 不管检测对象出现在图像中的哪个位置,神经网络的前面几层应该对相同的图像区域具有相似的反应,即为“平移不变性”。 局部性(locality): 神经网络的前面几层应该只探索输入图像中的局部区域,而不过度在意图像中相隔较远 ......
卷积 全连 深度 Pytorch 6.1

23集训 Day4 数论

快速幂 定义 快速幂,是一个在 \(\Theta(\log n)\) 的时间内计算 \(a^n\) 的小技巧,而暴力的计算需要 \(\Theta(n)\) 的时间。 解释 \[\because a^{b+c}=a^{b} \times a^{c},a^{2b}=a^{b}\times a^{b}=( ......
数论 Day4 Day

数论有关题

tax 题目: 小码哥要交税,交的税钱是收入 \(n\) 的最大因子(该最大因子为不等于 \(n\) 的最大因子),但是现在小码哥为了避税,把钱拆成几份(每份至少为 \(2\)),使交税最少,输出税钱。 格式: 输入格式:一个正整数 \(n\) 表示所以的钱数。 输出格式:输出一个正整数,表示税钱。 ......
数论

c++中的数论知识

写在开头:word的公式打不上来,只能截图了 一.组合数学 (1) 加法定理与乘法原理 加法原理:做一件事情,完成它可以有n类办法,在第一类办法中有m1种不同的方法,在第二类办法中有m2种不同的方法,……,在第n类办法中有mn种不同的方法。那么完成这件事共有N=m1+m2+…+mn种不同的方法。 乘 ......
数论 知识

m基于CNN卷积神经网络的口罩识别系统matlab仿真,带GUI操作界面,可以检测图片和视频,统计人数

1.算法仿真效果 matlab2022a仿真结果如下: 2.算法涉及理论知识概要 CNN 由许多神经网络层组成。卷积和池化这两种不同类型的层通常是交替的。网络中每个滤波器的深度从左到右增加。最后通常由一个或多个全连接的层组成。 Convnets 背后有三个关键动机:局部感受野、共享权重和池化。 (1 ......
卷积 神经网络 口罩 界面 神经

[数论] 卡特兰数

引入 有 \(n\) 个元素进栈序列为 \(1,2,3,4\dots n\)。求有多少种出栈序列 我们需要确保最后一次操作后,栈中没有元素。因此,共有 \(2n\) 次操作。(每个元素进栈一次,出栈一次) 对于每次操作,如果我们想出栈,则它一定要有数字可以 pop。如果我们把栈抽象成一条链,若第 \ ......
卡特兰 数论

数论杂谈

# 数论杂谈 记录一些小小的东西 ## 贝尔数(bell) $Bell(n)$ ($B_n$)表示有 $n$ 个元素的集合划分成若干个互不相交的子集的方案数 $$B_0=1,B_1=1,B_2=2,B_3=5,\dots$$ $$B_0=1,B_{n+1}=\sum_{i=0}^n C_n^i\ti ......
数论 杂谈

FWT & FMT(位运算卷积)学习笔记

cnblogs 你终于不 503 了。充 VIP 能保证不间歇性爆炸吗! 它们两个的全名叫 快速沃尔什变换(FWT) 和 快速莫比乌斯变换(FMT),用来在 $O(n\log n)$ 时间复杂度内求位运算卷积。 因为 FMT 能解决的问题是 FWT 的子集,所以这里不讲 FMT,把它拎出来是想说它们 ......
卷积 笔记 FWT FMT amp

使用卷积对fashion_mnist数据集进行softmax分类

import torch from torch import nn from d2l import torch as d2l from torch.nn import functional as F batch_size = 256 train_iter, test_iter = d2l.load_ ......
卷积 fashion_mnist fashion softmax 数据

数论基础(还在更新)

`2023-07-29 16:22:14` # 辗转相除法 (求gcd) 求 $a,b$ 的最大公约数。 假设 $a\ge b$ ,令 $gcd(a,b)=d$(下文都这样表示)。 那么设 $a=k_1d$,$b=k_2d$,则 $a\mod b =(k_1-rk_2)d$,当 $k1-rk2>0$ ......
数论 基础

CMT:卷积与Transformers的高效结合

论文提出了一种基于卷积和VIT的混合网络,利用Transformers捕获远程依赖关系,利用cnn提取局部信息。构建了一系列模型cmt,它在准确性和效率方面有更好的权衡。 CMT:体系结构 CMT块由一个局部感知单元(LPU)、一个轻量级多头自注意模块(LMHSA)和一个反向残差前馈网络(IRFFN ......
卷积 Transformers CMT

数论基础

# 莫比乌斯反演 ## 定义 先讲讲莫比乌斯函数的定义: $\mu(x) =\begin{cases} 1 &n=1 \\ 0 &n含有平方因子 \\ (-1)^k &k为n的本质不同质因子个数 \end{cases}$ 我们对 $n$ 进行质因数分解, $n= \prod_{i=1}^k p_i^ ......
数论 基础

数论其一

# 一、质数 ### 1.质数的定义: 如果一个正整数无法被除了1和它本身以外的任何自然数整除,那么这个数是质数。否则,这个数是合数。 需要注意的是,1既不是质数也不是合数。 ### 2.埃筛: 2.埃筛: 问题:给定一个正整数 $n$ ,找到$1\sim n$中的所有质数。 思路:我们可以从 $2 ......
数论

【矩阵论】含卷积求导

本篇使用的[符号说明](https://www.cnblogs.com/edlinf/p/17585260.html),书接上回[《含卷积矩阵优化问题的闭式解》](https://www.cnblogs.com/edlinf/p/17664923.html),那么为什么会有这篇呢。 主要是求导部分不 ......
卷积 矩阵

数论中一个有趣的小结论

对于任意奇质数 $p$,对于任意整数 $k < p-1$,有 $ p|\sum_{i=1}^{p-1}i^k$ 证明: 取 $p$ 的原根 $g$,由简化剩余系的性质知: 在 $\mod p$ 意义下,有 $$ \{g, 2g,\cdots, (p-1)g\} = \{1, 2, \cdots, p ......
数论 结论

『学习笔记』狄利克雷卷积

## 定义 对于两个数论函数 $f, g$,存在运算 $* $,满足 $f * g = h$。其中 $* $ 读作“卷”。 计算式为: $$h(x) = \sum _ {k \times \lambda = x} f(k) \times g(\lambda).$$ ## 一些有意思的性质 然后我们再 ......
卷积 笔记

数论

# 数论 ### 模运算 > $a\%b = a-b*floor(\frac ab)$ 费马小定理 $a^{p-1} \% p=1$ ### 最小公倍数&最大公约数 (a,b)表示最大公约数 [a,b]表示最小公倍数 $(a,b)*[a,b] = ab$ 辗转相除 ```c if (a % b==0 ......
数论

【小记】狄利克雷卷积trick

# 定义 单位函数$\epsilon(n)=[n=1]$ 幂函数$Id_k(n)=n^k$特别的$Id(n)=n$ 除数函数$\sigma_k(n)=\sum_{i\mid n}i^k$ 欧拉函数$\phi(n)=\sum_{i=1}^n[\gcd(i,n)=1]$ 莫比乌斯函数$\mu(n)=\b ......
卷积 小记 trick