卷积 数论

数论函数小计

## 1.基础 ### 数论函数 + 定义: 数论函数,就是值域为整数(陪域为复数)的函数 ### 狄利克雷卷积 两个**数论函数**的**狄利克雷卷积**是一个新的函数 比如 $f(n)$,$g(n)$ 它们的卷积就是 $f * g$ 怎么卷呢? 定义: $\large{(f*g)(n)=\sum ......
数论 函数

数论练习题小结

### 1.[P1447](https://www.luogu.com.cn/problem/P1447) 题意:求 $$\sum\limits_{i=1}^n\sum\limits_{j=1}^m2\times (i,j)-1$$ 思考:原式等价于$2\sum\limits_{i=1}^n\sum ......
数论 练习题 小结

莫比乌斯反演 & gcd 卷积

没有写一些概念(?((( 我是梅比乌斯厨=莫比乌斯厨=牲畜(暴论。 ### 前置芝士 #### 积性分解 对于积性函数 $f$,给出 $n=\prod_{i=1}^m p_i^{c_i}$。有 $f(n)=\prod_{i=1}^m f(p_i^{c_i})$。意思是跟 质因子 & 幂次 相关度较高 ......
卷积 amp gcd

数论学习笔记

本文主要记录自己学习 OI 时用到的数论知识,内容偏进阶。 因为近期其实不太会用到多么高深的数论知识,所以很多内容是空中楼阁,是照抄 OI Wiki 而缺乏自己的理解,这些都等需要的时候慢慢补。这次写笔记主要在于建立起知识体系,知道有哪些东西要掌握。 那么开始。 ## 数论分块 基本的思想是集合 $ ......
数论 笔记

学习笔记——狄利克雷卷积

# 狄利克雷卷积 用于计算求和问题(如莫比乌斯反演) ## 定义 设$f$和$g$为算数函数,其卷积为$f*g$, 则 $$(f*g)(n)=\sum_{d|n}f(d)g(\frac nd)$$ 卷积是对正因数求和。 举个例子:定义恒等函数$I(n)=n$,常数函数$1(n)=1$. 则 $$(I ......
卷积 笔记

数论第一节:质数与质因数

参考博客: http://www.matrix67.com/blog/archives/234 https://www.cnblogs.com/1024th/p/11349355.html https://zhuanlan.zhihu.com/p/267884783 ## 素数的分布: ``` 10 ......
质因数 质数 数论

【学习笔记】简单数论

# 前言 开个大坑。 # 正文 ## 最大公约数 - 取模运算性质 - $(a+b) \bmod p=((a \bmod p)+(b \mod p)) \mod p$ ,反之亦成立。 - $(a-b) \bmod p=((a \bmod p)-(b \mod p)) \mod p$ ,反之亦成立。 ......
数论 笔记

基于卷积神经网络的MAE自监督方法

本文分享自华为云社区《基于卷积神经网络的MAE自监督方法》,作者: Hint 。 图像自监督预训练算法是近年来的重要研究方向,MAE是其中基于ViT实现的代表性方法,学习到了鲁棒的视觉特征。MAE全称是Masked Autoencoders,是由何凯明提出的自监督预训练方法,借鉴了BERT的预训练任 ......
卷积 神经网络 神经 方法 网络

LCM Sum[数论+树状数组]

Problem - E2 - Codeforces 给一个区间[L,R],询问有多少三元组(i,j,k)满足L=<i<j<k<=r且lcm(i,j,k)>=i+j+k. 正难则反。我们可以考虑它的补集。 lcm<i+j+k,然后是i+j+k<3*k 所以lcm<3k,又因为k是lcm的因数,所以lc ......
数论 数组 LCM Sum

数论分块

#数论分块学习 ##用途 快速计算含有$\lfloor{\frac{n}{i}}\rfloor$的和式($i$为变量) ##引理 ###引理1 $$ \forall a,b,c\in \mathbb{N_+},\quad \Big\lfloor \frac{a}{bc}\Big\rfloor=\bi ......
数论

数论20230809

# 定义1.1整除 $a$整除$b$记为$a|b$ $a|b$指$\exists n\in \mathbb{Z},使得b=an$ # 定义1.2 - 1.整除的传递性:$a|b,b|c\Rightarrow a|c$ - 2.整除的可加性:$n|a,n|b\Rightarrow n|a\pm b$ ......
数论 20230809

数论全家桶

# 数论全家桶 [toc] ### 欧拉定理 1.结论 $$ ∀a,m∈Z且gcd(a,m)=1,a^{\varphi(m)}\equiv1\ (mod\ m) $$ 欧拉定理的一个常见用法是对指数降幂。 应用当mod数质数时,有 $$ a^b \equiv a^{bmod\phi(m)} (mod ......
数论 全家

卷积神经网络

卷积神经网络CNN——常用于图像识别 (1)卷积层 · 卷积——通过对图像进行卷积运算,可以对图像的某个特征进行选择性的增强或减弱 · 图像的局部性——各个像素点与其附近的像素点之间具有强关联——卷积层利用此对图像的特征进行检测 · 图像的张数——RGB就是三个,即通道数,单色图像通道数为1 · 通 ......
卷积 神经网络 神经 网络

[数论第二节]欧拉函数/快速幂/扩展欧几里得算法

- ### 欧拉函数 - 欧拉函数$\varphi(N)$ : 1-N中与N互质的数的个数 - 若$N = p_1^{a_1} · p_2^{a_2} · p_3^{a_3} ··· ·p_n^{a_n}$ 其中p为N的所有质因子 - 则$\varphi(N) = N(1-\frac{1}{p_1} ......
数论 算法 函数

基于CNN卷积神经网络的图像分割matlab仿真

1.算法理论概述 本文将从专业角度详细介绍基于CNN卷积神经网络的图像分割。主要包括以下几个方面:图像分割的基本原理、CNN卷积神经网络的基本结构、训练数据集的准备、网络训练和测试等。 1.1 图像分割的基本原理 图像分割是将一幅图像分割为多个具有独立语义的区域的过程。图像分割可以应用于计算机视觉、 ......
卷积 神经网络 图像 神经 matlab

数论的一些公式

## 二项式定理 $$ (x+y)^{n}= \sum_{k=0}^{n} {n\choose k} x^{k} y^{n-k} $$ ## 二项式反演 $$ f_{n}=\sum_{i=0}^{n} {n\choose i}g_{i} \Leftrightarrow g_{n}=\sum_{i=0 ......
数论 公式

数论第一节

- ### 数论 - #### 质数 - 在大于1的整数中,只包含1和本身这两个约数,就被称为质数,也叫素数 - ##### 质数的判定 - ###### 试除法 - 遍历2-n,若有约数则不为质数 O(n) - 优化: - d整除n,则n/d也整除n,约数总是成对出现,只要找较小的约数,即取d 2 ......
数论

FCN-全卷积网络-pytorch搭建

代码摘自:https://github.com/sovit-123/Semantic-Segmentation-using-Fully-Convlutional-Networks 预备知识: 下载预训练权重,抽取出网络层实例:运行如下代码,自动下载到 C:\Users\**\.cache\torch ......
卷积 pytorch 网络 FCN

AlexNet深度卷积神经网络——pytorch版

import torch from torch import nn from d2l import torch as d2l net = nn.Sequential( # (224-11+1+2)/4=54 nn.Conv2d(1,96,kernel_size=11,stride=4,padding ......
卷积 神经网络 深度 神经 AlexNet

LeNet卷积神经网络——pytorch版

import torch from torch import nn from d2l import torch as d2l class Reshape(torch.nn.Module): def forward(self,x): # 批量大小默认,输出通道为1 return x.view(-1,1 ......
卷积 神经网络 神经 pytorch LeNet

实现二维卷积层

import torch from torch import nn from d2l import torch as d2l def corr2d(x,k): """计算二维互相关运算""" # 获取卷积核的高和宽 h,w=k.shape # 输出的高和宽 y=torch.zeros((x.shap ......
卷积

【学习笔记】数论之筛法

## 前言: 可以会乱记一些技巧吧。 ### 交换求和顺序 如果不确定可以将条件写成 [A] 的形式,交换完求和顺序再把这个条件放里面。 例如: $$ \sum_{i=1}^n \sum_{d} [d | i] = \sum_{d=1}^n \sum_{i} [d|i] = \sum_{d=1}^n ......
数论 笔记

解析数论之有限阿贝尔群及其特征、狄利克雷特征

###### @Coding: Typora+LaTeX ###### @Author : [DorinXL](https://dorinxl.gitee.io/)([博客](https://www.cnblogs.com/DorinXL/)) ###### @Time : 2023/8/4 ## ......
解析数论 数论 特征 有限

深度学习-->卷积神经网络(LeNet)

LeNet: # LeNet import d2lzh as d2l import mxnet as mx from mxnet import autograd, gluon, init, nd from mxnet.gluon import loss as gloss, nn import tim ......
卷积 神经网络 深度 神经 LeNet

数论函数

## [P1390公约数的和](https://www.luogu.com.cn/problem/P1390) 简单莫反题。要求 $$ \sum_{i=1}^{n}\sum_{j=i+1}^ngcd(i,j) $$ 可以先考虑问题的简化版: $$ \sum_{i=1}^{n}\sum_{j=1}^n ......
数论 函数

doubly block toeplitz matrix 在加速矩阵差卷积上的应用

[文档链接](https://genn-team.github.io/posts/sw_blog_toeplitz.html) CNN 的卷积是执行了 $w'_ {i,j}=\sum\limits_{x,y}w_{i+x,j+y}\times C_{x,y}$,有人认为每次平移卷积核,运算量很大,又 ......
卷积 矩阵 toeplitz doubly matrix

解析数论之原根

# 解析数论之原根 ## 目录 - Chapter1 什么是整数的次数,什么是原根 - Chapter2 谁有原根? ## Chapter1 什么是整数的次数,什么是原根 - **Definition**: 对于$(a,m)=1,m\ge1$,考虑所有$a,a^2,a^3,\cdots$,我们通过欧 ......
解析数论 数论

0801数论

#### GCD & exGCD 首先我们考虑辗转相除法的过程,因为 $(a,b)=(b \bmod a,a)(0<a<b)$,$(0,b)=b$,所以我们就可以每次将 $b$ 转化为严格更小的 $b$ 的问题。归纳则得到答案。 现在我们考虑扩欧的过程,我们需要对 $ax+by=1$ 找到一组解。那 ......
数论 0801

卷积神经网络(LeNet)

卷积神经网络(LeNet) 卷积神经网络(LeNet) ......
卷积 神经网络 神经 LeNet 网络

【笔记】数论进阶(数论函数相关)

# 8.1 数论进阶(数论函数相关) 以下记 $F$ 为 $f$ 的前缀和。$n/m$ 表示 $\left\lfloor\frac{n}{m}\right\rfloor$。 ## 整除分块 1. $n/i$ 取值只有 $O(\sqrt{n})$ 种。 2. $a/(bc)=(a/b)/c$。 3. ......
数论 函数 笔记