regularization

基于正则化的图自编码器在推荐算法中的应用 Application of graph auto-encoders based on regularization in recommendation algorithms

引言 看过的每一篇文章,都是对自己的提高。不积跬步无以至千里,不积小流无以成江海,积少成多,做更好的自己。 本文基于2023年4月6日发表于SCIPEERJ COMPUTER SCIENCE(PEERJ计算机科学)上的一篇名为《基于正则化的图自编码器在推荐算法中的应用》(Application of ......

AtCoder Regular Contest 138

比赛链接 A - Larger Score 将一个 \(i\) 交换出前 \(K\) 个并将一个 \(j\) 交换进前 \(K\) 个需要的次数是 \(j-i\)。 于是只需要对于每个 \(j>K\) 找最大的 \(i\le K\) 使得 \(A_i<A_j\)。 B - 01 Generation ......
AtCoder Regular Contest 138

Predict potential miRNA-disease associations based on bounded nuclear norm regularization

Predict potential miRNA-disease associations based on bounded nuclear norm regularization 2023/12/8 16:00:57 Predicting potential miRNA-disease associ ......

AtCoder Regular Contest 167 C MST on Line++

洛谷传送门 AtCoder 传送门 我是傻逼。很平凡的一个计数。但是不会啊。怎么会是呢。 考虑 Kruskal 求解 MST on Line 问题。我们可以想到统计边权 \(= a_i\) 的出现次数。 然后又可以容斥转化成统计边权 \(\le a_i\) 的出现次数,设其为 \(f_i\)。 考虑 ......
AtCoder Regular Contest Line 167

AtCoder Regular Contest 168 F Up-Down Queries

洛谷传送门 AtCoder 传送门 貌似是第三道问号题?感觉前面这个转化不是人能想到的。。。 考虑维护 \(y\) 的差分序列。更进一步地,我们类比 slope trick,维护一个可重集,里面有 \(y_{i + 1} - y_i\) 个 \(i\)(为了方便我们让每次操作时 \(y_{m + 1 ......
AtCoder Regular Contest Queries Up-Down

神经网络优化篇:详解其他正则化方法(Other regularization methods)

其他正则化方法 除了\(L2\)正则化和随机失活(dropout)正则化,还有几种方法可以减少神经网络中的过拟合: 一.数据扩增 假设正在拟合猫咪图片分类器,如果想通过扩增训练数据来解决过拟合,但扩增数据代价高,而且有时候无法扩增数据,但可以通过添加这类图片来增加训练集。例如,水平翻转图片,并把它添 ......

AtCoder Regular Contest 168 E Subsegments with Large Sums

洛谷传送门 AtCoder 传送门 尝试二分答案,问题变为要求恰好选 \(x\) 段 \(\ge s\),最大化选的段数。 发现我们不是很会算段数的 \(\max\),因为要求段不重不漏地覆盖 \([1, n]\)。考虑给每个 \(\ge s\) 段 \([l, r]\) 一个 \(r - l\) ......
Subsegments AtCoder Regular Contest Large

神经网络优化篇:详解dropout 正则化(Dropout Regularization)

dropout 正则化 除了\(L2\)正则化,还有一个非常实用的正则化方法——“Dropout(随机失活)”。 假设在训练上图这样的神经网络,它存在过拟合,这就是dropout所要处理的,复制这个神经网络,dropout会遍历网络的每一层,并设置消除神经网络中节点的概率。假设网络中的每一层,每个节 ......

神经网络优化篇:为什么正则化有利于预防过拟合呢?(Why regularization reduces overfitting?)

为什么正则化有利于预防过拟合呢? 通过两个例子来直观体会一下。 左图是高偏差,右图是高方差,中间是Just Right。 现在来看下这个庞大的深度拟合神经网络。知道这张图不够大,深度也不够,但可以想象这是一个过拟合的神经网络。这是的代价函数\(J\),含有参数\(W\),\(b\)。添加正则项,它可 ......

神经网络优化篇:详解正则化(Regularization)

正则化 深度学习可能存在过拟合问题——高方差,有两个解决方法,一个是正则化,另一个是准备更多的数据,这是非常可靠的方法,但可能无法时时刻刻准备足够多的训练数据或者获取更多数据的成本很高,但正则化通常有助于避免过拟合或减少的网络误差。 如果怀疑神经网络过度拟合了数据,即存在高方差问题,那么最先想到的方 ......

机器学习-线性回归-损失函数+正则化regularization-06

目录1. 为什么要加上正则项2 L1稀疏 L2平滑3. 代码1--L2正则4 代码2--L2正则25. 代码3--l1正则 1. 为什么要加上正则项 防止模型的过拟合 需要在损失函数LOSS(MSE或者交叉熵)再加上正则项 常用的惩罚项有L1正则项或者L2正则项 其实L1和L2正则的公式数学里面的意 ......
正则 regularization 线性 函数 损失

AtCoder Regular Contest 169

A - Please Sign 某个 \(A_i\) 对 \(A_1\) 的贡献是 \(\binom{10^{100}}{\mathrm{dep}_i}\),所以深度为 \(d\) 的节点的 \(A_i\) 之和只要不为 \(0\),其贡献就一定远大于深度 \(<d\) 的所有点的贡献之和。 从大到 ......
AtCoder Regular Contest 169

AtCoder Regular Contest 169 (ARC169)

怎么有人 ARC A 卡了半天的? A. Please Sign 考虑 \(i\) 位置上的数,下次它被加到 \(P_i\),再下次被加到 \(P_{P_i}\),因为这个序列有性质 \(P_i<i\),这样加若干轮一定会到达 \(1\)。 令所有的 \(i\) 向 \(P_i\) 连边,则这是一棵 ......
169 AtCoder Regular Contest ARC

Predict potential miRNA-disease associations based on bounded nuclear norm regularization

Predict potential miRNA-disease associations based on bounded nuclear norm regularization Yidong Rao 1, Minzhu Xie 1, Hao Wang 1 Affiliations expand P ......

Graph regularized non-negative matrix factorization with prior knowledge consistency constraint for drug-target interactions prediction

Graph regularized non-negative matrix factorization with prior knowledge consistency constraint for drug-target interactions prediction Junjun Zhang 1 ......

Graph regularized non-negative matrix factorization with [Formula: see text] norm regularization terms for drug-target interactions prediction

Graph regularized non-negative matrix factorization with [Formula: see text] norm regularization terms for drug-target interactions prediction Junjun ......

ALGO ARTIS Programming Contest 2023 Autumn(AtCoder Regular Contest 168)

Preface 先补一下这场ARC的博客,因为在来回合肥的路上一直在想这场的CD,所以有空后就先把这场补了 A - <Inversion> 不难发现对于一段连续的<,设其长度为\(x\),则它最少要贡献\(\frac{x(x+1)}{2}\)的答案 而我们很容易构造一种方案刚好满足这个下界,只要让每 ......
Contest Programming AtCoder Regular Autumn

[论文速览] R-Drop@ Regularized Dropout for Neural Networks

Pre title: R-Drop: Regularized Dropout for Neural Networks accepted: NeurIPS 2021 paper: https://arxiv.org/abs/2106.14448 code: https://github.com/dro ......
Regularized Networks Dropout R-Drop Neural

解决非root用户安装软件中cannot create regular file `/usr/local/lib/libz.a‘: Permission denied

解决非root用户安装软件中cannot create regular file `/usr/local/lib/libz.a': Permission denied 举例 解决办法 举例 比如我现在要安装一个软件叫zlib,安装过程如下: wget http://zlib.net/zlib-1.2 ......
Permission regular 用户 cannot create

AtCoder Regular Contest 144 E GCD of Path Weights

洛谷传送门 AtCoder 传送门 喵喵题。 考虑若所有点权都已确定,如何求 \(1\) 到 \(n\) 所有路径权值和的 \(\gcd\)。 考虑如何 check 一个 \(x\) 是否合法。\(x\) 合法的充要条件是,把不能从 \(1\) 到达的点和不能到达 \(n\) 的点扔掉后,存在一组 ......
AtCoder Regular Contest Weights Path

[CF576D] Flights for Regular Customers

CF576D 把矩阵定义为 \(f_{t,i,j}\) 表示恰好 t 步后 i,j 是否可达,则广义乘法为 \[f_{t+1,i,j}=\sum_{k=1}^{n}f_{t,i,k}\wedge f_{1,k,j} \]因为是或操作,所以 \(f_{i,j}=1\) 时答案或上另一个乘数的第 j 行 ......
Customers Flights Regular 576D 576

AtCoder Regular Contest 164 F Subtree Reversi

洛谷传送门 AtCoder 传送门 非常好题目。 发现每个点颜色被反转的次数是固定的,为其深度(根结点深度为 \(0\))。于是可以看作是,一放棋子就得到分数。 那么先手取偶数层和后手取奇数层都会使先手得分,所以双方的目标都是尽可能多取偶数层的结点。 考虑若一开始有偶数层的叶子,那么当前的先手肯定会 ......
AtCoder Regular Contest Subtree Reversi

How to use regular expression to match a special meta tag in html string using javascript All In One

How to use regular expression to match a special meta tag in html string using javascript All In One ......
expression javascript regular special string

AtCoder Regular Contest 167——B - Product of Divisors

题目很明显,给定 所有因数的积不断除以最多能除几次。 首先,很容易发现,对于每一对因子,都可以对答案得出B的贡献,设A的因子数目为n。 将A进行质因数分解,PBa1,PBa2,PBa3……PBam,那么因数个数就是质因子加一的乘积。 那么因子对数也就是前者一半。答案就是B乘因子对数除以二注意此处除操 ......
Divisors AtCoder Regular Contest Product

AtCoder Regular Contest 167

Preface 补一下上周日的ARC,因为当天白天和队友一起VP了一场所以就没有精力再打一场了 这场经典C计数不会D这种贪心乱搞反而是一眼秒了,后面的EF过的太少就没看 A - Toasts for Breakfast Party 用一个类似于蛇形的放法就好了,比如对于\(n=9,m=5\),放法为 ......
AtCoder Regular Contest 167

AtCoder Regular Contest 066 F Contest with Drinks Hard

洛谷传送门 AtCoder 传送门 下文令 \(a\) 为原题中的 \(T\)。 考虑若没有饮料,可以设 \(f_i\) 表示,考虑了前 \(i\) 道题,第 \(i\) 道题没做的最大得分。转移就枚举上一道没做的题 \(j\),那么 \([j + 1, i - 1]\) 形成一个连续段。设 \(b ......
Contest AtCoder Regular Drinks Hard

Atcoder Regular Contest 167

卡 B 下大分了,怎么回事呢。 A. Toasts for Breakfast Party 发现题意是让方差尽可能小,就是让 \(A\) 里的值尽可能接近。 所以从小到大排个序,把 \(A_{N,\dots,N-M+1}\) 依次放进 \(1,2,\dots,M\),再把 \(A_{N-M,\dot ......
Atcoder Regular Contest 167

Working with Regular Expression in Python.

# 正则表达式 正则表达式是一组由字母和符号组成的特殊文本,它可以用来从文本中找出满足你想要的格式的句子。一个正则表达式是一种从左到右匹配主体字符串的模式,常使用缩写的术语 “regex” 或 “regexp”。 实验网站:regex101 参考:菜鸟 正则语法 元字符 正则表达式起作用主要依赖于元 ......
Expression Working Regular Python with

AtCoder Regular Contest 166

Preface 上周末因为上课而且这天下午还有CF要打,所以就没现场打这场ARC了 这两天事情也特别多导致写题的时间很少,摸了好久总算是补了四个题 A - Replace C or Swap AB 感觉是我做法复杂了,怎么A题码量好大 首先我们找到所有\(Y\)中为\(C\)的位置,显然对应的\(X ......
AtCoder Regular Contest 166
共147篇  :1/5页 首页上一页1下一页尾页