Regularization

基于正则化的图自编码器在推荐算法中的应用 Application of graph auto-encoders based on regularization in recommendation algorithms

引言 看过的每一篇文章,都是对自己的提高。不积跬步无以至千里,不积小流无以成江海,积少成多,做更好的自己。 本文基于2023年4月6日发表于SCIPEERJ COMPUTER SCIENCE(PEERJ计算机科学)上的一篇名为《基于正则化的图自编码器在推荐算法中的应用》(Application of ......

Predict potential miRNA-disease associations based on bounded nuclear norm regularization

Predict potential miRNA-disease associations based on bounded nuclear norm regularization 2023/12/8 16:00:57 Predicting potential miRNA-disease associ ......

神经网络优化篇:详解其他正则化方法(Other regularization methods)

其他正则化方法 除了\(L2\)正则化和随机失活(dropout)正则化,还有几种方法可以减少神经网络中的过拟合: 一.数据扩增 假设正在拟合猫咪图片分类器,如果想通过扩增训练数据来解决过拟合,但扩增数据代价高,而且有时候无法扩增数据,但可以通过添加这类图片来增加训练集。例如,水平翻转图片,并把它添 ......

神经网络优化篇:详解dropout 正则化(Dropout Regularization)

dropout 正则化 除了\(L2\)正则化,还有一个非常实用的正则化方法——“Dropout(随机失活)”。 假设在训练上图这样的神经网络,它存在过拟合,这就是dropout所要处理的,复制这个神经网络,dropout会遍历网络的每一层,并设置消除神经网络中节点的概率。假设网络中的每一层,每个节 ......

神经网络优化篇:为什么正则化有利于预防过拟合呢?(Why regularization reduces overfitting?)

为什么正则化有利于预防过拟合呢? 通过两个例子来直观体会一下。 左图是高偏差,右图是高方差,中间是Just Right。 现在来看下这个庞大的深度拟合神经网络。知道这张图不够大,深度也不够,但可以想象这是一个过拟合的神经网络。这是的代价函数\(J\),含有参数\(W\),\(b\)。添加正则项,它可 ......

神经网络优化篇:详解正则化(Regularization)

正则化 深度学习可能存在过拟合问题——高方差,有两个解决方法,一个是正则化,另一个是准备更多的数据,这是非常可靠的方法,但可能无法时时刻刻准备足够多的训练数据或者获取更多数据的成本很高,但正则化通常有助于避免过拟合或减少的网络误差。 如果怀疑神经网络过度拟合了数据,即存在高方差问题,那么最先想到的方 ......

机器学习-线性回归-损失函数+正则化regularization-06

目录1. 为什么要加上正则项2 L1稀疏 L2平滑3. 代码1--L2正则4 代码2--L2正则25. 代码3--l1正则 1. 为什么要加上正则项 防止模型的过拟合 需要在损失函数LOSS(MSE或者交叉熵)再加上正则项 常用的惩罚项有L1正则项或者L2正则项 其实L1和L2正则的公式数学里面的意 ......
正则 regularization 线性 函数 损失

Predict potential miRNA-disease associations based on bounded nuclear norm regularization

Predict potential miRNA-disease associations based on bounded nuclear norm regularization Yidong Rao 1, Minzhu Xie 1, Hao Wang 1 Affiliations expand P ......

Graph regularized non-negative matrix factorization with [Formula: see text] norm regularization terms for drug-target interactions prediction

Graph regularized non-negative matrix factorization with [Formula: see text] norm regularization terms for drug-target interactions prediction Junjun ......

论文解读(CR-Match)《Revisiting Consistency Regularization for Semi-Supervised Learning》

Note:[ wechat:Y466551 | 可加勿骚扰,付费咨询 ] 论文信息 论文标题:Revisiting Consistency Regularization for Semi-Supervised Learning论文作者:Yue Fan、Anna Kukleva、Bernt Schie ......

Proj CDeepFuzz Paper Reading: Invariance-inducing regularization using worst-case transformations suffices to boost accuracy and spatial robustness

## Abstract 本文: Task: 1. prove invariance-inducing regularizers can increase predictive accuracy for worst-case spatial transformations 2. prove that ......

正则化(regularization)和归一化(normalization)

正则化:批量归一化和dropout 批量归一化和dropout作为正则化器来克服深度学习模型中的过度拟合问题。 来源 您遇到过导致过拟合的大型数据集吗? 过度拟合的原因之一是网络中的权重很大。具有较大网络权重的网络可能是网络不稳定的标志,其中输入的微小变化可能导致输出发生较大变化。这个问题的解决方案 ......
正则 regularization normalization

正则化方法(Regularization)

本文前2节简要介绍正则化,3至7节介绍常用正则化方法 一、正则化是什么 1.经验风险和结构风险 经验风险最小化(Empirical Risk Minimization,ERM)准则: 模型f(x)关于训练数据集的平均损失称为经验风险或经验损失: $$R_{emp}(f)=\frac{1}{N}\su ......
正则 Regularization 方法

【统计数据分析专论】02-Regularization 正则化

Regularization 正则化 课件翻译 Modeling Nonlinear Relation 非线性关系建模 上节课学了线性模型但是非线性模型也很重要 考虑一个由基函数的线性组合定义的模型 在数学中,基函数是函数空间中特定基底的元素。 函数空间中的每个连续函数可以表示为基函数的线性组合,就 ......

论文解读(VAT)《Virtual Adversarial Training: A Regularization Method for Supervised and Semi-Supervised Learning》

论文信息 论文标题:Virtual Adversarial Training: A Regularization Method for Supervised and Semi-Supervised Learning论文作者:Takeru Miyato, S. Maeda, Masanori Koya ......

猛读论文13 |【CVPR 2022 UDA】Unleashing Potential of Unsupervised Pre-Training with Intra-Identity Regularization for Person Re-Identification

动机 解决(1)对比学习管道中的增强通常会扭曲人物图像中的判别线索(2)细粒度的局部特征人物图像尚未得到充分探索。 思路 方法 ......
共16篇  :1/1页 首页上一页1下一页尾页