semi-supervised regularization consistency revisiting
Early lameness detection in dairy cattle based on wearable gait analysis using semi-supervised LSTM-Autoencoder
一区top Computers and Electronics in Agriculture 题目:“基于半监督 LSTM-自动编码器可穿戴步态分析的奶牛早期跛行检测” (Zhang 等, 2023, p. 1) (pdf) “Early lameness detection in dairy ca ......
基于正则化的图自编码器在推荐算法中的应用 Application of graph auto-encoders based on regularization in recommendation algorithms
引言 看过的每一篇文章,都是对自己的提高。不积跬步无以至千里,不积小流无以成江海,积少成多,做更好的自己。 本文基于2023年4月6日发表于SCIPEERJ COMPUTER SCIENCE(PEERJ计算机科学)上的一篇名为《基于正则化的图自编码器在推荐算法中的应用》(Application of ......
AtCoder Regular Contest 138
比赛链接 A - Larger Score 将一个 \(i\) 交换出前 \(K\) 个并将一个 \(j\) 交换进前 \(K\) 个需要的次数是 \(j-i\)。 于是只需要对于每个 \(j>K\) 找最大的 \(i\le K\) 使得 \(A_i<A_j\)。 B - 01 Generation ......
Predict potential miRNA-disease associations based on bounded nuclear norm regularization
Predict potential miRNA-disease associations based on bounded nuclear norm regularization 2023/12/8 16:00:57 Predicting potential miRNA-disease associ ......
AtCoder Regular Contest 167 C MST on Line++
洛谷传送门 AtCoder 传送门 我是傻逼。很平凡的一个计数。但是不会啊。怎么会是呢。 考虑 Kruskal 求解 MST on Line 问题。我们可以想到统计边权 \(= a_i\) 的出现次数。 然后又可以容斥转化成统计边权 \(\le a_i\) 的出现次数,设其为 \(f_i\)。 考虑 ......
AtCoder Regular Contest 168 F Up-Down Queries
洛谷传送门 AtCoder 传送门 貌似是第三道问号题?感觉前面这个转化不是人能想到的。。。 考虑维护 \(y\) 的差分序列。更进一步地,我们类比 slope trick,维护一个可重集,里面有 \(y_{i + 1} - y_i\) 个 \(i\)(为了方便我们让每次操作时 \(y_{m + 1 ......
神经网络优化篇:详解其他正则化方法(Other regularization methods)
其他正则化方法 除了\(L2\)正则化和随机失活(dropout)正则化,还有几种方法可以减少神经网络中的过拟合: 一.数据扩增 假设正在拟合猫咪图片分类器,如果想通过扩增训练数据来解决过拟合,但扩增数据代价高,而且有时候无法扩增数据,但可以通过添加这类图片来增加训练集。例如,水平翻转图片,并把它添 ......
AtCoder Regular Contest 168 E Subsegments with Large Sums
洛谷传送门 AtCoder 传送门 尝试二分答案,问题变为要求恰好选 \(x\) 段 \(\ge s\),最大化选的段数。 发现我们不是很会算段数的 \(\max\),因为要求段不重不漏地覆盖 \([1, n]\)。考虑给每个 \(\ge s\) 段 \([l, r]\) 一个 \(r - l\) ......
幽灵和熔断+LR/SC的实现和使用+Consistent和Coherent+memory 属性 Device-nGnRnE+IP-XACT+vcs token is "until"+vcs编译解决 module名重复的冲突问题+Webhook
幽灵和熔断 幽灵和熔断是基于瞬态指令流的缓存侧信道攻击。在瞬态指令流中被执行的内存加载指令如果将一个数据带入了缓存,则即使流水线回滚期间处理器丢弃了该指令返回的访存结果,已经被修改的缓存状态却无法撤销。由此,攻击者可以通过监测缓存的变化来推断受害者程序的访存地址,如果该地址本身包含敏感信息,就会引发 ......
神经网络优化篇:详解dropout 正则化(Dropout Regularization)
dropout 正则化 除了\(L2\)正则化,还有一个非常实用的正则化方法——“Dropout(随机失活)”。 假设在训练上图这样的神经网络,它存在过拟合,这就是dropout所要处理的,复制这个神经网络,dropout会遍历网络的每一层,并设置消除神经网络中节点的概率。假设网络中的每一层,每个节 ......
神经网络优化篇:为什么正则化有利于预防过拟合呢?(Why regularization reduces overfitting?)
为什么正则化有利于预防过拟合呢? 通过两个例子来直观体会一下。 左图是高偏差,右图是高方差,中间是Just Right。 现在来看下这个庞大的深度拟合神经网络。知道这张图不够大,深度也不够,但可以想象这是一个过拟合的神经网络。这是的代价函数\(J\),含有参数\(W\),\(b\)。添加正则项,它可 ......
神经网络优化篇:详解正则化(Regularization)
正则化 深度学习可能存在过拟合问题——高方差,有两个解决方法,一个是正则化,另一个是准备更多的数据,这是非常可靠的方法,但可能无法时时刻刻准备足够多的训练数据或者获取更多数据的成本很高,但正则化通常有助于避免过拟合或减少的网络误差。 如果怀疑神经网络过度拟合了数据,即存在高方差问题,那么最先想到的方 ......
《Progressive Learning of Category-Consistent Multi-Granularity Features for Fine-Grained Visual Classification》阅读笔记
论文标题 《Progressive Learning of Category-Consistent Multi-Granularity Features for Fine-Grained Visual Classification》 细粒度视觉分类中类别一致多粒度特征的渐进学习 作者 Ruoyi D ......
机器学习-线性回归-损失函数+正则化regularization-06
目录1. 为什么要加上正则项2 L1稀疏 L2平滑3. 代码1--L2正则4 代码2--L2正则25. 代码3--l1正则 1. 为什么要加上正则项 防止模型的过拟合 需要在损失函数LOSS(MSE或者交叉熵)再加上正则项 常用的惩罚项有L1正则项或者L2正则项 其实L1和L2正则的公式数学里面的意 ......
AtCoder Regular Contest 169
A - Please Sign 某个 \(A_i\) 对 \(A_1\) 的贡献是 \(\binom{10^{100}}{\mathrm{dep}_i}\),所以深度为 \(d\) 的节点的 \(A_i\) 之和只要不为 \(0\),其贡献就一定远大于深度 \(<d\) 的所有点的贡献之和。 从大到 ......
AtCoder Regular Contest 169 (ARC169)
怎么有人 ARC A 卡了半天的? A. Please Sign 考虑 \(i\) 位置上的数,下次它被加到 \(P_i\),再下次被加到 \(P_{P_i}\),因为这个序列有性质 \(P_i<i\),这样加若干轮一定会到达 \(1\)。 令所有的 \(i\) 向 \(P_i\) 连边,则这是一棵 ......
Graph regularized non-negative matrix factorization with prior knowledge consistency constraint for drug-target interactions prediction
Graph regularized non-negative matrix factorization with prior knowledge consistency constraint for drug-target interactions prediction Junjun Zhang 1 ......
Predict potential miRNA-disease associations based on bounded nuclear norm regularization
Predict potential miRNA-disease associations based on bounded nuclear norm regularization Yidong Rao 1, Minzhu Xie 1, Hao Wang 1 Affiliations expand P ......
Graph regularized non-negative matrix factorization with [Formula: see text] norm regularization terms for drug-target interactions prediction
Graph regularized non-negative matrix factorization with [Formula: see text] norm regularization terms for drug-target interactions prediction Junjun ......
ALGO ARTIS Programming Contest 2023 Autumn(AtCoder Regular Contest 168)
Preface 先补一下这场ARC的博客,因为在来回合肥的路上一直在想这场的CD,所以有空后就先把这场补了 A - <Inversion> 不难发现对于一段连续的<,设其长度为\(x\),则它最少要贡献\(\frac{x(x+1)}{2}\)的答案 而我们很容易构造一种方案刚好满足这个下界,只要让每 ......
[论文速览] R-Drop@ Regularized Dropout for Neural Networks
Pre title: R-Drop: Regularized Dropout for Neural Networks accepted: NeurIPS 2021 paper: https://arxiv.org/abs/2106.14448 code: https://github.com/dro ......
CA-TCC: 半监督时间序列分类的自监督对比表征学习《Self-supervised Contrastive Representation Learning for Semi-supervised Time-Series Classification》(时间序列、时序表征、时间和上下文对比、对比学习、自监督学习、半监督学习、TS-TCC的扩展版)
现在是2023年11月27日,10:48,今天把这篇论文看了。 论文:Self-supervised Contrastive Representation Learning for Semi-supervised Time-Series Classification GitHub:https://g ......
解决非root用户安装软件中cannot create regular file `/usr/local/lib/libz.a‘: Permission denied
解决非root用户安装软件中cannot create regular file `/usr/local/lib/libz.a': Permission denied 举例 解决办法 举例 比如我现在要安装一个软件叫zlib,安装过程如下: wget http://zlib.net/zlib-1.2 ......
Convolutional Neural Networks on Graphs with Chebyshev Approximation, Revisited
目录概符号说明MotivationChebNetII代码 He M., Wei Z. and Wen J. Convolutional neural networks on graphs with chebyshev approximation, revisited. NIPS, 2022. 概 作 ......
AtCoder Regular Contest 144 E GCD of Path Weights
洛谷传送门 AtCoder 传送门 喵喵题。 考虑若所有点权都已确定,如何求 \(1\) 到 \(n\) 所有路径权值和的 \(\gcd\)。 考虑如何 check 一个 \(x\) 是否合法。\(x\) 合法的充要条件是,把不能从 \(1\) 到达的点和不能到达 \(n\) 的点扔掉后,存在一组 ......
论文阅读笔记:Revisiting Prototypical Network for Cross Domain Few-Shot Learning
标题:重新审视用于跨领域少样本学习的原型网络 研究背景: 问题背景:原型网络是一种流行的小样本学习方法, 其网络简单而直观,对于小样本学习问题有着较好的表现,尤其是在图像分类等领域。 存在问题:然而,当推广到跨领域的少样本分类任务时,其性能出现了大幅度下降,这严重限制了原型网络的实用性。 研究动机: ......
consistency level of Azure Cosmos DB account
In Azure Cosmos DB, the consistency level defines the trade-off between consistency, availability, and partition tolerance, commonly known as the CAP ......
基于时间频率一致性对时间序列进行自监督对比预训练《Self-Supervised Contrastive Pre-Training for Time Series via Time-Frequency Consistency》(时序、时频一致性、对比学习)
2023年11月10日,今天看一篇论文,现在17:34,说实话,想摆烂休息,不想看,可还是要看,拴Q。 论文:Self-Supervised Contrastive Pre-Training for Time Series via Time-Frequency Consistency 或者是:Sel ......
Microservice - Data Consistency
To have data consistency in a distributed system, you have two options: a two-phase commit (2PC) and saga. 2PC coordinates all the processes that form ......
[论文阅读] Latent Consistency Models@ Synthesizing High-Resolution Images with Few-Step Inference
1. Pre title: Latent Consistency Models: Synthesizing High-Resolution Images with Few-Step Inference accepted: arXiv 2023 (ICLR 2024 Submission) paper ......