self-training adaptation training domain
论文解读《Interpolated Adversarial Training: Achieving robust neural networks without sacrificing too much accuracy》
论文信息 论文标题:Interpolated Adversarial Training: Achieving robust neural networks without sacrificing too much accuracy论文作者:Alex LambVikas VermaKenji Kawa ......
迁移学习(VMT)《Virtual Mixup Training for Unsupervised Domain Adaptation》
论文信息 论文标题:Virtual Mixup Training for Unsupervised Domain Adaptation论文作者:Takeru Miyato, S. Maeda, Masanori Koyama, S. Ishii论文来源:2019 CVPR论文地址:download ......
AtCoder Regular Contest 123 E Training
洛谷传送门 AtCoder 传送门 不妨假设 $B_X \le B_Y$。设 $f(x) = A_X + \frac{x}{B_X}, g(x) = A_Y + \frac{x}{B_Y}, F(x) = \left\lfloor{f(x)}\right\rfloor, G(x) = \left\l ......
【问题解决】RabbitMQ启动出现epmd error for host xx.xx: nxdomain (non-existing domain)
问题描述 【k8s】或【普通容器】或【Linux】部署的RabbitMQ启动时出现了 epmd error for host xx.xx: nxdomain (non-existing domain) 错误,MQ无法启动成功。 其中 xx.xx 为无法解析的域名。 RabbitMQ官方还提到报错 E ......
Cluster-GCN An Efficient Algorithm for Training Deep Convolution Networks
Chiang W., Liu X., Si S., Li Y., Bengio S. and Hsieh C. Cluster-GCN: An efficient algorithm for training deep and large graph convolutional networks. ......
[Pattern] Adapter pattern
Check the adapter pattern https://www.tutorialspoint.com/design_pattern/adapter_pattern.htm Client: Call the common entry public class AdapterPatternD ......
迁移学习(MEnsA)《MEnsA: Mix-up Ensemble Average for Unsupervised Multi Target Domain Adaptation on 3D Point Clouds》
论文信息 论文标题:MEnsA: Mix-up Ensemble Average for Unsupervised Multi Target Domain Adaptation on 3D Point Clouds论文作者:Ashish Sinha, Jonghyun Choi论文来源:2023 C ......
Vicuna-13B, an open-source chatbot trained by fine-tuning LLaMA
一、项目背景 We introduce Vicuna-13B, an open-source chatbot trained by fine-tuning LLaMA on user-shared conversations collected from ShareGPT. Preliminary ......
论文解读(VAT)《Virtual Adversarial Training: A Regularization Method for Supervised and Semi-Supervised Learning》
论文信息 论文标题:Virtual Adversarial Training: A Regularization Method for Supervised and Semi-Supervised Learning论文作者:Takeru Miyato, S. Maeda, Masanori Koya ......
论文解读《Do We Need Zero Training Loss After Achieving Zero Training Error?》
论文信息 论文标题:Do We Need Zero Training Loss After Achieving Zero Training Error?论文作者:Takashi Ishida, I. Yamane, Tomoya Sakai, Gang Niu, M. Sugiyama论文来源:20 ......
猛读论文13 |【CVPR 2022 UDA】Unleashing Potential of Unsupervised Pre-Training with Intra-Identity Regularization for Person Re-Identification
动机 解决(1)对比学习管道中的增强通常会扭曲人物图像中的判别线索(2)细粒度的局部特征人物图像尚未得到充分探索。 思路 方法 ......
迁移学习(PAT)《Pairwise Adversarial Training for Unsupervised Class-imbalanced Domain Adaptation》
论文信息 论文标题:Pairwise Adversarial Training for Unsupervised Class-imbalanced Domain Adaptation论文作者:Weili Shi, Ronghang Zhu, Sheng Li论文来源:KDD 2022论文地址:dow ......
Layer-Dependent Importance Sampling for Training Deep and Large Graph Convolutional Networks
Zou D., Hu Z., Wang Y., Jiang S., Sun Y. and Gu Q. Layer-dependent importance sampling for training deep and large graph convolutional networks. NIPS, ......
unix domain 与本地本地回环在进程间通信中的差异
前言: 127.0.0.1它是一个私有IP,代表的就是你的本机环回地址,其实本质上是绑定在虚拟网卡loopback上的IP。 在实际应用中,有遇到在使用本地回环做进程间通讯的时候程序阻塞的情况。比如下面代码 (一)本地回环: 客户端数据收发程序: static int send_recv(char ......
一种基于Unix Domain和TCP连接的跨设备多进程间通信的方法
前言: 在linux系统进程间通信的方式有消息,消息队列,管道,内存映射,套接字等多种方式。 在Android系统上进行进程间通信主要是使用Binder,其它的还有共享内存,管道,RPC和Unix Domain等方式。 但是,在linux中常用的消息队列,在Android等系统上并不能直接的使用 ......
Power domains
电源域是通常以相同方式供电的实例的集合。 在物理实现中,电源域的实例通常放置在一起并由相同的电源供电电源轨。 在逻辑层次结构中,电源域的实例通常是层次结构的同一子树的一部分,或者是具有共同祖先的兄弟子树的一部分,并由相同的电源网络供电。电源域在范围(或实例)内定义 ) 在逻辑层次结构中。 电源域的定 ......
linux Irq domain
文章引用:https://blog.csdn.net/longwang155069/article/details/105812097 为什么会引入IRQ_domain? 早期中断数量较少,所以可以分布在一个interrupt_controler,中断映射也很简单,每个中断号对应一个interrup ......
迁移学习(COAL)《Generalized Domain Adaptation with Covariate and Label Shift CO-ALignment》
论文信息 论文标题:Generalized Domain Adaptation with Covariate and Label Shift CO-ALignment论文作者:Shuhan Tan, Xingchao Peng, Kate Saenko论文来源:ICLR 2020论文地址:downl ......
LoRA(Low-Rank Adaptation of Large Language Models)-- 一种大模型prompt-tuning调优方法
一、Pre-train + Fine-tuning范式 0x1:为什么要微调 对于数据集本身很小(几千张图片/几千段文本)的情况,从头开始训练具有几千万参数的大型神经网络是不现实的,因为越大的模型对数据量的要求越大,过拟合无法避免。这时候如果还想用上大型神经网络的超强特征提取能力,只能靠微调已经训练 ......
Train the Tesseract OCR engine[how to do]
Training the Tesseract OCR engine is a complex and time-consuming process that involves several steps. Here is an overview of the process: Prepare you ......
ziyi-lstm-train代码
lstm的train代码 def train_lstm(net,lr,train_loader,total_epoch): global_step = 1 optimizer = torch.optim.Adam(net.parameters(), lr=lr) scheduler = lr_sch ......
BUPT 2023 Spring Training #9
原题:2021“MINIEYE杯”中国大学生算法设计超级联赛(1) 卡在两道题上,然后就没有然后了 A 对于 $i \in [0,\lceil\frac n2\rceil-1] \cap {\mathbb Z}$,取模时一定可以取到($n \equiv i({\rm mod}\ n-i)$) 对于 ......
迁移学习(CLDA)《CLDA: Contrastive Learning for Semi-Supervised Domain Adaptation》
论文信息 论文标题:CLDA: Contrastive Learning for Semi-Supervised Domain Adaptation论文作者:Ankit Singh论文来源:NeurIPS 2021论文地址:download 论文代码:download视屏讲解:click 1 简介 ......
GPT模型: Generative Pre-training 生成式无监督预训练
GPT,GPT-2,GPT-3 论文精读【论文精读】_哔哩哔哩_bilibili ELMo:将上下文当作特征,但是无监督的语料和我们真实的语料还是有区别的,不一定符合我们特定的任务,是一种双向的特征提取。 OpenAI GPT: 通过transformer decoder学习出来一个语言模型,不是固 ......
Stochastic Training of Graph Convolutional Networks with Variance Reduction
Chen J., Zhu J. and Song L. Stochastic training of graph convolutional networks with variance reduction. ICML, 2018. 概 我们都知道, GCN 虽然形式简单, 但是对于结点个数非常多的 ......
Generative Pre-trained Transformer(GPT)模型技术初探
一、Transformer模型 2017年,Google在论文 Attention is All you need 中提出了 Transformer 模型,其使用 Self-Attention 结构取代了在 NLP 任务中常用的 RNN 网络结构。相比 RNN 网络结构,其最大的优点是可以并行计算。 ......
HNU2019 Summer Training 3 E. Blurred Pictures
E. Blurred Pictures time limit per test 2 seconds memory limit per test 256 megabytes input standard input output standard output Damon loves to take ......
论文解读( FGSM)《Adversarial training methods for semi-supervised text classification》
论文信息 论文标题:Adversarial training methods for semi-supervised text classification论文作者:Taekyung Kim论文来源:ICLR 2017论文地址:download 论文代码:download视屏讲解:click 1 背 ......
【IOI2017】Toy Train(博弈)
题目链接:https://uoj.ac/problem/322 分析 “一个点的出边一旦确定就不能改变”这个条件不好处理。通过网上一些题解的分析,可以把问题修改成: 结点的主人每次可以指定任意一条出边(即使之前已经指定了另外一条)。 A 胜利条件:存在一种策略,无论 B 怎么操作,总能使火车无限次经 ......
ViT-Adapter:用于密集预测任务的视觉 Transformer Adapter
前言 这篇文章提出了一种用于使得 ViT 架构适配下游密集预测任务的 Adapter。简单的 ViT 模型,加上这种 Adapter 之后,下游密集预测任务的性能变强不少。本文给出的 ViT-Adapter-L 在 COCO 数据集上达到了 60.9 的 box AP 和 59.3 的 mask A ......