self-training adaptation training domain

论文解读《Interpolated Adversarial Training: Achieving robust neural networks without sacrificing too much accuracy》

论文信息 论文标题:Interpolated Adversarial Training: Achieving robust neural networks without sacrificing too much accuracy论文作者:Alex LambVikas VermaKenji Kawa ......

迁移学习(VMT)《Virtual Mixup Training for Unsupervised Domain Adaptation》

论文信息 论文标题:Virtual Mixup Training for Unsupervised Domain Adaptation论文作者:Takeru Miyato, S. Maeda, Masanori Koyama, S. Ishii论文来源:2019 CVPR论文地址:download  ......

AtCoder Regular Contest 123 E Training

洛谷传送门 AtCoder 传送门 不妨假设 $B_X \le B_Y$。设 $f(x) = A_X + \frac{x}{B_X}, g(x) = A_Y + \frac{x}{B_Y}, F(x) = \left\lfloor{f(x)}\right\rfloor, G(x) = \left\l ......
Training AtCoder Regular Contest 123

【问题解决】RabbitMQ启动出现epmd error for host xx.xx: nxdomain (non-existing domain)

问题描述 【k8s】或【普通容器】或【Linux】部署的RabbitMQ启动时出现了 epmd error for host xx.xx: nxdomain (non-existing domain) 错误,MQ无法启动成功。 其中 xx.xx 为无法解析的域名。 RabbitMQ官方还提到报错 E ......

Cluster-GCN An Efficient Algorithm for Training Deep Convolution Networks

Chiang W., Liu X., Si S., Li Y., Bengio S. and Hsieh C. Cluster-GCN: An efficient algorithm for training deep and large graph convolutional networks. ......

[Pattern] Adapter pattern

Check the adapter pattern https://www.tutorialspoint.com/design_pattern/adapter_pattern.htm Client: Call the common entry public class AdapterPatternD ......
Pattern Adapter pattern

迁移学习(MEnsA)《MEnsA: Mix-up Ensemble Average for Unsupervised Multi Target Domain Adaptation on 3D Point Clouds》

论文信息 论文标题:MEnsA: Mix-up Ensemble Average for Unsupervised Multi Target Domain Adaptation on 3D Point Clouds论文作者:Ashish Sinha, Jonghyun Choi论文来源:2023 C ......

Vicuna-13B, an open-source chatbot trained by fine-tuning LLaMA

一、项目背景 We introduce Vicuna-13B, an open-source chatbot trained by fine-tuning LLaMA on user-shared conversations collected from ShareGPT. Preliminary ......

论文解读(VAT)《Virtual Adversarial Training: A Regularization Method for Supervised and Semi-Supervised Learning》

论文信息 论文标题:Virtual Adversarial Training: A Regularization Method for Supervised and Semi-Supervised Learning论文作者:Takeru Miyato, S. Maeda, Masanori Koya ......

论文解读《Do We Need Zero Training Loss After Achieving Zero Training Error?》

论文信息 论文标题:Do We Need Zero Training Loss After Achieving Zero Training Error?论文作者:Takashi Ishida, I. Yamane, Tomoya Sakai, Gang Niu, M. Sugiyama论文来源:20 ......
Training Zero Achieving 论文 After

猛读论文13 |【CVPR 2022 UDA】Unleashing Potential of Unsupervised Pre-Training with Intra-Identity Regularization for Person Re-Identification

动机 解决(1)对比学习管道中的增强通常会扭曲人物图像中的判别线索(2)细粒度的局部特征人物图像尚未得到充分探索。 思路 方法 ......

迁移学习(PAT)《Pairwise Adversarial Training for Unsupervised Class-imbalanced Domain Adaptation》

论文信息 论文标题:Pairwise Adversarial Training for Unsupervised Class-imbalanced Domain Adaptation论文作者:Weili Shi, Ronghang Zhu, Sheng Li论文来源:KDD 2022论文地址:dow ......

Layer-Dependent Importance Sampling for Training Deep and Large Graph Convolutional Networks

Zou D., Hu Z., Wang Y., Jiang S., Sun Y. and Gu Q. Layer-dependent importance sampling for training deep and large graph convolutional networks. NIPS, ......

unix domain 与本地本地回环在进程间通信中的差异

前言: 127.0.0.1它是一个私有IP,代表的就是你的本机环回地址,其实本质上是绑定在虚拟网卡loopback上的IP。 在实际应用中,有遇到在使用本地回环做进程间通讯的时候程序阻塞的情况。比如下面代码 (一)本地回环: 客户端数据收发程序: static int send_recv(char ......
回环 进程 差异 domain unix

一种基于Unix Domain和TCP连接的跨设备多进程间通信的方法

​ 前言: 在linux系统进程间通信的方式有消息,消息队列,管道,内存映射,套接字等多种方式。 在Android系统上进行进程间通信主要是使用Binder,其它的还有共享内存,管道,RPC和Unix Domain等方式。 但是,在linux中常用的消息队列,在Android等系统上并不能直接的使用 ......
进程 方法 Domain 设备 Unix

Power domains

电源域是通常以相同方式供电的实例的集合。 在物理实现中,电源域的实例通常放置在一起并由相同的电源供电电源轨。 在逻辑层次结构中,电源域的实例通常是层次结构的同一子树的一部分,或者是具有共同祖先的兄弟子树的一部分,并由相同的电源网络供电。电源域在范围(或实例)内定义 ) 在逻辑层次结构中。 电源域的定 ......
domains Power

linux Irq domain

文章引用:https://blog.csdn.net/longwang155069/article/details/105812097 为什么会引入IRQ_domain? 早期中断数量较少,所以可以分布在一个interrupt_controler,中断映射也很简单,每个中断号对应一个interrup ......
domain linux Irq

迁移学习(COAL)《Generalized Domain Adaptation with Covariate and Label Shift CO-ALignment》

论文信息 论文标题:Generalized Domain Adaptation with Covariate and Label Shift CO-ALignment论文作者:Shuhan Tan, Xingchao Peng, Kate Saenko论文来源:ICLR 2020论文地址:downl ......

LoRA(Low-Rank Adaptation of Large Language Models)-- 一种大模型prompt-tuning调优方法

一、Pre-train + Fine-tuning范式 0x1:为什么要微调 对于数据集本身很小(几千张图片/几千段文本)的情况,从头开始训练具有几千万参数的大型神经网络是不现实的,因为越大的模型对数据量的要求越大,过拟合无法避免。这时候如果还想用上大型神经网络的超强特征提取能力,只能靠微调已经训练 ......

Train the Tesseract OCR engine[how to do]

Training the Tesseract OCR engine is a complex and time-consuming process that involves several steps. Here is an overview of the process: Prepare you ......
Tesseract engine Train OCR the

ziyi-lstm-train代码

lstm的train代码 def train_lstm(net,lr,train_loader,total_epoch): global_step = 1 optimizer = torch.optim.Adam(net.parameters(), lr=lr) scheduler = lr_sch ......
ziyi-lstm-train 代码 train ziyi lstm

BUPT 2023 Spring Training #9

原题:2021“MINIEYE杯”中国大学生算法设计超级联赛(1) 卡在两道题上,然后就没有然后了 A 对于 $i \in [0,\lceil\frac n2\rceil-1] \cap {\mathbb Z}$,取模时一定可以取到($n \equiv i({\rm mod}\ n-i)$) 对于 ......
Training Spring BUPT 2023

迁移学习(CLDA)《CLDA: Contrastive Learning for Semi-Supervised Domain Adaptation》

论文信息 论文标题:CLDA: Contrastive Learning for Semi-Supervised Domain Adaptation论文作者:Ankit Singh论文来源:NeurIPS 2021论文地址:download 论文代码:download视屏讲解:click 1 简介 ......

GPT模型: Generative Pre-training 生成式无监督预训练

GPT,GPT-2,GPT-3 论文精读【论文精读】_哔哩哔哩_bilibili ELMo:将上下文当作特征,但是无监督的语料和我们真实的语料还是有区别的,不一定符合我们特定的任务,是一种双向的特征提取。 OpenAI GPT: 通过transformer decoder学习出来一个语言模型,不是固 ......
Pre-training Generative training 模型 GPT

Stochastic Training of Graph Convolutional Networks with Variance Reduction

Chen J., Zhu J. and Song L. Stochastic training of graph convolutional networks with variance reduction. ICML, 2018. 概 我们都知道, GCN 虽然形式简单, 但是对于结点个数非常多的 ......

Generative Pre-trained Transformer(GPT)模型技术初探

一、Transformer模型 2017年,Google在论文 Attention is All you need 中提出了 Transformer 模型,其使用 Self-Attention 结构取代了在 NLP 任务中常用的 RNN 网络结构。相比 RNN 网络结构,其最大的优点是可以并行计算。 ......

HNU2019 Summer Training 3 E. Blurred Pictures

E. Blurred Pictures time limit per test 2 seconds memory limit per test 256 megabytes input standard input output standard output Damon loves to take ......
Pictures Training Blurred Summer 2019

论文解读( FGSM)《Adversarial training methods for semi-supervised text classification》

论文信息 论文标题:Adversarial training methods for semi-supervised text classification论文作者:Taekyung Kim论文来源:ICLR 2017论文地址:download 论文代码:download视屏讲解:click 1 背 ......

【IOI2017】Toy Train(博弈)

题目链接:https://uoj.ac/problem/322 分析 “一个点的出边一旦确定就不能改变”这个条件不好处理。通过网上一些题解的分析,可以把问题修改成: 结点的主人每次可以指定任意一条出边(即使之前已经指定了另外一条)。 A 胜利条件:存在一种策略,无论 B 怎么操作,总能使火车无限次经 ......
Train 2017 IOI Toy

ViT-Adapter:用于密集预测任务的视觉 Transformer Adapter

前言 这篇文章提出了一种用于使得 ViT 架构适配下游密集预测任务的 Adapter。简单的 ViT 模型,加上这种 Adapter 之后,下游密集预测任务的性能变强不少。本文给出的 ViT-Adapter-L 在 COCO 数据集上达到了 60.9 的 box AP 和 59.3 的 mask A ......