Improving

SHARPNESS-AWARE MINIMIZATION FOR EFFICIENTLY IMPROVING GENERALIZATION论文阅读笔记

Intro 在训练集上最小化损失很可能导致泛化性低,因为当今模型的过参数化会导致training loss的landscape异常复杂且非凸,包含很多local/global minima,因此优化器的选择至关重要。loss landscape的几何性质(特别是minima的flatness)与泛化 ......

GPT-1论文《Improving Language Understanding by Generative Pre-Training》解读

背景 GPT-1 采用了两阶段训练的方式: 1. 第一阶段 pre-training,在海量文本上训练,无需label,根据前k-1个词预测第k个单词是什么,第一阶段的训练让模型拥有了很多的先验知识,模型具有非常强的泛化性 2. 第二阶段在特定任务上fine-tuning,让模型能适应不同的任务,提 ......

Rethinking and Improving Relative Position Encoding for Vision Transformer: ViT中的位置编码

Rethinking and Improving Relative Position Encoding for Vision Transformer * Authors: [[Kan Wu]], [[Houwen Peng]], [[Minghao Chen]], [[Jianlong Fu]], ......

Improving Computer Vision Accuracy using Convolutions

Improving Computer Vision Accuracy using Convolutions ‍ 在前面的课程中,你们了解了如何使用包含三层的深度神经网络(DNN)进行时装识别,这三层分别是输入层(数据的形状)、输出层(所需输出的形状)和隐藏层。你试验了不同大小的隐藏层、训练epoch ......

【论文阅读】Improving language understanding by generative pre-training

原始题目:Improving language understanding by generative pre-training 中文翻译:通过生成预训练提高语言理解能力 发表时间:2018年 平台:Preprint 文章链接:https://www.mikecaptain.com/resource ......

Improving The Fetch XML Performance using Latematerialize -如何使用Latematerialize提高Fetch XML 查询性能

假设要从包含 100,000 条记录、100 多列的表中提取 500 个,根据过滤条件,需要几分钟才能获取记录。 原因是应用程序传统上 fetchxml 首先获取所有 100,000 条记录和数百列。然后它根据查询执行过滤器以获取记录。 为了克服这一挑战,如果我们一个查询,首先提取所需 500 条记 ......

利用不可识别的人脸来增强人脸识别性能Harnessing Unrecognizable Faces for Improving Face Recognition

灰色标记:可以日后引用的观点 红色标记:好的写法、语句、单词 紫色标记:文章重点 黄色标记:寻常突出 文章评论:: 创新点:: 主要内容:: gallery中的样本通常是人为采集并精心挑选的,它们具有较好的可识别性;然而,query通常来自于真实场景,它们受多种因素干扰如像素等等。 针对“检测器能检 ......

[论文速览] SDXL@ Improving Latent Diffusion Models for High-Resolution Image Synthesis

Pre title: SDXL: Improving Latent Diffusion Models for High-Resolution Image Synthesis accepted: arXiv 2023 paper: https://arxiv.org/abs/2307.01952 co ......

Paper reading: Improving Deep Forest by Exploiting High-order Interactions

为了对深度森林设计出信息量更大、计算成本更低的特征表示,本文提出了一种新的深度森林模型——高阶交互深度森林(hiDF),利用输入特征的稳定高阶交互来生成信息丰富且多样化的特征表示。具体而言,本文设计了一个广义版本的随机交叉树(gRIT)来发现稳定的高阶相互作用,并应用激活线性组合(ALC)将这些相互... ......

机器翻译 | Improving Neural Machine Translation Robustness via Data Augmentation: Beyond Back Translation论文总结

论文地址:https://arxiv.org/abs/1910.03009 ### 动机 神经机器翻译(NMT)模型在翻译**干净文本**时已被证明是强大的,但它们**对输入中的噪声非常敏感**。改进NMT模型的鲁棒性可以看作是对噪声的“域”适应的一种形式。 最先进的方法严重依赖于大量的反向翻译数据 ......

机器翻译 | Improving Neural Machine Translation Robustness via Data Augmentation: Beyond Back Translation论文翻译

## 摘要 **神经机器翻译(NMT)模型在翻译干净文本时已被证明是强大的,但它们对输入中的噪声非常敏感**。改进NMT模型的鲁棒性可以看作是对噪声的“域”适应的一种形式。**最近创建的基于噪声文本的机器翻译任务语料库为一些语言对提供了噪声清洁的并行数据,但这些数据在大小和多样性方面非常有限**。最 ......

LEA: Improving Sentence Similarity Robustness to Typos Using Lexical Attention Bias 论文阅读

# LEA: Improving Sentence Similarity Robustness to Typos Using Lexical Attention Bias 论文阅读 KDD 2023 [原文地址](https://arxiv.org/abs/2307.02912) ## Introd ......

June 2021-Continuous Transition: Improving Sample Efficiency for Continuous Control Problems via MixUp

本文建议通过对连续transition进行线性插值来合成新的transition用于训练。为了保持构建的transition的真实性,还开发了一个鉴别器来自动指导构建过程 ......

MULTIINSTRUCT: Improving Multi-Modal Zero-Shot Learning via Instruction Tuning

指令调优是一种新的学习范式,它可以根据指令指定的任务对预先训练好的语言模型进行微调,在各种自然语言处理任务中显示出良好的零目标性能。然而,对于视觉和多模态任务,它仍然没有被探索。在这项工作中,我们介绍了multiinstruction,这是第一个多模态指令调优基准数据集,由47个不同的多模态任务组成 ......

迁移学习(TSRP)《Improving Pseudo Labels With Intra-Class Similarity for Unsupervised Domain Adaptation》

论文信息 论文标题:Improving Pseudo Labels With Intra-Class Similarity for Unsupervised Domain Adaptation论文作者:Jie Wang, Xiaoli Zhang论文来源:论文地址:download 论文代码:dow ......

Cryptanalyzing and Improving a Novel Color Image Encryption Algorithm Using RT-Enhanced Chaotic Tent Maps

Cryptanalyzing and Improving a Novel ColorImage Encryption Algorithm Using RT-EnhancedChaotic Tent Maps 基于RT增强混沌帐篷映射的彩色图像加密算法 文章信息 博客内容仅用于学习。 CONGXU Z ......
共16篇  :1/1页 首页上一页1下一页尾页