论文

11月推荐阅读的12篇大语言模型相关论文

现在已经是12月了,距离2024年只有一个月了,本文总结了11月的一些比较不错的大语言模型相关论文 https://avoid.overfit.cn/post/ca7d20ae68dd4f54a69d7d2d5df51e8d ......
模型 语言 论文

Generative-Contrastive Graph Learning for Recommendation论文阅读笔记

Abstract 首先介绍了一下GCL的一些缺点,GCL是通过数据增强来构造对比视图,然后通过最大化对比视图之间的互信息来提供自监督信号。但是目前的数据增强技术都有着一定的缺点 结构增强随机退出节点或边,容易破坏用户项目的内在本质 特征增强对每个节点施加相同的尺度噪声增强,忽略的节点的独特特征 所以 ......

一段博士论文致谢

摘自:https://www.zhihu.com/question/58018004/answer/396042486 读博士的过程像西天取经一样,欲取得真经,需历尽万苦千辛。故事中的唐僧是个幸福的博士,有白龙马骑,有悟空的保护,有八戒的冷幽默,有悟净的分担,有漂亮女妖的惦记和多情。更有天朝的庇佑和 ......
博士 论文

简化版Transformer来了,网友:年度论文

前言 从大模型的根源开始优化。 本文转载自机器之心 仅用于学术分享,若侵权请联系删除 欢迎关注公众号CV技术指南,专注于计算机视觉的技术总结、最新技术跟踪、经典论文解读、CV招聘信息。 CV各大方向专栏与各个部署框架最全教程整理 【CV技术指南】CV全栈指导班、基础入门班、论文指导班 全面上线!! ......
Transformer 年度 网友 论文

简化版Transformer :Simplifying Transformer Block论文详解

在这篇文章中我将深入探讨来自苏黎世联邦理工学院计算机科学系的Bobby He和Thomas Hofmann在他们的论文“Simplifying Transformer Blocks”中介绍的Transformer技术的进化步骤。这是自Transformer 开始以来,我看到的最好的改进。 大型语言模 ......
Transformer Simplifying 论文 Block

[论文速览] R-Drop@ Regularized Dropout for Neural Networks

Pre title: R-Drop: Regularized Dropout for Neural Networks accepted: NeurIPS 2021 paper: https://arxiv.org/abs/2106.14448 code: https://github.com/dro ......
Regularized Networks Dropout R-Drop Neural

论文精读之Unet

提问: 1.将输入图像从1扩展为64的过程发生了什么?通道与通道之间的不同是如何实现的?其中的所有东西都是随机的吗? 2.怎样实现:"该 网 络 没 有 任 何 完 全 连 接 的 层 , 只 使 用 每 个 卷 积 的 有 效 部 分"中的“只 使 用 每 个 卷 积 的 有 效 部 分” 3.怎 ......
论文 Unet

【论文阅读笔记】【OCR-文本识别】 LISTER: Neighbor Decoding for Length-Insensitive Scene Text Recognition

LISTER ICCV 2023 读论文思考的问题 论文试图解决什么问题? 由于长尾效应和错误累积等原因,现有的文本识别模型对于长文本的识别能力较差 如何提高模型对于长度较长的文本的识别能力? 文章提出了什么样的解决方法? 提出了 LISTER 模型,引入了 neighbor matrix 的概念, ......

论文:Predicting Optical Water Quality Indicators from Remote Sensing Using Machine Learning Algorithms in Tropical Highlands of Ethiopia

水刊,中科院都没有收录。不属于sci。 吃一堑长一智,以后先看属于哪个期刊的。总是忘记。 期刊:Hydrology 浪费时间,啥也没有,没有创新点,就一点点的对比工作量。 “Predicting Optical Water Quality Indicators from Remote Sensing ......

论文:Predicting the performance of green stormwater infrastructure using multivariate long short-term memory (LSTM) neural network

题目“Predicting the performance of green stormwater infrastructure using multivariate long short-term memory (LSTM) neural network” (Al Mehedi 等, 2023, ......

VoxelNeXt论文解读

前言 VoxelNeXt是一个采用全稀疏卷积的3D目标检测方法,该方法启发自CenterPoint,将输入点云场景体素化后通过3D稀疏卷积提取3D体素特征,提取的特征经高度压缩后采用2D稀疏卷积Head预测。不同于CenterPoint通过热力图的方式预测各个目标的中心点,VoxelNeXt预测各个 ......
VoxelNeXt 论文

论文:FEED-FORWARD NETWORKS WITH ATTENTION CAN SOLVE SOME LONG-TERM MEMORY PROBLEMS

题目:FEED-FORWARD NETWORKS WITH ATTENTION CAN SOLVE SOME LONG-TERM MEMORY PROBLEMS” (Raffel 和 Ellis, 2016, p. 1) “带有注意力的前馈网络可以解决一些长期记忆问题” (Raffel 和 Elli ......

论文:Multistep ahead prediction of temperature and humidity in solar greenhouse based on FAM-LSTM model

Multistep ahead prediction of temperature and humidity in solar greenhouse based on FAM-LSTM model 基于 FAM-LSTM 模型的日光温室温湿度多步提前预测 题目:“Multistep ahead pr ......

论文阅读13-SCGC:Simple Contrastive Graph Clustering

论文阅读13-SCGC:Simple Contrastive Graph Clustering 存在的问题 由于对比学习的发展,设计了更加一致和有辨别力的对比损失函数来取代网络训练的聚类引导损失函数。结果,缓解了手动试错问题,并提高了聚类性能。然而,复杂的数据增强和耗时的图卷积操作降低了这些方法的效 ......
Contrastive Clustering Simple 论文 Graph

【略读论文|时序知识图谱补全】Tucker Decomposition with Frequency Attention for Temporal Knowledge Graph Completion

会议:ACL,时间:2023,学校:北京航空航天大学,多伦多大学 关键词:基于张量分解;频率注意力;正则化 摘要: 之前基于张量分解的TKGC模型存在仅独立考虑一种关系与一个时间戳的组合,忽略了嵌入的全局性质的问题。 本文的方法:一种频率注意力(FA)模型来捕获一个关系与整个时间戳之间的全局时间依赖 ......

vqvae 论文阅读

https://arxiv.org/abs/1711.00937 直接3.1 首先我们定义一个嵌入空间. 是K*D维度的. K是离散空间向量的数量. D是每一个向量的维度. 所以e_i 中的i属于 1到K. 模型的输入是x, 也就是图片. 然后模型编码成一个z_e(x). 然后使用最近算法来得到 z ......
论文 vqvae

如何写论文的笔记

#论题陈述 改善稀疏奖励的强化学习有助于移动机器人动态避障 #收集论证 #阅读文献-记录 阅读时做一个word文档,五列的表格。 第一列,文献标题。第二列,期刊名称。第三列,研究对象、问题。第四列,研究方法、理论、视角。第五列,数据来源。 为了对抗网络上不相关,不准确,动机险恶的信息,你们应该牢记一 ......
写论文 笔记

【论文解读】在上下文中学习创建任务向量

【论文解读】在上下文中学习创建任务向量 一、简要介绍 大型语言模型(LLMs)中的上下文学习(ICL)已经成为一种强大的新的学习范式。然而,其潜在的机制仍未被很好地了解。特别是,将其映射到“标准”机器学习框架是具有挑战性的,在该框架中,人们使用训练集S在某些假设类中找到最佳拟合函数f (x)。在这里 ......
向量 上下文 上下 任务 论文

【论文阅读笔记】【OCR-End2End】 ESTextSpotter: Towards Better Scene Text Spotting with Explicit Synergy in Transformer

ESTextSpotter ICCV 2023 读论文思考的问题 论文试图解决什么问题? 场景文本端到端识别任务中,检测和识别两个任务的协同作用十分关键,然而以往的方法通常用一些十分隐式的方式来体现这种协同作用(shared backbone, shared encoder, shared quer ......

【略读论文|时序知识图谱补全】Learn from Relational Correlations and Periodic Events for Temporal Knowledge Graph Reasoning

会议:SIGIR,时间:2023,学校:国防科技大学 摘要: 之前模型存在的问题:未能利用快照内结构信息的关系之间的语义相关性与快照间时间交互沿时间轴的周期性时间模式。 本文的工作:提出了一种新的推理模型(RPC);它通过两个新的通信单元,即关系通信单元(RCU)和周期通信单元(PCU),充分挖掘关 ......

如何使用markdown写毕业论文

step 1: pandoc: https://github.com/jgm/pandoc/releases step 2: pandoc-crossref: https://github.com/lierdakil/pandoc-crossref/releases step 3: pip3 ins ......
毕业论文 markdown 论文

论文阅读笔记:Revisiting Prototypical Network for Cross Domain Few-Shot Learning

标题:重新审视用于跨领域少样本学习的原型网络 研究背景: 问题背景:原型网络是一种流行的小样本学习方法, 其网络简单而直观,对于小样本学习问题有着较好的表现,尤其是在图像分类等领域。 存在问题:然而,当推广到跨领域的少样本分类任务时,其性能出现了大幅度下降,这严重限制了原型网络的实用性。 研究动机: ......

【略读论文|时序知识图谱补全】Hierarchical Self-Atention Embedding for Temporal Knowledge Graph Completion

会议:WWW,时间:2023,学校:东北大学计算机与通信工程学院 摘要: 目前TKGC模型存在的问题:只考虑实体或关系的结构信息,而忽略了整个TKG的结构信息。此外,它们中的大多数通常将时间戳视为一般特征,不能利用时间戳的潜在时间序列信息。 本文的方法:一种基于自注意机制和历时嵌入技术的分层自注意嵌 ......

【略读论文|时序知识图谱补全】DREAM: Adaptive Reinforcement Learning based on Attention Mechanism for Temporal Knowledge Graph Reasoning

会议:SIGIR,时间:2023,学校:苏州大学计算机科学与技术学院,澳大利亚昆士兰布里斯班大学信息技术与电气工程学院,Griffith大学金海岸信息通信技术学院 摘要: 原因:现在的时序知识图谱推理方法无法生成显式推理路径,缺乏可解释性。 方法迁移:由于强化学习 (RL) 用于传统知识图谱上的多跳 ......

【略读论文|时序知识图谱补全】Adaptive Path-Memory Network for Temporal Knowledge Graph Reasoning

会议:IJCAI,时间:2023,学校:1 中国科学院计算机网络信息中心,北京 2中国科学院大学,北京 3 澳门大学智慧城市物联网国家重点实验室,澳门 4 香港科技大学(广州),广州 5 佛罗里达大学计算机科学系,奥兰多 摘要: 提出一种新的具有TKG关联特征的体系结构建模方法,即自适应路径-记忆网 ......

【略读论文|时序知识图谱补全】Temporal Knowledge Graph Reasoning with Historical Contrastive Learning

会议:AAAI,时间:2023,学校:上海交通大学 摘要: 大多数时序知识图谱的推理方法高度依赖于事件的递归或周期性,这给推断与缺乏历史交互的实体相关的未来事件带来了挑战。本文提出一种新的基于历史对比学习训练框架的对比事件网络(CENET)的新事件预测模型。 1.CENET 学习历史和非历史依赖来区 ......

【略读论文|时序知识图谱补全】Logic and Commonsense-Guided Temporal Knowledge Graph Completion

会议:AAAI,时间:2023,学校:北京航空航天大学 文中谓词可以视为关系。 以往的TKG补全(TKGC)方法不能同时表示事件的时效性和因果关系。为了应对这些问题,作者提出了一个逻辑和尝试引导嵌入模型(LCGE ),从常识的角度共同学习涉及事件的及时性和因果关系的时间敏感表示,以及事件的时间无关表 ......

【论文阅读】OneNet Enhancing Time Series Forecasting Models under Concept Drift by Online Ensembling

原始题目:OneNet: Enhancing Time Series Forecasting Models under Concept Drift by Online Ensembling 中文翻译:OneNet:通过在线集成增强概念漂移下的时间序列预测模型 发表时间:2023年09月22日 平台: ......

【论文阅读】Improving language understanding by generative pre-training

原始题目:Improving language understanding by generative pre-training 中文翻译:通过生成预训练提高语言理解能力 发表时间:2018年 平台:Preprint 文章链接:https://www.mikecaptain.com/resource ......

【论文阅读】TimeGPT-1

原始题目:TimeGPT-1 中文翻译:TimeGPT-1 发表时间:2023年10月05日 平台:arXiv 文章链接:http://arxiv.org/abs/2310.03589 开源代码:无 摘要 在本文中,我们介绍了TimeGPT,这是第一个用于时间序列的基础模型,能够为训练过程中看不到的 ......
TimeGPT 论文