写论文introduction abstract摘要

简化版Transformer :Simplifying Transformer Block论文详解

前言 本文探讨了来自苏黎世联邦理工学院计算机科学系的Bobby He和Thomas Hofmann在他们的论文“Simplifying Transformer Blocks”中介绍的Transformer技术的进化步骤。这是自Transformer 开始以来,我看到的最好的改进。 本文转载自Deep ......
Transformer Simplifying 论文 Block

11月推荐阅读的12篇大语言模型相关论文

现在已经是12月了,距离2024年只有一个月了,本文总结了11月的一些比较不错的大语言模型相关论文 https://avoid.overfit.cn/post/ca7d20ae68dd4f54a69d7d2d5df51e8d ......
模型 语言 论文

Generative-Contrastive Graph Learning for Recommendation论文阅读笔记

Abstract 首先介绍了一下GCL的一些缺点,GCL是通过数据增强来构造对比视图,然后通过最大化对比视图之间的互信息来提供自监督信号。但是目前的数据增强技术都有着一定的缺点 结构增强随机退出节点或边,容易破坏用户项目的内在本质 特征增强对每个节点施加相同的尺度噪声增强,忽略的节点的独特特征 所以 ......

一段博士论文致谢

摘自:https://www.zhihu.com/question/58018004/answer/396042486 读博士的过程像西天取经一样,欲取得真经,需历尽万苦千辛。故事中的唐僧是个幸福的博士,有白龙马骑,有悟空的保护,有八戒的冷幽默,有悟净的分担,有漂亮女妖的惦记和多情。更有天朝的庇佑和 ......
博士 论文

Python 潮流周刊第 29 期(摘要)

本周刊由 Python猫 出品,精心筛选国内外的 250+ 信息源,为你挑选最值得分享的文章、教程、开源项目、软件工具、播客和视频、热门话题等内容。愿景:帮助所有读者精进 Python 技术,并增长职业和副业的收入。 周刊全文:https://pythoncat.top/posts/2023-12- ......
周刊 摘要 潮流 Python 29

简化版Transformer来了,网友:年度论文

前言 从大模型的根源开始优化。 本文转载自机器之心 仅用于学术分享,若侵权请联系删除 欢迎关注公众号CV技术指南,专注于计算机视觉的技术总结、最新技术跟踪、经典论文解读、CV招聘信息。 CV各大方向专栏与各个部署框架最全教程整理 【CV技术指南】CV全栈指导班、基础入门班、论文指导班 全面上线!! ......
Transformer 年度 网友 论文

简化版Transformer :Simplifying Transformer Block论文详解

在这篇文章中我将深入探讨来自苏黎世联邦理工学院计算机科学系的Bobby He和Thomas Hofmann在他们的论文“Simplifying Transformer Blocks”中介绍的Transformer技术的进化步骤。这是自Transformer 开始以来,我看到的最好的改进。 大型语言模 ......
Transformer Simplifying 论文 Block

[论文速览] R-Drop@ Regularized Dropout for Neural Networks

Pre title: R-Drop: Regularized Dropout for Neural Networks accepted: NeurIPS 2021 paper: https://arxiv.org/abs/2106.14448 code: https://github.com/dro ......
Regularized Networks Dropout R-Drop Neural

论文精读之Unet

提问: 1.将输入图像从1扩展为64的过程发生了什么?通道与通道之间的不同是如何实现的?其中的所有东西都是随机的吗? 2.怎样实现:"该 网 络 没 有 任 何 完 全 连 接 的 层 , 只 使 用 每 个 卷 积 的 有 效 部 分"中的“只 使 用 每 个 卷 积 的 有 效 部 分” 3.怎 ......
论文 Unet

【论文阅读笔记】【OCR-文本识别】 LISTER: Neighbor Decoding for Length-Insensitive Scene Text Recognition

LISTER ICCV 2023 读论文思考的问题 论文试图解决什么问题? 由于长尾效应和错误累积等原因,现有的文本识别模型对于长文本的识别能力较差 如何提高模型对于长度较长的文本的识别能力? 文章提出了什么样的解决方法? 提出了 LISTER 模型,引入了 neighbor matrix 的概念, ......

论文:Predicting Optical Water Quality Indicators from Remote Sensing Using Machine Learning Algorithms in Tropical Highlands of Ethiopia

水刊,中科院都没有收录。不属于sci。 吃一堑长一智,以后先看属于哪个期刊的。总是忘记。 期刊:Hydrology 浪费时间,啥也没有,没有创新点,就一点点的对比工作量。 “Predicting Optical Water Quality Indicators from Remote Sensing ......

论文:Predicting the performance of green stormwater infrastructure using multivariate long short-term memory (LSTM) neural network

题目“Predicting the performance of green stormwater infrastructure using multivariate long short-term memory (LSTM) neural network” (Al Mehedi 等, 2023, ......

VoxelNeXt论文解读

前言 VoxelNeXt是一个采用全稀疏卷积的3D目标检测方法,该方法启发自CenterPoint,将输入点云场景体素化后通过3D稀疏卷积提取3D体素特征,提取的特征经高度压缩后采用2D稀疏卷积Head预测。不同于CenterPoint通过热力图的方式预测各个目标的中心点,VoxelNeXt预测各个 ......
VoxelNeXt 论文

论文:FEED-FORWARD NETWORKS WITH ATTENTION CAN SOLVE SOME LONG-TERM MEMORY PROBLEMS

题目:FEED-FORWARD NETWORKS WITH ATTENTION CAN SOLVE SOME LONG-TERM MEMORY PROBLEMS” (Raffel 和 Ellis, 2016, p. 1) “带有注意力的前馈网络可以解决一些长期记忆问题” (Raffel 和 Elli ......

Programming Abstractions in C阅读笔记:p202-p234

《Programming Abstractions in C》学习第65天,p202-p234总结。 一、技术总结 完成第五章学习,第五章介绍递归在实际问题中的进一步应用,例如汉诺塔问题,数学中的排列问题,更有难度。使用递归解决问题时有时候需要借助wrapper function。 二、英语总结 1 ......
Abstractions Programming 笔记 202 234

论文:Multistep ahead prediction of temperature and humidity in solar greenhouse based on FAM-LSTM model

Multistep ahead prediction of temperature and humidity in solar greenhouse based on FAM-LSTM model 基于 FAM-LSTM 模型的日光温室温湿度多步提前预测 题目:“Multistep ahead pr ......

论文阅读13-SCGC:Simple Contrastive Graph Clustering

论文阅读13-SCGC:Simple Contrastive Graph Clustering 存在的问题 由于对比学习的发展,设计了更加一致和有辨别力的对比损失函数来取代网络训练的聚类引导损失函数。结果,缓解了手动试错问题,并提高了聚类性能。然而,复杂的数据增强和耗时的图卷积操作降低了这些方法的效 ......
Contrastive Clustering Simple 论文 Graph

Programming Abstractions in C阅读笔记:p197-p201

《Programming Abstractions in C》学习第64天,p196-p201总结。 一、技术总结 很难,唯有继续往下看才能让其变容易。 二、英语总结 1.psychologically是什么意思? 答: (1))psychology > psychological > psycho ......
Abstractions Programming 笔记 197 201

【略读论文|时序知识图谱补全】Tucker Decomposition with Frequency Attention for Temporal Knowledge Graph Completion

会议:ACL,时间:2023,学校:北京航空航天大学,多伦多大学 关键词:基于张量分解;频率注意力;正则化 摘要: 之前基于张量分解的TKGC模型存在仅独立考虑一种关系与一个时间戳的组合,忽略了嵌入的全局性质的问题。 本文的方法:一种频率注意力(FA)模型来捕获一个关系与整个时间戳之间的全局时间依赖 ......

vqvae 论文阅读

https://arxiv.org/abs/1711.00937 直接3.1 首先我们定义一个嵌入空间. 是K*D维度的. K是离散空间向量的数量. D是每一个向量的维度. 所以e_i 中的i属于 1到K. 模型的输入是x, 也就是图片. 然后模型编码成一个z_e(x). 然后使用最近算法来得到 z ......
论文 vqvae

如何写论文的笔记

#论题陈述 改善稀疏奖励的强化学习有助于移动机器人动态避障 #收集论证 #阅读文献-记录 阅读时做一个word文档,五列的表格。 第一列,文献标题。第二列,期刊名称。第三列,研究对象、问题。第四列,研究方法、理论、视角。第五列,数据来源。 为了对抗网络上不相关,不准确,动机险恶的信息,你们应该牢记一 ......
写论文 笔记

gitlab runner 使用摘要

参考文档 GitLab Runner runs the CI/CD jobs that are defined in GitLab GitLab Runner is open-source and written in Go. It can run as a single binary and ha ......
摘要 gitlab runner

Gitlab Docker 使用摘要

官方文档: https://docs.gitlab.com/ee/install/docker.html#expose-gitlab-on-different-ports 设置本地目录 设置环境变量 GITLAB_HOME export GITLAB_HOME=/srv/gitlab 安装 启动脚本 ......
摘要 Gitlab Docker

【论文解读】在上下文中学习创建任务向量

【论文解读】在上下文中学习创建任务向量 一、简要介绍 大型语言模型(LLMs)中的上下文学习(ICL)已经成为一种强大的新的学习范式。然而,其潜在的机制仍未被很好地了解。特别是,将其映射到“标准”机器学习框架是具有挑战性的,在该框架中,人们使用训练集S在某些假设类中找到最佳拟合函数f (x)。在这里 ......
向量 上下文 上下 任务 论文

【论文阅读笔记】【OCR-End2End】 ESTextSpotter: Towards Better Scene Text Spotting with Explicit Synergy in Transformer

ESTextSpotter ICCV 2023 读论文思考的问题 论文试图解决什么问题? 场景文本端到端识别任务中,检测和识别两个任务的协同作用十分关键,然而以往的方法通常用一些十分隐式的方式来体现这种协同作用(shared backbone, shared encoder, shared quer ......

【略读论文|时序知识图谱补全】Learn from Relational Correlations and Periodic Events for Temporal Knowledge Graph Reasoning

会议:SIGIR,时间:2023,学校:国防科技大学 摘要: 之前模型存在的问题:未能利用快照内结构信息的关系之间的语义相关性与快照间时间交互沿时间轴的周期性时间模式。 本文的工作:提出了一种新的推理模型(RPC);它通过两个新的通信单元,即关系通信单元(RCU)和周期通信单元(PCU),充分挖掘关 ......

如何使用markdown写毕业论文

step 1: pandoc: https://github.com/jgm/pandoc/releases step 2: pandoc-crossref: https://github.com/lierdakil/pandoc-crossref/releases step 3: pip3 ins ......
毕业论文 markdown 论文

论文阅读笔记:Revisiting Prototypical Network for Cross Domain Few-Shot Learning

标题:重新审视用于跨领域少样本学习的原型网络 研究背景: 问题背景:原型网络是一种流行的小样本学习方法, 其网络简单而直观,对于小样本学习问题有着较好的表现,尤其是在图像分类等领域。 存在问题:然而,当推广到跨领域的少样本分类任务时,其性能出现了大幅度下降,这严重限制了原型网络的实用性。 研究动机: ......

Grafana学习(8)——Introduction to Alerting

Whether you’re just starting out or you’re a more experienced user of Grafana Alerting, learn more about the fundamentals and available features that ......
Introduction Alerting Grafana to

Grafana学习(6)——Introduction to exemplars及Glossary

An exemplar is a specific trace representative of measurement taken in a given time interval. While metrics excel at giving you an aggregated view of ......
Introduction exemplars Glossary Grafana to