contextualized recommendation sequential attention
A Neural Influence Diffusion Model for Social Recommendation
[TOC] > [Wu L., Sun P., Fu Y., Hong R., Wang X. and Wang M. A neural influence diffusion model for social recommendation. SIGIR, 2019.](https://dl.acm ......
SocialLGN Light graph convolution network for social recommendation
[TOC] > [Liao J., Zhou W., Luo F., Wen J., Gao M., Li X. and Zeng J. SocialLGN: Light graph convolution network for social recommendation. Information ......
搭建小实战和Sequential的使用
# 搭建小实战和Sequential的使用 ## 模型搭建 以CIFAR 10 model结构为例搭建网络 **CIFAR 10 model结构** ![](https://img2023.cnblogs.com/blog/2934702/202308/2934702-202308152115118 ......
[AGC003E] Sequential operations on Sequence 题解
神仙思维题,那我的评价是太妙了。 ### 思路 我们发现正的十分难以维护这个过程。 考虑可以倒着进行这个操作。 容易发现对于整块,我们找到在前面第一个小于它的 $a_i$。 然后就会有一个贡献的转移,$f_i=f_{now}\times \frac{a_{now}}{a_i}$。 至于散块,我们发现 ......
论文解读(SimGCL)《Are Graph Augmentations Necessary? Simple Graph Contrastive Learning for Recommendation》
Note:[ wechat:Y466551 | 可加勿骚扰,付费咨询 ] 论文信息 论文标题:Are Graph Augmentations Necessary? Simple Graph Contrastive Learning for Recommendation论文作者:Junliang Yu ......
pytorch-两个PyTorch中的Sequential模型合并成一个
要将两个PyTorch中的Sequential模型合并成一个,你可以使用`nn.Sequential`的`add_module`方法或者直接使用`*`操作符来解包Sequential模型并将它们合并。以下是两种方法的示例: 方法一:使用`add_module`方法 ```python import ......
论文解读(LightGCL)《LightGCL: Simple Yet Effective Graph Contrastive Learning for Recommendation》
Note:[ wechat:Y466551 | 可加勿骚扰,付费咨询 ] 论文信息 论文标题:LightGCL: Simple Yet Effective Graph Contrastive Learning for Recommendation论文作者:Cai, Xuheng and Huang, ......
HS-GCN Hamming Spatial Graph Convolutional Networks for Recommendation
[TOC] > [Liu H., Wei Y., Yin J. and Nie L. HS-GCN: Hamming spatial graph convolutional networks for recommendation. IEEE TKDE.](https://arxiv.org/pdf/ ......
SIAMHAN:IPv6 Address Correlation Attacks on TLS E ncrypted Trafic via Siamese Heterogeneous Graph Attention Network解读
1. Address 论文来自于USENIX Security Symposium 2021 2. Paper summary 与ipv4地址采用nat掩盖不同,ipv6地址更加容易关联到用户活动上,从而泄露隐私。但现在已经有解决隐私担忧的方法被部署,导致现有的方法不再可靠。这篇文章发现尽管在有防护 ......
Attention机制竟有bug?Softmax是罪魁祸首,影响所有Transformer
前言 「大模型开发者,你们错了。」 本文转载自机器之心 仅用于学术分享,若侵权请联系删除 欢迎关注公众号CV技术指南,专注于计算机视觉的技术总结、最新技术跟踪、经典论文解读、CV招聘信息。 CV各大方向专栏与各个部署框架最全教程整理 【CV技术指南】CV全栈指导班、基础入门班、论文指导班 全面上线! ......
斯坦福博士一己之力让Attention提速9倍!FlashAttention燃爆显存,Transformer上下文长度史诗级提升
前言 FlashAttention新升级!斯坦福博士一人重写算法,第二代实现了最高9倍速提升。 本文转载自新智元 仅用于学术分享,若侵权请联系删除 欢迎关注公众号CV技术指南,专注于计算机视觉的技术总结、最新技术跟踪、经典论文解读、CV招聘信息。 CV各大方向专栏与各个部署框架最全教程整理 【CV技 ......
self-attention
Self attention考虑了整个sequence的资讯【transfermer中重要的架构是self-attention】 解决sequence2sequence的问题,考虑前后文 I saw a saw 第一个saw对应输出动词 第二个输出名词 如何计算相关性【attention score ......
Unified Conversational Recommendation Policy Learning via Graph-based Reinforcement Learning
图的作用: 图结构捕捉不同类型节点(即用户、项目和属性)之间丰富的关联信息,使我们能够发现协作用户对属性和项目的偏好。因此,我们可以利用图结构将推荐和对话组件有机地整合在一起,其中对话会话可以被视为在图中维护的节点序列,以动态地利用对话历史来预测下一轮的行动。 由四个主要组件组成:基于图的 MDP ......
粗读Multi-Task Recommendations with Reinforcement Learning
论文: Multi-Task Recommendations with Reinforcement Learning 地址: https://arxiv.org/abs/2302.03328 # 摘要 In recent years, Multi-task Learning (MTL) has yi ......
seq2seq+attention的个人理解
[toc] ## RNN 经典的RNN结构: ![image](https://img2023.cnblogs.com/blog/2560090/202307/2560090-20230714165034348-527906121.png) 这是经典的RNN结构,输入向量是: ![image](ht ......
MEANTIME Mixture of Attention Mechanisms with Multi-temporal Embeddings for Sequential Recommendation
[TOC] > [Cho S., Park E. and Yoo S. MEANTIME: Mixture of attention mechanisms with multi-temporal embeddings for sequential recommendation. RecSys, 20 ......
LEA: Improving Sentence Similarity Robustness to Typos Using Lexical Attention Bias 论文阅读
# LEA: Improving Sentence Similarity Robustness to Typos Using Lexical Attention Bias 论文阅读 KDD 2023 [原文地址](https://arxiv.org/abs/2307.02912) ## Introd ......
【论文阅读】CrossViT:Cross-Attention Multi-Scale Vision Transformer for Image Classification
> # 🚩前言 > > - 🐳博客主页:😚[睡晚不猿序程](https://www.cnblogs.com/whp135/)😚 > - ⌚首发时间:23.7.10 > - ⏰最近更新时间:23.7.10 > - 🙆本文由 **睡晚不猿序程** 原创 > - 🤡作者是蒻蒟本蒟,如果文章里有 ......
Multi-Modal Attention Network Learning for Semantic Source Code Retrieval 解读
# Multi-Modal Attention Network Learning for Semantic Source Code Retrieva Multi-Modal Attention Network Learning for Semantic Source Code Retrieval,题 ......
Memory Augmented Graph Neural Networks for Sequential Recommendation
[TOC] > [Ma C., Ma L., Zhang Y., Sun J., Liu X. and Coates M. Memory augmented graph neural networks for sequential recommendation. AAAI, 2021.](http: ......
【论文阅读】CrossFormer: A Versatile Vision Transformer Based on Cross-scale Attention
来自CVPR 2021 论文地址:https://link.zhihu.com/?target=https%3A//arxiv.org/pdf/2108.00154.pdf 代码地址:https://link.zhihu.com/?target=https%3A//github.com/cheers ......
4.1 Self-attention
# 1. 问题引入 我们在之前的课程里遇到的都是输入是一个向量,输出是类别或者标量.但如果输入是向量的集合且向量长度还会变化,又应该怎么处理呢? ![image](https://img2023.cnblogs.com/blog/2264614/202307/2264614-202307021649 ......
关于Deep Neural Networks for YouTube Recommendations的一些思考和实现
作者自己实现该文章的时候遇到的一些值得思考的地方: - [关于Deep Neural Networks for YouTube Recommendations的一些思考和实现](https://cloud.tencent.com/developer/article/1170340) - [备份网址] ......
什么是 Kernel Smoother ?它与 Self Attention 有什么关系?
[1] **带权滑动平均(Weighted Moving Average, WMA)** 是标量场上的滑动窗口内的加权平均,数学上等价于卷积。[^WMA] [2] **Kernel Smoother** 是一种特殊的 WMA 方法,特殊在于权重是由**核函数**决定的,相互之间越接近的点具有越高的权 ......
Attention is All you need
转载:https://zhuanlan.zhihu.com/p/46990010 Attention机制最早在视觉领域提出,2014年Google Mind发表了《Recurrent Models of Visual Attention》,使Attention机制流行起来,这篇论文采用了RNN模型, ......
Self-attention with Functional Time Representation Learning
[TOC] > [Xu D., Ruan C., Kumar S., Korpeoglu E. and Achan K. Self-attention with functional time representation learning. NIPS, 2019.](http://arxiv.or ......
Graph Masked Autoencoder for Sequential Recommendation
[TOC] > [Ye Y., Xia L. and Huang C. Graph masked autoencoder for sequential recommendation. SIGIR, 2023.](http://arxiv.org/abs/2305.04619) ## 概 图 + MA ......
混合性对话:Towards Conversational Recommendation over Multi-Type Dialogs
## 混合型对话 传统的人机对话研究专注于单一类型的对话,并且往往预设用户一开始就清楚对话目标。但实际应用中,人机对话常常混合了多种类型,例如闲聊、任务导向对话、推荐对话、问答等,并且用户目标是未知的。在这样的混合型对话中,机器人需要主动自然地进行对话推荐。 “混合型对话”这个新颖的任务于2020年 ......
Time Interval Aware Self-Attention for Sequential Recommendation
[TOC] > [Li J., Wang Y., McAuley J. Time interval aware self-attention for sequential recommendation. WSDM, 2020.](https://dl.acm.org/doi/10.1145/3336 ......