transitive graph 1900

On Manipulating Signals of User-Item Graph A Jacobi Polynomial-based Graph Collaborative Filtering

[TOC] Guo J., Du L, Chen X., Ma X., Fu Q., Han S., Zhang D. and Zhang Y. On manipulating signals of user-item graph: A jacobi polynomial-based graph c ......

【略读论文|时序知识图谱补全】DREAM: Adaptive Reinforcement Learning based on Attention Mechanism for Temporal Knowledge Graph Reasoning

会议:SIGIR,时间:2023,学校:苏州大学计算机科学与技术学院,澳大利亚昆士兰布里斯班大学信息技术与电气工程学院,Griffith大学金海岸信息通信技术学院 摘要: 原因:现在的时序知识图谱推理方法无法生成显式推理路径,缺乏可解释性。 方法迁移:由于强化学习 (RL) 用于传统知识图谱上的多跳 ......

How Powerful are Spectral Graph Neural Networks?

目录概符号说明Spectral GNNChoice of Basis for Polynomial FiltersJacobiConv代码 Wang X. and Zhang M. How powerful are spectral graph neural networks? ICML, 2022 ......
Powerful Networks Spectral Neural Graph

【略读论文|时序知识图谱补全】Adaptive Path-Memory Network for Temporal Knowledge Graph Reasoning

会议:IJCAI,时间:2023,学校:1 中国科学院计算机网络信息中心,北京 2中国科学院大学,北京 3 澳门大学智慧城市物联网国家重点实验室,澳门 4 香港科技大学(广州),广州 5 佛罗里达大学计算机科学系,奥兰多 摘要: 提出一种新的具有TKG关联特征的体系结构建模方法,即自适应路径-记忆网 ......

【略读论文|时序知识图谱补全】Temporal Knowledge Graph Reasoning with Historical Contrastive Learning

会议:AAAI,时间:2023,学校:上海交通大学 摘要: 大多数时序知识图谱的推理方法高度依赖于事件的递归或周期性,这给推断与缺乏历史交互的实体相关的未来事件带来了挑战。本文提出一种新的基于历史对比学习训练框架的对比事件网络(CENET)的新事件预测模型。 1.CENET 学习历史和非历史依赖来区 ......

【略读论文|时序知识图谱补全】Logic and Commonsense-Guided Temporal Knowledge Graph Completion

会议:AAAI,时间:2023,学校:北京航空航天大学 文中谓词可以视为关系。 以往的TKG补全(TKGC)方法不能同时表示事件的时效性和因果关系。为了应对这些问题,作者提出了一个逻辑和尝试引导嵌入模型(LCGE ),从常识的角度共同学习涉及事件的及时性和因果关系的时间敏感表示,以及事件的时间无关表 ......

数据结构与算法 | 图(Graph)

在这之前已经写了数组、链表、二叉树、栈、队列等数据结构,本篇一起探究一个新的数据结构:图(Graphs )。在二叉树里面有着节点(node)的概念,每个节点里面包含左、右两个子节点指针;比对于图来说同样有着节点(node),在图里也称为顶点(vertex),顶点之间的关联不在局限于2个(左、右),一... ......
数据结构 算法 结构 数据 Graph

How Attentive are Graph Attention Networks?

目录概符号说明GATv2代码 Brody S., Alon U. and Yahav E. How attentive are graph attention networks? ICLR, 2022. 概 作者发现了 GAT 的 attention 并不能够抓住边的重要性, 于是提出了 GATv2 ......
Attentive Attention Networks Graph How

Decoupling the Depth and Scope of Graph Neural Networks

目录概符号说明Shadow-GNN代码 Zeng H., Zhang M., Xia Y., Srivastava A., Malevich A., Kannan R., Prasanna V., Jin L. and Chen R. Decoupling the depth and scope o ......
Decoupling Networks Neural Depth Scope

[Vue warn]: <transition-group> children must be keyed: <ElTag>

记录今天遇到的bug 解决方法,一个网友说的是 我试了,不行,然后在他的评论里面看到一个人回复的 这个是可以的,我用了很多v-if和v-else,所以加了key就解决了问题,下面是我加的 ......

自定义Graph Component:1.2-其它Tokenizer具体实现

本文主要介绍了Rasa中相关Tokenizer的具体实现,包括默认Tokenizer和第三方Tokenizer。前者包括JiebaTokenizer、MitieTokenizer、SpacyTokenizer和WhitespaceTokenizer,后者包括BertTokenizer和Another ......
Component Tokenizer Graph 1.2

自定义Graph Component:1-开发指南

可以使用自定义NLU组件和策略扩展Rasa,本文提供了如何开发自己的自定义Graph Component指南。 Rasa提供各种开箱即用的NLU组件和策略。可以使用自定义Graph Component对其进行自定义或从头开始创建自己的组件。 要在Rasa中使用自定义Graph Component,它 ......
开发指南 Component 指南 Graph

自定义Graph Component:1.1-JiebaTokenizer具体实现

JiebaTokenizer类继承自Tokenizer类,而Tokenizer类又继承自GraphComponent类,GraphComponent类继承自ABC类(抽象基类)。本文使用《使用ResponseSelector实现校园招聘FAQ机器人》中的例子,主要详解介绍JiebaTokenizer ......
JiebaTokenizer Component Graph 1.1

AT AGC043C - Giant Graph - 总结

AT AGC043C - Giant Graph 因为 \({(10^{18})}^{x+y+z}\) 的底数很大,所以我们贪心的选择 \(x+y+z\) 大的点是存在正确性的。那么我们从小点向大点连有向边,形成 DAG 后,对于一个点,如果它指向的点都没有被选取,那么选择它,否则不选。 我们发现这 ......
Giant Graph 043C AGC 043

rasa train nlu详解:1.2-_train_graph()函数

本文使用《使用ResponseSelector实现校园招聘FAQ机器人》中的例子,主要详解介绍_train_graph()函数中变量的具体值。 一.rasa/model_training.py/_train_graph()函数 _train_graph()函数实现,如下所示: def _train_ ......
train train_graph 函数 graph rasa

SuperGlue: Learning Feature Matching with Graph Neural Networks论文笔记

SuperGlue: Learning Feature Matching with Graph Neural Networks 源码: github.com/magicleap/SuperGluePretrainedNetwork 背景: 主要解决图像中点之间的对应关系。 主要方法: 上图为该方法的 ......
SuperGlue Learning Matching Networks Feature

[ARC105F] Lights Out on Connected Graph 题解

题意 给定一个 \(N\) 个点 \(M\) 条边的简单无向联通图 \(G\)。每个边有红和蓝两种颜色,初始时每条边均是红色。 现在通过移除 \(G\) 中的一些边来获得一个新的无向图 \(G^{\prime}\),求在所有的 \(2^M\) 种方案中有多少种方案可以使得 \(G^{\prime}\ ......
题解 Connected Lights Graph 105F

[ARC105E] Keep Graph Disconnected 题解

题意 给定一张由 \(N\) 个点和 \(M\) 条边组成的简单无向图 \(G\),定义一个无向图是好的当且仅当这张图满足以下条件: \(1\) 号节点和 \(N\) 号节点不联通 图中不存在重边和自环 现有两人轮流采取操作,每轮操作如下: 选择两个点 \(u, v\),将边 \((u, v)\) ......
题解 Disconnected Graph 105E Keep

题解 LOJ3483【[USACO21FEB] Counting Graphs P】

题解 P7418【[USACO21FEB] Counting Graphs P】 problem Bessie 有一个连通无向图 \(G\)。\(G\) 有 \(N\) 个编号为 \(1\ldots N\) 的结点,以及 \(M\) 条边(\(1\le N\le 10^2, N-1\le M\le ......
题解 Counting Graphs USACO 3483

【欧拉图】Euler Graph(Fluery算法,Hierholzer算法)

还在持续更新ing 前言 此乃小 Oler 的一篇算法随笔,从今日后,还会进行详细的修订。 注明:有参考自论文《欧拉图相关的生成与计数问题探究》 简单介绍 著名的哥尼斯堡七桥问题是18世纪著名的古典数学问题之一,该问题在相当长的时间里无人能解。欧拉经过研究,于1736年发表了论文《哥尼斯堡的七座桥》 ......
算法 Hierholzer Fluery Euler Graph

Nebula Graph开源分布式图数据库,万亿级数据,毫秒级延时

推荐一个分布式图数据库Nebula Graph,万亿级数据,毫秒级延时 什么是Nebula Graph Nebula Graph 是一款开源的、分布式的、易扩展的原生图数据库,能够承载包含数千亿个点和数万亿条边的超大规模数据集,并且提供毫秒级查询 什么是图数据库 图数据库是专门存储庞大的图形网络并从 ......
数据 分布式 数据库 Nebula Graph

Distilling Knowledge from Graph Convolutional Networks

目录概符号说明DistillGCNLocal Structure Preserving代码 Yang Y., Qiu J., Song M., Tao D. and Wang X. Distilling knowledge from graph convolutional networks. CVP ......

植物图形泛基因组Graph-based pan-genome

目录图形泛基因组的构建图泛构建方法获取和合并PAV变异图泛的存储格式线性参考基因组坐标的恢复图泛的可视化图泛的注释基因结构注释图泛的变异注释结构变异鉴定与基因分型图泛比对软件的优势图泛的应用功能元件的鉴定现有物种中的图泛规模基于图泛的GWAS未来应用结论与未来展望 图形泛基因组(图泛)以节点和路径的 ......

《Generic Dynamic Graph Convolutional Network for traffic flow forecasting》阅读笔记

论文标题 《Generic Dynamic Graph Convolutional Network for traffic flow forecasting》 干什么活:交通流预测(traffic flow forecasting ) 方法:动态图卷积网络(Dynamic Graph Convolu ......

Graph Neural Networks with Adaptive Residual

目录概符号说明AirGNN代码 Liu X., Ding J., Jin W., Xu H., Ma Y., Liu Z. and Tang J. Graph neural networks with adaptive residual. NIPS, 2021. 概 基于 UGNN 框架的一个更加鲁 ......
Adaptive Networks Residual Neural Graph

Is Homophily a Necessity for Graph Neural Networks?

目录概 Ma Y., Liu X., Shah N. and Tang J. Is homophily a necessity for graph neural networks? ICLR, 2022. 概 探究 Homophily 假设 (即相互连接的结点相似) 对于 GCN 发挥效果是否是必须 ......
Homophily Necessity Networks Neural Graph

神经网络基础篇:史上最详细_详解计算图(Computation Graph)

计算图 可以说,一个神经网络的计算,都是按照前向或反向传播过程组织的。首先计算出一个新的网络的输出(前向过程),紧接着进行一个反向传输操作。后者用来计算出对应的梯度或导数。计算图解释了为什么用这种方式组织这些计算过程。在这个博客中,将举一个例子说明计算图是什么。让举一个比逻辑回归更加简单的,或者说不 ......
网络基础 Computation 神经 基础 Graph

CF1800-1900

CF1490G Old Floppy Drive 首先判断是否可以在第一圈就符合题意,记录前缀和 \(sum\) 和 \(mx\) 数组,其中 \(mx_{i}\) 为 \(sum\) 从起点到 i 的最大值,即 \(mx_{i}=\max(mx_{i-1},sum_{i})\)。 显然如果在第一圈 ......
1800 1900 CF

css:transition tab切换 动态滑动效果

<template> <view class="tab"> <view class="item" :class="{'ac':active == 1}" @click="active = 1">item1</view> <view class="item" :class="{'ac':active ......
transition 效果 动态 css tab

GraphPrompt: Unifying Pre-Training and Downstream Tasks for Graph Neural Networks

目录概符号说明GraphPrompt代码 Liu Z., Yu X., Fang Y. and Zhang X. GraphPrompt: Unifying pre-training and downstream tasks for graph neural networks. WWW, 2023. ......