knowledge unifying language roadmap
论文阅读:Knowledge Distillation via the Target-aware Transformer
摘要 Knowledge distillation becomes a de facto standard to improve the performance of small neural networks. 知识蒸馏成为提高小型神经网络性能的事实上的标准。 Most of the previo ......
Internet-augmented language models through few-shot prompting for open-domain question answering阅读笔记
Internet-augmented language models through few-shot prompting for open-domain question answering 其实我没怎么正经读过论文,尤其是带实验的,我目前认真读过的(大部头)也就是一些LLM的综述。记录这个文档主 ......
(待完善)C/C++ Language Standard
C89/C90 (ANSI C or ISO C) was the first standardized version of the language, released in 1989 and 1990, respectively C99 (ISO/IEC 9899:1999) C11 (ISO ......
Running Large Language Models locally – Your own ChatGPT-like AI in C#
For the past few months, a lot of news in tech as well as mainstream media has been around ChatGPT, an Artificial Intelligence (AI) product by the fol ......
论文阅读:A Lightweight Knowledge Graph Embedding Framework for Efficient Inference and Storage
ABSTRACT 现存的KGE方法无法适用于大规模的图(由于存储和推理效率的限制) 作者提出了一种LightKG框架: 自动的推断出码本codebooks和码字codewords,为每个实体生成合适的embedding。 同时,框架中包含残差模块来实现码本的多样性,并且包含连续函数来近似的实现码字的 ......
8 Innovative BERT Knowledge Distillation Papers That Have Changed The Landscape of NLP
8 Innovative BERT Knowledge Distillation Papers That Have Changed The Landscape of NLP Contemporary state-of-the-art NLP models are difficult to be ut ......
TALL: Temporal Activity Localization via Language Query
1 introduction 确定任务:TALL(Temporal Activity Localization via Language):基于文本的时间活动定位,具体来说就是给定给定一个未修剪的视频和一个自然语言查询,目标是确定视频中所描述活动的开始和结束时间。 将视觉和文本特征嵌入到公共空间以获 ......
论文阅读:iterator zero-shot llm prompting for knowledge graph construction
Abstract 知识图谱,一种相互连接和可解释的结构。 生成需要更多的人力、领域知识、并需要适用于不同的应用领域。 本论文提出借助LLM,通过0-shot和外部知识不可知的情况下生成知识图谱。 主要贡献: 迭代的prompting提取最终图的相关部分 0-shot,不需要examples 一个可扩 ......
Unbiased Knowledge Distillation for Recommendation
目录概UnKD代码 Chen G., Chen J., Feng F., Zhou S. and He X. Unbiased knowledge distillation for recommendation. WSDM, 2023. 概 考虑流行度偏差的知识蒸馏, 应用于推荐系统. UnKD M ......
Knowledge Distillation from A Stronger Teacher
目录概DIST代码 Huang T., You S., Wang F., Qian C. and Xu C. Knowledge distillation from a stronger teacher. NIPS, 2022. 概 用 Pearson correlation coefficient ......
DE-RRD: A Knowledge Distillation Framework for Recommender System
目录概DE-RRDDistillation Experts (DE)Relaxed Ranking Distillation (RRD)代码 Kang S., Hwang J., Kweon W. and Yu H. DE-RRD: A knowledge distillation framewor ......
HTB-Unified靶场练习
靶机地址:10.129.96.149 攻击机地址:10.10.14.121 端口扫描 nmap -sC -A 10.129.96.149 发现四个端口: 22、6789、8080、8443 访问10.129.96.149:8080,页面跳转到 https:// 10.129.96.149:8443/ ......
Relational Knowledge Distillation
目录概符号说明RKD代码 Park W., Kim D., Lu Y. and Cho M. Relational knowledge distillation. CVPR, 2019. 概 符号说明 \(f_T, f_S\), teacher and student model; \(\mathc ......
ACL2022 paper1 CAKE: A Scalable Commonsense-Aware Framework for Multi-View Knowledge Graph Completion
CAKE:用于多视域知识图谱补全的可扩展常识感知框架 ACL2022 Abstract 知识图谱存储大规模事实三元组,然而不可避免的是图谱仍然具有不完整性。(问题)以往的只是图谱补全模型仅仅依赖于事实域数据进行实体之间缺失关系的预测,忽略了宝贵的常识知识。以往的知识图嵌入技术存在无效负抽样和事实域链 ......
Top Programming Languages 2023
### 排名 ![image-20230915101511549](https://img2023.cnblogs.com/blog/540671/202309/540671-20230915103621203-1185888455.png) ### 工作 ![image-2023091510152 ......
Training language models to follow instructions with human feedback
郑重声明:原文参见标题,如有侵权,请联系作者,将会撤销发布! NeurIPS 2022 ......
《PROMPT2MODEL: Generating Deployable Models from Natural Language Instructions》论文学习
一、Introduction 传统上,从零开始构建一个自然语言处理(NLP)模型是一项重大任务。一个寻求解决新问题的NLP从业者需要定义他们的任务范围,找到或创建目标任务领域的行为数据,选择合适的模型架构,训练模型,通过评估评估其性能,然后将其部署到实际应用中。 Prompt2Model is a ......
Recommendation as Instruction Following: A Large Language Model Empowered Recommendation Approach
原文地址:https://arxiv.org/abs/2305.07001 本文作者将用户偏好、意图等构建为指令,并用这些指令调优一个LLM(3B Flan-T5-XL),该方法对用户友好,用户可以与系统交流获取更准确的推荐。 ## INTRODUCTION LLM是建立在自然语言文本上的,它不能直 ......
Proj CDeepFuzz Paper Reading: Software Testing with Large Language Model: Survey, Landscape, and Vision
## Abstract 本文: Task: Review on the use of LLMs in software testing Method: 1. analyzes 52 relevant studies ## 1. Intro ![](https://img2023.cnblogs.co ......
通过提示大语言模型进行个性化推荐LLM-Rec: Personalized Recommendation via Prompting Large Language Models
论文原文地址:https://arxiv.org/abs/2307.15780 本文提出了一种提示LLM并使用其生成的内容增强推荐系统的输入的方法,提高了个性化推荐的效果。 ## LLM-Rec Prompting ![](https://img2023.cnblogs.com/blog/17994 ......
知识图谱Knowledge Spectrum
基于图的数据结构,由节点(Point)和边(Edge)组成。在知识图谱里,每个节点表示现实世界中存在的“实体”,每条边为实体与实体之间的“关系”。知识图谱是关系的最有效的表示方式。通俗地讲,知识图谱就是把所有不同种类的信息(Heterogeneous Information)连接在一起而得到的一个关 ......
大模型时代的推荐系统Recommender Systems in the Era of Large Language Models (LLMs)
文章地址:https://arxiv.org/abs/2307.02046 笔记中的一些小实验中的模型都是基于GPT-3.5架构的ChatGPT模型。 本文主要讲述了比较具有代表性的方法利用LLM去学习user和item的表示,从预训练、微调和提示三个范式回顾了近期用于增强推荐系统的LLM先进技术, ......
自然语言工具包(Natural Language Toolkit,简称NLTK) 简介
自然语言工具包(Natural Language Toolkit,简称NLTK)是一个广泛使用的Python库,用于处理和分析自然语言文本。它提供了各种工具和数据集,用于文本预处理、语言模型、词性标注、句法分析、语义分析、情感分析、文本分类等自然语言处理任务。 以下是NLTK的一些主要功能和特点: ......
knowledge Spectrum miscellaneous
WordNet WordNet is a dataset that describes the associative characteristics between English vocabulary words and also serves as a database. This datab ......
MySQL数据库:第十二章:(DDL)Data Define Language数据定义语言
回退至Mysql数据库理论与实战 #DDLData Define Language数据定义语言 关键字:create、alter、drop库的管理表的管理#一、库的管理#1、创建库#语法:create database [if not exists] 库名CREATE DATABASE IF NOT ......
MySQL数据库:第十四章:(DML)Data Manipulation Language数据操纵语言
回退至Mysql数据库理论与实战 #DML语句 ★ Data Manipulation Language数据操纵语言关键字:insert 、update 、delete USE stu0906;CREATE TABLE stuinfo(id INT,stuname VARCHAR(20) NOT N ......
Time-aware Path Reasoning on Knowledge Graph for Recommendation
[TOC] > [Zhao Y., Wang X., Chen J., Wang Y., Tang W., He X. and Xie H. Time-aware path reasoning on knowledge graph for recommendation. TOIS, 2022.](h ......
How Can Recommender Systems Benefit from Large Language Models: A Survey 阅读笔记
论文主要从LLM应用在推荐系统哪些部分以及LLM如何应用在推荐系统中,还讨论了目前LLM应用在RS中的一些问题。 ###Where? 推荐系统哪些部分哪里可以应用到大模型?文章中提到了特征工程、特征编码、评分/排序函数、推荐流程控制。 - LLM for Feature Engineering - ......
IDEA设置JAVA使用的编译语言Language level为8
设置这个为8 不然每次pom文件修改都会变更为5 pom.xml增加 <properties> <project.build.sourceEncoding>UTF-8</project.build.sourceEncoding> <java.version>8</java.version> </pr ......
How to choose your first programming language All In One
How to choose your first programming language All In One
如何选择你的第一门编程语言
......