hallucination幻觉llm

解密Prompt系列13. LLM Agent-指令微调方案: Toolformer & Gorilla

本章介绍基于模型微调,支持任意多工具组合调用,复杂工具调用的方案。工具调用的核心是3个问题:在哪个位置使用工具,使用什么工具,如何生成调用语句 - Gorilla & Toolformer ......
指令 Toolformer Gorilla 方案 Prompt

关于 LLM 和图数据库、知识图谱的那些事

本文着重介绍了 LLM、RAG、Graph 是什么,以及 LLM 如何同知识图谱结合,让知识抽取更加便利。此外,还讲述了一些 LLM 在数据库领域的应用场景,比如:用自然语言查询数据。 ......
图谱 数据库 知识 数据 LLM

[LLM] 开源 AI 大语言模型的本地化定制实践

LLM(Large Language Model,大型语言模型)是一种基于深度学习的自然语言处理模型,旨在理解和生成人类语言。 它们在大量的文本数据上进行训练,可以执行广泛的任务,包括文本总结、翻译、情感分析等等。 LLM的特点是规模庞大,包含数十亿的参数,帮助它们学习语言数据中的复杂模式。 本文假 ......
模型 语言 LLM AI

云原生 AI 工程化实践之 FasterTransformer 加速 LLM 推理

*作者:颜廷帅(瀚廷)* ## 01 背景 OpenAI 在 3 月 15 日发布了备受瞩目的 GPT4,它在司法考试和程序编程领域的惊人表现让大家对大语言模型的热情达到了顶点。人们纷纷议论我们是否已经跨入通用人工智能的时代。与此同时,基于大语言模型的应用也如雨后春笋般出现,为我们带来了协同办公、客 ......
FasterTransformer 工程 LLM AI

最流行的开源 LLM (大语言模型)整理

本文对国内外公司、科研机构等组织开源的 LLM 进行了全面的整理。 Large Language Model (LLM) 即大规模语言模型,是一种基于深度学习的自然语言处理模型,它能够学习到自然语言的语法和语义,从而可以生成人类可读的文本。 所谓"语言模型",就是只用来处理语言文字(或者符号体系)的 ......
模型 语言 LLM

在消费级GPU调试LLM的三种方法:梯度检查点,LoRA和量化

前言 LLM的问题就是权重参数太大,无法在我们本地消费级GPU上进行调试,所以我们将介绍3种在训练过程中减少内存消耗,节省大量时间的方法:梯度检查点,LoRA和量化。 本文转载自DeepHub IMBA 仅用于学术分享,若侵权请联系删除 欢迎关注公众号CV技术指南,专注于计算机视觉的技术总结、最新技 ......
检查点 梯度 方法 LoRA GPU

LLM部署

# LLM部署 ## 如何从huggingface上下载模型 ### 安装git-lfs ```shell curl -s https://packagecloud.io/install/repositories/github/git-lfs/script.deb.sh | sudo bash su ......
LLM

缓解针对LLM应用程序的存储提示注入攻击

提示注入攻击是大型语言模型 (LLM) 应用程序安全新世界中的热门话题。由于恶意文本在系统中的存储方式,这些攻击是独一无二的。 ......
应用程序 程序 LLM

使用LLM在移动设备上实现对话交互

在“使用大型语言模型启用与移动 UI 的对话交互”,在CHI 2023,我们研究了利用大型语言模型(LLM)实现与移动UI的各种基于语言的交互的可行性。最近预先训练的LLM,例如手掌... ......
设备 LLM

从 GPT4All 体验 LLM

大型语言模型最近变得流行起来。ChatGPT很时髦。尝试 ChatGPT 以了解 LLM 的内容很容易,但有时,您可能需要一个可以在您的计算机上运行的离线替代方案。在这篇文章中,您将了解 GPT4All 作为可以安装在计算机上的 LLM。 ......
GPT4All 4All GPT4 GPT All

Flowise AI:用于构建LLM流的拖放UI

围绕大型语言模型(LLM)的炒作正在持续增长,越来越多的公司发布了让人们的生活更轻松的工具。那么,这些工具究竟是什么帮助构建了LLM的世界呢?嗯,其中之一是Flowise AI ......
Flowise LLM

在消费级GPU调试LLM的三种方法:梯度检查点,LoRA和量化

LLM的问题就是权重参数太大,无法在我们本地消费级GPU上进行调试,所以我们将介绍3种在训练过程中减少内存消耗,节省大量时间的方法:梯度检查点,LoRA和量化。 梯度检查点 梯度检查点是一种在神经网络训练过程中使动态计算只存储最小层数的技术。 为了理解这个过程,我们需要了解反向传播是如何执行的,以及 ......
检查点 梯度 方法 LoRA GPU

AI +悦数图数据库:图技术与大语言模型 LLM 结合,打造下一代知识图谱应用

随着 AI 人工智能技术的迅猛发展和自然语言处理领域的研究日益深入,如何构建强大的大语言模型对于企业来说愈发重要,而图数据库作为处理复杂数据结构的有力工具,为企业构建行业大语言模型提供了强大的支持。 近日,国产企业级分布式图数据库——悦数图数据库正式发布了图+ AI 大模型解决方案,率先实现了基于自 ......
图谱 下一代 模型 语言 数据库

John Schulman:RLHF的实施与挑战 —— 通过强化学习缓解大模型输出幻觉(Hallucinations)的思考

John Schulman,研究科学家、OpenAI联合创始人;加州大学伯克利分校计算机科学博士,师从Pieter Abbeel。现领导OpenAI强化学习团队。 本文是对John Schulman(下文中简称为JS)的报告《Reinforcement Learning from Human Fee ......
Hallucinations 幻觉 Schulman 模型 John

大模型(LLM)最新趋势总结

关键结论: 开源社区模型不具备真正智能,更好的小模型来自大模型的 Scale Down GPT-4模型信息:采用MoE架构,16个experts,800b参数 如何减少幻觉 hallucination?scaling/retrieval/reward model 指令遵循的开源小模型被过度炒作,已经 ......
模型 趋势 LLM

LangChain:打造自己的LLM应用

LangChain是一个框架,用于开发由LLM驱动的应用程序。可以简单认为是LLM领域的Spring,以及开源版的ChatGPT插件系统 ......
LangChain LLM

graph db+LLM

直接用LLM是不精确的,需要结合graph DB+LLM,参见: https://medium.com/neo4j/harnessing-large-language-models-with-neo4j-306ccbdd2867 https://neo4j.com/developer-blog/fi ......
graph LLM db

Knowledge-QA-LLM: 基于本地知识库+LLM的问答系统

## ⚠️注意:后续更新,请移步[README](https://github.com/RapidAI/Knowledge-QA-LLM) ## Knowledge QA LLM =3.8, - 基于本地知识库+LLM的问答系统。该项目的思路是由[langchain-ChatGLM](https:/ ......

解密Prompt系列12. LLM Agent零微调范式 ReAct & Self Ask

这一章我们正式进入大模型应用,聊聊如何把思维链和工具使用结合得到人工智能代理。先介绍基于Prompt的零微调方案Self Ask和React,我们会结合langchain写个简单的Agent来玩一玩 ......
范式 Prompt Agent ReAct Self

图技术在 LLM 下的应用:知识图谱驱动的大语言模型 Llama Index

LLM 如火如荼地发展了大半年,各类大模型和相关框架也逐步成型,可被大家应用到业务实际中。在这个过程中,我们可能会遇到一类问题是:现有的哪些数据,如何更好地与 LLM 对接上。像是大家都在用的知识图谱,现在的图谱该如何借助大模型,发挥更大的价值呢? ......
图谱 模型 语言 知识 Index

LLM-Blender:大语言模型也可以进行集成学习

最近在看arxiv的时候发现了一个有意思的框架:LLM-Blender,它可以使用Ensemble 的方法来对大语言模型进行集成。 官方介绍如下:LLM-Blender是一个集成框架,可以通过利用多个开源大型语言模型(llm)的不同优势来获得始终如一的卓越性能。 LLM集成 我们都知道集成学习是一种 ......
LLM-Blender 模型 Blender 语言 LLM

用 Hugging Face 推理端点部署 LLM

开源的 LLM,如 [Falcon](https://huggingface.co/tiiuae/falcon-40b)、[(Open-)LLaMA](https://huggingface.co/openlm-research/open_llama_13b)、[X-Gen](https://hug ......
端点 Hugging Face LLM

LLM is all you need for the backend

一、LLM给软件开发范式带来了什么改变? 人们一直在说Github Copilot将取代程序员。我们认为这是错误的。我们已经有了类似GPT-4这种强大的LLM模型,却还要把自己限制在编写传统代码上吗?不!所有代码都有bug! 代码不是对业务逻辑进行编码的理想方式,代码必须经过审查,并且它按照程序员的 ......
backend need LLM all for

本地运行MLC-LLM对话模型体验

## 摘要 在macOS (Apple M2芯片)计算机运行MLC-LLM对话模型。 ## MLC-LLM简介 [https://mlc.ai/mlc-llm/#windows-linux-mac] [开源 AI 聊天机器人 MLC LLM 发布,完全本地运行无需联网](https://github ......
模型 MLC-LLM MLC LLM

语言模型的预训练[6]:思维链(Chain-of-thought,CoT)定义原理详解、Zero-shot CoT、Few-shot CoT 以及在LLM上应用

语言模型的预训练[6]:思维链(Chain-of-thought,CoT)定义原理详解、Zero-shot CoT、Few-shot CoT 以及在LLM上应用 ......
CoT Chain-of-thought shot Zero-shot Few-shot

大语言模型的预训练[5]:语境学习、上下文学习In-Context Learning:精调LLM、Prompt设计和打分函数设计以及ICL底层机制等原理详解

大语言模型的预训练[5]:语境学习、上下文学习In-Context Learning:精调LLM、Prompt设计和打分函数设计以及ICL底层机制等原理详解 ......
上下文 语境 底层 In-Context 函数

LLM + TensorRT 采坑记录

TensorRT的使用,尝试对LLM进行加速。本文为采坑记录 环境:ubuntu20.04, cuda 12.2, pytorch 2.0.1, tensorrt 8.6.1, torch_tensorrt 1.4.0, transformer 0.6.0 设备有限,仅打算尝试[opt-1.3b]( ......
TensorRT LLM

人工智能LLM模型:奖励模型的训练、PPO 强化学习的训练、RLHF

# 人工智能LLM模型:奖励模型的训练、PPO 强化学习的训练、RLHF # 1.奖励模型的训练 ## 1.1大语言模型中奖励模型的概念 在大语言模型完成 SFT 监督微调后,下一阶段是构建一个奖励模型来对问答对作出得分评价。奖励模型源于强化学习中的奖励函数,能对当前的状态刻画一个分数,来说明这个状 ......
模型 人工智能 人工 智能 RLHF

吴恩达《LangChain for LLM Application Development》课程笔记

1. 前言LangChain是一个用来构建LLM应用的开源框架,主要是为基于大语言模型的应用提供一系列的构建工具包。这个短课程的主要内容有:模型、提示和解析器:调用LLM,提供提示并解析响应。LLM的记忆:用于存储对话和管理有限上下文空间的记忆。链式操作:创建操作序列。文档问答:将LLM应用于您的专 ......

Open LLM 排行榜近况

Open LLM 排行榜是 Hugging Face 设立的一个用于评测开放大语言模型的公开榜单。最近,随着 [**Falcon 🦅**](https://huggingface.co/tiiuae/falcon-40b) 的发布并在 [Open LLM 排行榜](https://huggingf ......
近况 排行榜 Open LLM