performance maximizing techniques llm

cleaning of llm corpus 大模型语料清洗

cleaning of llm corpus 大模型语料清洗 数据是人工智能领域发展的基础要素之一。随着大规模预训练模型及相关技术不断取得突破,在相应研究中使用高效数据处理工具提升数据质量变得越来越重要。llm_corpus_quality集成了包含清洗、敏感词过滤、广告词过滤、语料质量自动评估等功 ......
语料 cleaning 模型 corpus llm

2024-01-13 Can't perform a React state update on an unmounted component. This is a no-op, but it indicates a memory leak in your application. ==》引用了未使用的方法导致

react+antd业务代码报错: Can't perform a React state update on an unmounted component. This is a no-op, but it indicates a memory leak in your application. T ......

LLM series: Transformer

🥥 Homepage Dataset, DataLoader, and Transforms Model Traning Model 🥑 Get Started! Import libraries: import torch import torch.nn as nn import torch. ......
Transformer series LLM

大语言模型LLM幻觉的解决方法:检索增强生成RAG

当你向大语言模型LLMs集成的问答系统平台咨询医疗方面的问题,比如呼吸道感染应该怎么治疗,它可能直接给出答案,但不会提供这个答案的依据来源,这是因为大语言模型应用过程中还存在答案透明度不足的缺陷导致。此外,大语言模型还有知识更新的滞后性、在处理复杂任务时的准确性的问题。 为了解决这些问题,检索增强生 ......
幻觉 模型 语言 方法 LLM

使用CLIP和LLM构建多模态RAG系统

使用CLIP和LLM构建多模态RAG系统 在本文中我们将探讨使用开源大型语言多模态模型(Large Language Multi-Modal)构建检索增强生成(RAG)系统。本文的重点是在不依赖LangChain或LLlama index的情况下实现这一目标,这样可以避免更多的框架依赖。 什么是RA ......
模态 系统 CLIP LLM RAG

面向初学者的机器学习、数据科学、AI、LLM课程统统免费

微软真是活菩萨,面向初学者的机器学习、数据科学、AI、LLM课程统统免费 微软真是活菩萨,面向初学者的机器学习、数据科学、AI、LLM课程统统免费 大家好,我是老章 推荐几个质量上乘且完全免费的微软开源课程 面向初学者的机器学习课程 地址:https://microsoft.github.io/ML ......
初学者 机器 课程 科学 数据

LLM增强LLM;通过预测上下文来提高文生图质量;Spikformer V2;同时执行刚性和非刚性编辑的通用图像编辑框架

文章首发于公众号:机器感知 LLM增强LLM;通过预测上下文来提高文生图质量;Spikformer V2;同时执行刚性和非刚性编辑的通用图像编辑框架 LLM Augmented LLMs: Expanding Capabilities through Composition 本文研究了如何高效地组合 ......
刚性 图像编辑 上下文 Spikformer LLM

curl_easy_perform() failed: Problem with the SSL CA cert (path? access rights?)

curl_easy_perform() failed: Problem with the SSL CA cert (path? access rights?) 最近遇到了一个这个问题 发现是因为自己加了一个这个 curl_easy_setopt(pCURL, CURLOPT_SSL_OPTIONS, ......

如何避免LLM的“幻觉”(Hallucination)

生成式大语言模型(LLM)可以针对各种用户的 prompt 生成高度流畅的回复。然而,大模型倾向于产生幻觉或做出非事实陈述,这可能会损害用户的信任。 大语言模型的长而详细的输出看起来很有说服力,但是这些输出很有可能是虚构的。这是否意味着我们不能信任聊天机器人,每次都必须手动检查输出的事实?有一些方法 ......
Hallucination 幻觉 LLM

微软真是活菩萨,面向初学者的机器学习、数据科学、AI、LLM课程统统免费

微软真是活菩萨,面向初学者的机器学习、数据科学、AI、LLM课程统统免费 大家好,我是老章 推荐几个质量上乘且完全免费的微软开源课程 面向初学者的机器学习课程 地址:https://microsoft.github.io/ML-For-Beginners/#/ 学习经典机器学习,主要使用 Sciki ......
活菩萨 初学者 机器 课程 科学

一文读懂大型语言模型LLM

在当今的技术世界中,人工智能正以前所未有的速度发展和演变。这一领域的快速发展得益于先进的机器学习算法、海量数据的可用性以及计算能力的显著提升。特别是,在自然语言处理(NLP)领域,AI的进步已经让计算机不仅能理解人类语言的基本结构,还能在更深层次上把握其语义和情感。这种能力的核心在于大型语言模型(大 ......
模型 语言 LLM

打通Rasa Action Server和LLM接口的尝试方法

本文使用最简单的方法对打通 Rasa Action Server 和 LLM 接口进行了尝试,即当 Rasa 对话 intent 为 out_of_scope 时,调用 action_gpt_fallback 的 action,在 action 中根据 tracker.latest_message. ......
接口 方法 Action Server Rasa

解密Prompt系列22. LLM Agent之RAG的反思:放弃了压缩还是智能么?

当前RAG多数只让模型基于检索内容回答,其实限制了模型自身知识压缩形成的智能。既要事实性又要模型智能,需要最大化使用模型内化到参数中的信息,只在必要时调用外部知识,这里介绍前置和后置处理的几种方案~ ......
还是 智能 Prompt Agent LLM

LLM 系列

LLM prompt 大模型微调-综述 大模型微调-Prompt Tuning 大模型微调 - LoRA 系列 大模型微调 - Prefix Tuning / P-Tuning v2 RAG Embedding Embedding 模型收录 embedding - bi encode AND cro ......
LLM

08.W3C performance api

Web Performance Working Group The mission of the Web Performance Working Group is to provide methods to measureaspects of application performance of u ......
performance W3C api 08 W3

39.android maxim 遍历测试工具

maxim 介绍 An efficient Android Monkey Tester, available for emulators and real devices 基于遍历规则的高性能 Android Monkey,适用于真机/模拟器的 APP UI 压力测试 maxim quick sta ......
测试工具 android 工具 maxim 39

ml.net例子笔记8-生成式AI-大模型LLM

生成式AI 生成式AI是指能够通过学习数据和语言,生成新的、在某种程度上相似的输出,这种技术由深度学习特别是神经网络的快速发展推动。 一、数据:AI的燃料 首先,要理解生成式AI,我们必须了解它的基础——数据。数据是AI的燃料,没有数据,AI就无法运行。 在生成式AI中,我们需要大量的高质量数据进行 ......
模型 例子 笔记 LLM net

(15-418)Lecture 5 Performance Optimization Part 1 Work Distribution and Scheduling

高性能编程的三个目标: 执行单元的负载均衡 减少线程、进程间的交流 减少额外开销 尽量先实现一个最简单的解决方案,之后对其扩展以提高性能。 Balancing the workload 理想情况下,所有处理器在整个程序执行期间都忙于计算。 根据Amdahl定律,程序中的串行部分的比例对最大加速比有很 ......

高等数值分析(高性能计算,并行计算) (Parallel and High Performance Computing)

https://github.com/OpenMP https://math.ecnu.edu.cn/~jypan/Teaching/ParaComp/ Parallel and High Performance Computing(高等数值分析(高性能计算,并行计算)) 基本信息: 教材:本课程主 ......

Expectation-Maximization Attention Networks for Semantic Segmentation 使用了EM算法的注意力

Expectation-Maximization Attention Networks for Semantic Segmentation * Authors: [[Xia Li]], [[Zhisheng Zhong]], [[Jianlong Wu]], [[Yibo Yang]], [[Zho ......

《X-LLM: Bootstrapping Advanced Large Language Models by Treating Multi-Modalities as Foreign Languages》论文学习

《X-LLM: Bootstrapping Advanced Large Language Models by Treating Multi-Modalities as Foreign Languages》论文学习 ......

解密Prompt系列21. LLM Agent之再谈RAG的召回信息密度和质量

话接上文的召回多样性优化,这一章我们唠唠召回的信息密度和质量。同样参考经典搜索和推荐框架,这一章对应排序+重排环节。我们先对比下经典框架和RAG的异同,再分别介绍几种适用大模型的排序和重排方案~ ......
密度 质量 Prompt Agent 信息

Ansor:Generating High-Performance Tensor Program for Deep Learning

Ansor:Generating High-Performance Tensor Program for Deep Learning Abstract 高性能的张量程序对于保证深度神经网络的高效执行十分关键,但是在不同硬件平台上获取高性能的张量程序并不容易。近年的研究中,深度学习系统依赖硬件供应商提 ......

使用LM Studio在本地运行LLM完整教程

GPT-4被普遍认为是最好的生成式AI聊天机器人,但开源模型一直在变得越来越好,并且通过微调在某些特定领域是可以超过GPT4的。在开源类别中出于以下的原因,你可能会考虑过在本地计算机上本地运行LLM : 脱机:不需要互联网连接。 模型访问:在本地运行模型,可以尝试开源模型(Llama 2、Vicun ......
教程 Studio LLM

[Codeforces] CF1690E Price Maximization

CF1690E Price Maximization 题意 我们有 \(n\) 个礼物,而最终我们需要将所有的礼物两两包成 \(\frac{n}{2}\) 个包裹。 每一个礼物 \(i\) 都有其价值 \(a_i\),而含有礼物 \(i\) 与礼物 \(j\) 的包裹的价值是 \(\lfloor \ ......
Maximization Codeforces 1690E Price 1690

LLM面面观之LLM复读机问题及解决方案

1. 背景 关于LLM复读机问题,本qiang~在网上搜刮了好几天,结果是大多数客观整理的都有些支离破碎,不够系统。 因此,本qiang~打算做一个相对系统的整理,包括LLM复读机产生的原因以及对应的解决方案。 2. LLM复读机示例 示例1:短语级别的重复 User: 你喜欢北京么? AI: 北京 ......
面面观 LLM 解决方案 方案 问题

大语言模型LLM的核心技术及应用场景案例的分析

自注意力机制、位置编码和激活函数共同提高了模型对序列数据中重要信息的关注程度。通过自注意力机制,模型可以自动学会为序列中的关键部分分配更高的权重…… ......
模型 场景 核心 案例 语言

pure-admin pnpm  ERR_PNPM_FROZEN_LOCKFILE_WITH_OUTDATED_LOCKFILE  Cannot perform a frozen installation because the version of the lockfile is incompatible with this version of pnpm

事情是这样的,用的开源pure-admin 的框架,用的是pnpm,本地环境都是可以的,但是发布到生成就报以下错误 然后看部署参数,是这样的,强制用了lock文件,本来也没问题 报错的意思是json 文件跟pnpm-lock.json 文件不匹配 但是本地看着是匹配的,随便挑选几个包版本看着也是一致 ......

Transformer架构在大型语言模型(LLM)中的应用与实践

Transformer架构是当今最前沿的语言模型技术之一,它已经在谷歌的BERT、OpenAI的GPT系列中取得了显著的成就。这一架构之所以独特,是因为它打破了传统的序列处理模式,引入了创新的“自注意力”机制。 Transformer架构的核心是自注意力机制,它使模型能够识别和重视输入数据中不同部分 ......
Transformer 架构 模型 语言 LLM

如何将 performance_schema 中的 TIMER 字段转换为日期时间

问题 最近有好几个朋友问,如何将 performance_schema.events_statements_xxx 中的 TIMER 字段(主要是TIMER_START和TIMER_END)转换为日期时间。 因为 TIMER 字段的单位是皮秒(picosecond),所以很多童鞋会尝试直接转换,但转 ......
共269篇  :1/9页 首页上一页1下一页尾页