评估指标 模型 性能 指标

django模型不应该作为参数传递给task

Django 模型对象。它们不应该作为任务的参数传递。当任务运行时从数据库重新获取对象几乎总是更好,因为使用旧数据可能会导致竞争条件。 想象一下以下场景,您有一篇文章和一个自动扩展其中一些缩写的任务: class Article(models.Model): title = models.CharF ......
模型 参数 django task

线性混合模型为什么是多元高斯分布

如何建立高斯模型,可以看图根据每类数据做一个高斯函数,然后做一个混合高斯密度函数。如果提取目标的话得把目标的概率函数提取出来。 ......
线性 模型

大模型rlhf 相关博客

想学习第一篇博客: https://huggingface.co/blog/zh/rlhf RLHF 技术分解 RLHF 是一项涉及多个模型和不同训练阶段的复杂概念,这里我们按三个步骤分解: 预训练一个语言模型 (LM) ; 聚合问答数据并训练一个奖励模型 (Reward Model,RM) ; 用 ......
模型 博客 rlhf

大模型量化4

https://huggingface.co/blog/peft 看代码: from transformers import AutoModelForSeq2SeqLM + from peft import get_peft_model, LoraConfig, TaskType model_nam ......
模型

大语言模型LLM推理及训练显存计算方法

一、推理:显存计算 推理的显存大头就是:参数量,参数类型版本一般有以下四种: float 32位 浮点数 4 字节 half / BF16 16位 浮点数 2 字节 int8 8位 整数 1 字节 int4 4位 整数 0.5 字节 以 7B-BF16 版本为例,需要显存 = 数量 * 类型大小 = ......
显存 模型 语言 方法 LLM

判别模型和生成模型

生成模型就像它的名字可以模拟训练数据的特征分布。 判别模型只能根据输入变量x判断其类别。 抽象一下都是p(Y|x) ......
模型

大模型量化3

https://huggingface.co/blog/4bit-transformers-bitsandbytes 1. 8 位float The FP8 (floating point 8) format has been first introduced in the paper “FP8 f ......
模型

VMWare 虚拟机 CPU 设置里针对 CPU 的 虚拟化 CPU 性能计数器(U) 选项功能介绍

虚拟化技术在现代计算中发挥着关键作用,它允许多个虚拟机(VM)在单个物理主机上运行。为了优化虚拟机的性能和资源管理,VMware提供了一系列高级设置选项,其中之一是“虚拟化 CPU 性能计数器(U)”选项。在本文中,我将详细介绍这个选项的作用以及如何使用它,同时提供示例来说明其实际应用。 1. 虚拟 ......
CPU 计数器 性能 功能 VMWare

Unity性能优化总结

可以使用Unity UPR对整个项目进行性能分析,找出问题后,再手动优化它们。 Unity UPR网址:https://upr.unity.cn/instructions/desktop 其中Unity UPR中的Asset Checker能对本地的整个Unity项目进行性能分析,帮助我们找出问题。 ......
性能 Unity

Odoo模型的内置方法(可按需重写)

模型层面 一:_table_exist 检查该模型对于的数据库表是否存在,是则返回1,否则返回0. @api.model_cr def _table_exist(self): pass 模型记录层面 二:create(self,vals) 记录的创建函数,一般情况下,是根据视图传过来的dict对象, ......
模型 方法 Odoo

Unity性能优化-遮挡剔除

正常情况下,如果一个障碍物A挡住了后面的物体B,虽然我们看不见物体B,但是Unity仍然会消耗性能来渲染这个物体B。这样CPU和GPU就会有一部分性能白白浪费在渲染物体B身上。 如果想在一个障碍物挡住了后面的物体后,不渲染被挡住的物体,则可以使用遮挡剔除。 官方文档:https://docs.uni ......
性能 Unity

redis7源码分析:redis 多线程模型解析

多线程模式中,在main函数中会执行InitServerLast void InitServerLast() { bioInit(); // 关键一步, 这里启动了多条线程,用于执行命令,redis起名为IO 线程 initThreadedIO(); set_jemalloc_bg_thread(s ......
redis 线程 源码 模型 redis7

redis7源码分析:redis 单线程模型解析,一条get命令执行流程

有了下文的梳理后 redis 启动流程 再来解析redis 在单线程模式下解析并处理客户端发来的命令 1. 当 client fd 可读时,会回调readQueryFromClient函数 void readQueryFromClient(connection *conn) { client *c ......
redis 线程 源码 模型 命令

聊聊基于Alink库的随机森林模型

概述 随机森林(Random Forest)是一种集成学习(Ensemble Learning)方法,通过构建多个决策树并汇总其预测结果来完成分类或回归任务。每棵决策树的构建过程中都引入了随机性,包括数据采样和特征选择的随机性。 随机森林的基本原理可以概括如下: 随机抽样训练集:随机森林通过有放回抽 ......
模型 森林 Alink

Unity性能优化-GPU Instancing

GPU Instancing是Unity的一种优化技术。 使用GPU Instancing可以在一个Draw Call中同时渲染多个相同或类似的物体,从而减少CPU和GPU的开销。 官方文档:https://docs.unity3d.com/Manual/GPUInstancing.html 要启用 ......
Instancing 性能 Unity GPU

Unity性能优化-动态合批

动态合批也叫动态批处理,是Unity的一种优化技术。 对移动的物体使用动态合批后,则Unity不会一个个绘制它们,而是把它们合并为一个批次(Batch),再由CPU把它们一次性提交给GPU进行处理,这样可以减少Draw Call带来的性能消耗,从而提高性能。 官方文档:https://docs.un ......
性能 动态 Unity

Unity性能优化-静态合批

静态合批也叫静态批处理,是Unity的一种优化技术。 对于始终静止不动的物体使用静态合批后,CPU会把它们合并为一个批次发送给GPU处理,这样可以减少Draw Call带来的性能消耗,从而提升游戏性能。 官方文档:https://docs.unity3d.com/cn/current/Manual/ ......
静态 性能 Unity

Llama2-Chinese项目:3.2-LoRA微调和模型量化

提供LoRA微调和全量参数微调代码,训练数据为data/train_sft.csv,验证数据为data/dev_sft.csv,数据格式为"<s>Human: "+问题+"\n</s><s>Assistant: "+答案。本文主要介绍Llama-2-7b模型LoRA微调以及4bit量化的实践过程。 ......
Llama2-Chinese 模型 Chinese 项目 Llama2

CLIP模型代码

近期看到了一篇用CLIP在我这个方向应用的文章,所以玩了一下CLIP,感觉效果还是很好的。 首先,github上的zero-shot代码 import os import clip import torch from torchvision.datasets import CIFAR100 # Lo ......
模型 代码 CLIP

compattelrunner.exe 是 Windows 操作系统中的一个可执行文件。它是 Microsoft 官方提供的用于收集计算机性能数据和故障排除的工具,这些数据旨在帮助 Microsoft 监测和改进 Windows 操作系统。

compattelrunner.exe 是 Windows 操作系统中的一个可执行文件。它是 Microsoft 官方提供的用于收集计算机性能数据和故障排除的工具,这些数据旨在帮助 Microsoft 监测和改进 Windows 操作系统。 Compattelrunner.exe 的主要功能如下: ......

手把手教你在Ubuntu上部署中文LLAMA-2大模型

一、前言 llama2作为目前最优秀的的开源大模型,相较于chatGPT,llama2占用的资源更少,推理过程更快,本文将借助llama.cpp工具在ubuntu(x86\ARM64)平台上搭建纯CPU运行的中文LLAMA2中文模型。 二、准备工作 1、一个Ubuntu环境(本教程基于Ubuntu2 ......
模型 Ubuntu LLAMA

全新注意力算法PagedAttention:LLM吞吐量提高2-4倍,模型越大效果越好

前言 吞吐量上不去有可能是内存背锅!无需修改模型架构,减少内存浪费就能提高吞吐量! 本文转载自新智元 仅用于学术分享,若侵权请联系删除 欢迎关注公众号CV技术指南,专注于计算机视觉的技术总结、最新技术跟踪、经典论文解读、CV招聘信息。 CV各大方向专栏与各个部署框架最全教程整理 【CV技术指南】CV ......

【8.0】Fastapi响应模型

【一】自定义响应模型 【1】定义视图函数 from fastapi import APIRouter from pydantic import BaseModel, EmailStr from typing import Optional app04 = APIRouter() ### 响应模型 # ......
模型 Fastapi 8.0

Llama2-Chinese项目:1-项目介绍和模型推理

Atom-7B与Llama2间的关系:Atom-7B是基于Llama2进行中文预训练的开源大模型。为什么叫原子呢?因为原子生万物,Llama中文社区希望原子大模型未来可以成为构建AI世界的基础单位。目前社区发布了6个模型,如下所示: FlagAlpha/Atom-7B FlagAlpha/Llama ......
项目 Llama2-Chinese 模型 Chinese Llama2

Llama2-Chinese项目:2.2-大语言模型词表扩充

因为原生LLaMA对中文的支持很弱,一个中文汉子往往被切分成多个token,因此需要对其进行中文词表扩展。思路通常是在中文语料库上训练一个中文tokenizer模型,然后将中文tokenizer与LLaMA原生tokenizer进行合并,最终得到一个扩展后的tokenizer模型。国内Chinese ......
词表 Llama2-Chinese 模型 Chinese 语言

Cesium加载三维模型rendering.Rendering has stopped

使用Cesium加载数据量大、精度高的三维模型数据经常在运行一段时间后,会报如下错误: An error occurred while rendering.Rendering has stopped. TypeError:Failed to execute 'shaderSource' on 'We ......
rendering Rendering 模型 stopped Cesium

Jmeter+Influxdb+Grafana平台监控性能测试过程(三种方式)

一、Jmeter自带插件监控 下载地址:https://jmeter-plugins.org/install/Install/ 安装:下载后文件为jmeter-plugins-manager-1.3.jar,将其放入jmeter安装目录下的lib/ext目录,然后重启jmeter,即可。 启动Jme ......
Influxdb 性能 过程 Grafana 方式

笔记:VMware之性能优化

目标:通过调整VMware设置,提高VMware中虚拟机性能 版本:16.2.2 build-19200509 一、首选项 针对所有虚拟机设置,对所有虚拟机都有效 1.1 设置路径:主页->编辑->首选项->更新 软件更新,取消“启动时检查产品更新”,取消“根据需要检查软件组件” 1.2 设置路径: ......
性能 笔记 VMware

大模型强化学习——PPO项目实战

【PPO算法介绍】 PPO(Proximal Policy Optimization)是一种强化学习算法,它的目标是找到一个策略,使得根据这个策略采取行动可以获得最大的累积奖励。PPO的主要思想是在更新策略时,尽量让新策略不要偏离旧策略太远。这是通过在目标函数中添加一个额外的项来实现的,这个额外的项 ......
实战 模型 项目 PPO

LongLoRA:不需要大量计算资源的情况下增强了预训练语言模型的上下文能力

麻省理工学院和香港中文大学推出了LongLoRA,这是一种革命性的微调方法,可以在不需要大量计算资源的情况下提高大量预训练语言模型的上下文能力。 LongLoRA是一种新方法,它使改进大型语言计算机程序变得更容易,成本更低。训练LLM往往需要大量信息和花费大量的时间和计算机能力。使用大量数据(上下文 ......
上下文 LongLoRA 模型 上下 能力