llama cpp

cpp-houjie

CPP Houjie Subtitle: 侯捷 C++ 课程笔记 Created: 2023-11-25T10:40+08:00 Categories: CPP 目录面向对象编程(上)C++ 程序设计(Ⅱ)兼谈对象模型C++ 标准库体系结构与内核分析附Component 和 Inheritance ......
cpp-houjie houjie cpp

MinGW安装,解决想用g++命令编译.cpp源文件

下载MinGW: 下载地址:MinGW - Minimalist GNU for Windows download | SourceForge.net 安装MinGW: 例如安装在D:\MinGW文件夹下,安装好后选择需要下载的与The GNU C++ Compiler相关的4个安装包 选好安装包后 ......
源文件 命令 MinGW cpp

yaml-cpp

xxx.yaml加载失败不报错 xxx.yaml格式有问题时,报错abort不知道格式不对的具体位置,使用try catch: try { YAML::Node rNode = YAML::LoadFile(“test.yaml”); // using YAML node. } catch(cons ......
yaml-cpp yaml cpp

llama-factory fine-tuning-3 (conception and technologies explanation)

train method supervised fine-tuning Reward Modeling PPO training DPO training full-parameter partial-parameter LoRA QLoRA command parameter fp16 gradi ......

llama-factory fine-tuning

data preparation for llama-factory fine-tuning, here is the instruction for custom dataset preparation. dataset classification alpaca stanford_alpaca ......

medical custom dataset for fine-tuning llama2

data preparation we use huggingface shibin6624/medical to fine-tuning llama2, please note that this dataset is consist of en and cn data, here we just ......
fine-tuning medical dataset custom llama2

关于C/CPP的快读

#include <cstdio> class BufferIO { public: template<typename T> auto operator>>(T& x); template<typename T> inline void unsigned_read(T& x); template< ......
CPP

使用llama构建一个蜜罐(前端)

title: 使用llama构建一个蜜罐(前端) banner_img: https://cdn.studyinglover.com/pic/2023/07/e9a49d4a404ed9bc4b0f119249194e3d.png date: 2023-8-1 00:12:00 tags: - 网络 ......
蜜罐 前端 llama

使用llama构建一个蜜罐(后端)

title: 使用llama构建一个蜜罐(后端) banner_img: https://cdn.studyinglover.com/pic/2023/07/869e354fa5d2254251c10bc2e3cf1bef.png date: 2023-7-29 17:52:00 tags: - 网 ......
蜜罐 llama

cloudlflare推理llama2

title: cloudlflare推理llama2 banner_img: https://cdn.studyinglover.com/pic/2023/10/0863cb015e8d69fbce68ebe57bea96d8.jpg date: 2023-10-11 15:32:00 catego ......
cloudlflare llama2 llama

GPU部署llama-cpp-python(llama.cpp通用)

title: GPU部署llama-cpp-python(llama.cpp通用) banner_img: https://cdn.studyinglover.com/pic/2023/08/a5e39db5abf0853e6c456728df8bd971.jpg date: 2023-8-6 23 ......
llama llama-cpp-python cpp python GPU

快速上手llama2.c

title: 快速上手llama2.c banner_img: https://github.com/karpathy/llama2.c/blob/master/assets/llama_cute.jpg date: 2023-7-25 16:19:00 tags: - 踩坑 快速上手llama2. ......
llama2 llama

快速上手llama2.c(更新版)

title: 快速上手llama2.c(更新版) banner_img: https://github.com/karpathy/llama2.c/blob/master/assets/llama_cute.jpg date: 2023-7-28 16:31:00 tags: - 踩坑 快速上手ll ......
llama2 llama

huggingface_hub.utils._validators.HFValidationError: Repo id must be in the form 'repo_name' or 'namespace/repo_name': '/llama-2-7b-chat-hf-chinese/1.1'. Use `repo_type` argument if needed.

问题: 2023-11-26 07:45:38 | ERROR | stderr | raise HFValidationError(2023-11-26 07:45:38 | ERROR | stderr | huggingface_hub.utils._validators.HFValidati ......

cpp中加锁问题

std::mutex mutex 类是一个同步原语,可用于保护共享数据不被多个线程同时访问。互斥体提供独占的、非递归的所有权语义:调用线程从成功调用lock或try_lock直到调用unlock为止都拥有互斥体。当一个线程拥有互斥锁时,如果所有其他线程尝试声明该互斥锁的所有权,则所有其他线程都将阻塞 ......
问题 cpp

Cpp 值的种类划分

本博文会介绍移动语义的形式术语和规则。并且会正式的介绍值的类别,如 lvalue、rvalue、prvalue和 xvalue,并讨论了在绑定对象引用时的作用。也会讨论移动语义不会自动传递的细节,以及decltype 在表达式调用时的微妙行为。 作为《Cpp Move Semantics》书中最复杂 ......
种类 Cpp

全新Self-RAG框架亮相,自适应检索增强助力超越ChatGPT与Llama2,提升事实性与引用准确性

全新Self-RAG框架亮相,自适应检索增强助力超越ChatGPT与Llama2,提升事实性与引用准确性 1. 基本思想 大型语言模型(LLMs)具有出色的能力,但由于完全依赖其内部的参数化知识,它们经常产生包含事实错误的回答,尤其在长尾知识中。 为了解决这一问题,之前的研究人员提出了检索增强生成( ......
事实性 框架 Self-RAG 准确性 事实

CPP-移动语义

“Move semantics allows us to optimize the copying of objects, where we no longer need the value. It can be used implicitly (for unnamed temporary obje ......
语义 CPP

【教程】cpp转python Nanobind 实践 加速轻量版 pythonbind11

主要是尝试一下把c++这边的函数封装打包给python用,选择nanobind的原因是:1. 优化速度快,2. 生成二进制包小,不过pythonbind11是更为广泛知道的,nanobind也是pythonbind11作者后续做的,可以查看作者写的 why another binding libar ......
轻量 pythonbind Nanobind 教程 python

Init ubuntu for cpp dev

sudo apt update;sudo apt upgrade -y; wget https://dl.google.com/linux/direct/google-chrome-stable_current_amd64.deb; sudo dpkg -i google-chrome-stable ......
ubuntu Init for cpp dev

安装llama.cpp遇到的问题

llama.cpp 在ubuntu环境下编译: 1. 下载好模型文件,如 llama-2-7b-chat-hf; Mistral-7B-Instruct-v0.1/ggml-model-f16-q8_0.gguf2. 建立conda环境 conda create -n llamacpp python ......
问题 llama cpp

CPP和C运算符优先级结合性表

运算符优先级决定了运算符用于值的顺序。C+运算符分为18个优先级组,如表所示。第1组中的运算符的优先级最高,第2组中运算符的优先级次之,依此类推。 一个表达式中,优先级高的运算符先于优先级低的运算符进行运算。优先级相同的运算符按照结合性方向进行运算。 下面是《C++ Primer plus》中的C+ ......
运算符 优先级 CPP

【随手记录】Llama Tutorial 大语言模型实践

这个tutorial的契机是yy突然看到了一个workshop 所以类似于一周大作业的形式,输入command输出使用了自动驾驶哪些模块,代码在这里 所以就干一干,顺便写一个tutorial给大家参考和教程 引申更多的应用 参考资料: https://github.com/facebookresea ......
Tutorial 模型 语言 Llama

零一万物回应「抄袭 LLaMA」;京东原副总裁试用可穿戴人工喉丨 RTE 开发者日报 Vol.85

开发者朋友们大家好: 这里是 「RTE 开发者日报」 ,每天和大家一起看新闻、聊八卦。我们的社区编辑团队会整理分享 RTE (Real Time Engagement) 领域内「有话题的 新闻 」、「有态度的 观点 」、「有意思的 数据 」、「有思考的 文章 」、「有看点的 会议 」,但内容仅代表编 ......
开发者 副总 万物 人工 日报

CPP 智能指针

目录内存管理new and delete不要使用malloc 和freenew失败了怎么办区别动态数组和动态分配数组对象数组永远对应关系多维数组new 申请多维数组数组即指针并不是所有的指针都是数组指针操作资源回收智能指针使用智能指针的必要之处。unique_ptr接触unique_ptr的拥有权s ......
指针 智能 CPP

re2-cpp-is-awesome

没做出来,看题解得 攻防世界逆向高手题之re2-cpp-is-awesome_align 20h-CSDN博客 注意 汇编知识 align 8,align num是让后面的字节都对齐num,也就是这里都对齐8才对,中间补7个0。可是这里下一个数和上一个数明明间隔4而已!后来查了很多资料才发现是IDA ......
re2-cpp-is-awesome awesome cpp re2 re

开源大语言模型Llama 2

Llama 2 Github开源地址 我们正在释放大型语言模型的潜力。我们最新版本的 Llama 现在可供个人、创作者、研究人员和各种规模的企业使用,以便他们可以负责任地进行实验、创新和扩展他们的想法。 此发布包括预训练和微调的 Llama 语言模型的模型权重和起始代码,参数范围从 7B 到 70B ......
模型 语言 Llama

simple cpp file logger

this is a simple cpp file logger implementation, which is copied from making log file - C++ Forum https://cplusplus.com/forum/beginner/168442/ /////// ......
simple logger file cpp

通义千问, 文心一言, ChatGLM, GPT-4, Llama2, DevOps 能力评测

引言 “克隆 dev 环境到 test 环境,等所有服务运行正常之后,把访问地址告诉我”,“检查所有项目,告诉我有哪些服务不正常,给出异常原因和修复建议”,在过去的工程师生涯中,也曾幻想过能够通过这样的自然语言指令来完成运维任务,如今 AI 助手 Appilot 利用 LLM 蕴藏的神奇力量,将这一 ......
文心 ChatGLM 能力 DevOps Llama2

ChatGLM.cpp的量化处理

chatglm.cpp的一个主要特点就是以量化的形式对大模型进行优化,使其在CPU上能够进行高效推理。 本文主要查看chatglm.cpp是如何对模型进行量化的 chatglm.cpp在使用时主要分成两步: 使用convert.py将模型进行量化,得到ggml格式 使用./build/bin/mai ......
ChatGLM cpp