llama

Hugging News #0724: Llama 2 登陆 Hugging Face、AI 开源游戏竞赛获奖选手公布!

每一周,我们的同事都会向社区的成员们发布一些关于 Hugging Face 相关的更新,包括我们的产品和平台更新、社区活动、学习资源和内容更新、开源库和模型更新等,我们将其称之为「Hugging News」。本期 Hugging News 有哪些有趣的消息,快来看看吧! 🎉😍 ## 重点内容 # ......
Hugging 选手 Llama 0724 Face

技术速览|Meta Llama 2 下一代开源大型语言模型

Meta Llama 2 旨在与 OpenAI 的 ChatGPT 和 Google Bard 等其他著名语言模型对标,但又具有独特优势。在本文中,我们将聊聊 Llama 2 是什么、它的优势是什么、是如何开发的、以及如何开始上手使用。 ......
下一代 模型 语言 Llama 技术

llama2 笔记 其一 “跑起来再说”

Meta 的 llama2 这几天开源出来了,并且内部训练的模型权重也可以开放商业使用,准备尝试在本地运行,记录一下折腾过程。 ![llama](https://scontent-nrt1-2.xx.fbcdn.net/v/t39.8562-6/361590483_235309902165028_8 ......
笔记 llama2 llama

Llama2开源大模型的新篇章以及在阿里云的实践

随着时间的推移,基于Llama2开源模型的应用预计将在国内如雨后春笋般涌现。这种趋势反映了从依赖外部技术向自主研发的转变,这不仅能满足我们特定的需求和目标,也能避免依赖外部技术的风险。因此,我们更期待看到优秀的、独立的、自主的大模型的出现,这将推动我们的AI技术的发展和进步。 ......
新篇 新篇章 模型 Llama2 Llama

使用QLoRa微调Llama 2

上篇文章我们介绍了Llama 2的量化和部署,本篇文章将介绍使用PEFT库和QLoRa方法对Llama 27b预训练模型进行微调。我们将使用自定义数据集来构建情感分析模型。只有可以对数据进行微调我们才可以将这种大模型进行符合我们数据集的定制化。 https://avoid.overfit.cn/po ......
QLoRa Llama

使用GGML和LangChain在CPU上运行量化的llama2

Meta AI 在本周二发布了最新一代开源大模型 Llama 2。对比于今年 2 月发布的 Llama 1,训练所用的 token 翻了一倍,已经达到了 2 万亿,对于使用大模型最重要的上下文长度限制,Llama 2 也翻了一倍。 在本文,我们将紧跟趋势介绍如何在本地CPU推理上运行量化版本的开源L ......
LangChain llama2 llama GGML CPU

在自定义数据集上微调Alpaca和LLaMA

本文将介绍使用LoRa在本地机器上微调Alpaca和LLaMA,我们将介绍在特定数据集上对Alpaca LoRa进行微调的整个过程,本文将涵盖数据处理、模型训练和使用流行的自然语言处理库(如Transformers和hugs Face)进行评估。此外还将介绍如何使用grado应用程序部署和测试模型。 ......
数据 Alpaca LLaMA

【转】一文看懂 LLaMA 中的旋转式位置编码(Rotary Position Embedding)

原文:https://mp.weixin.qq.com/s/0peSNWN0ypMopPR0Q_pujQ ![image](https://img2023.cnblogs.com/blog/746820/202307/746820-20230710154854182-929415343.png) ......
Embedding Position 编码 位置 Rotary

LLaMA模型指令微调 字节跳动多模态视频大模型 Valley 论文详解

Valley: Video Assistant with Large Language model Enhanced abilitY ![ ](https://p3-juejin.byteimg.com/tos-cn-i-k3u1fbpfcp/3434dcfa58d64ce3b73a5e28948f ......
模型 模态 字节 指令 Valley

开源大模型新SOTA,支持免费商用,比LLaMA65B小但更强

号称“史上最强的开源大语言模型”出现了。 它叫Falcon(猎鹰),参数400亿,在1万亿高质量token上进行了训练。 最终性能超越650亿的LLaMA,以及MPT、Redpajama等现有所有开源模型。 一举登顶HuggingFace OpenLLM全球榜单: 除了以上成绩,Falcon还可以只 ......
商用 模型 LLaMA SOTA 65B

[llama懒人包]ChatGPT本地下位替代llama-7b,支持全平台显卡/CPU运行

LLAMA的懒人包: 链接: https://pan.baidu.com/s/1xOw8-eP8QB--u6y644_UPg?pwd=0l08 提取码:0l08 模型来源:elinas/llama-7b-hf-transformers-4.29 模型来源(LoRA):ymcui/Chinese-LL ......
llama 懒人 显卡 ChatGPT 平台

微调7B模型只用单GPU!通用多模态工具LLaMA-Adapter拆掉门槛,效果惊人

前言 开源万能模型微调工具LLaMA-Adapter发布,支持多模态输入输出。 本文转载自新智元 仅用于学术分享,若侵权请联系删除 欢迎关注公众号CV技术指南,专注于计算机视觉的技术总结、最新技术跟踪、经典论文解读、CV招聘信息。 CV各大方向专栏与各个部署框架最全教程整理 【CV技术指南】CV全栈 ......
模态 LLaMA-Adapter 门槛 模型 效果

LLaMA模型微调版本:斯坦福 Alpaca 详解

![ ](https://p3-juejin.byteimg.com/tos-cn-i-k3u1fbpfcp/1f15b06b1f2f48a7a2277111acf2c632~tplv-k3u1fbpfcp-zoom-1.image) 项目代码: 博客介绍: ## Alpaca 总览 Alpaca ......
模型 版本 Alpaca LLaMA

LLaMA模型微调版本 Vicuna 和 Stable Vicuna 解读

![ ](https://r3mu87a8e6.feishu.cn/space/api/box/stream/download/asynccode/?code=OWVkMTI1ZjE4Nzk5ZjZjMWMxOGI1MDA5ZjI1OWVhZGNfOEhEZVo0elRHRjRnZFZpNFMxM3 ......
Vicuna 模型 版本 Stable LLaMA

本地部署开源大模型的完整教程:LangChain + Streamlit+ Llama

在过去的几个月里,大型语言模型(llm)获得了极大的关注,这些模型创造了令人兴奋的前景,特别是对于从事聊天机器人、个人助理和内容创作的开发人员。 大型语言模型(llm)是指能够生成与人类语言非常相似的文本并以自然方式理解提示的机器学习模型。这些模型使用广泛的数据集进行训练,这些数据集包括书籍、文章、 ......
LangChain Streamlit 模型 教程 Llama

MosaicML 推出 30B 模型 — 挑战 LLaMA、Falcon 和 GPT

![mosaic](https://img2023.cnblogs.com/other/618196/202306/618196-20230623144431213-794229398.jpg) MosaicML正在推出其第二个开源大型语言模型(LLM),称为MPT-30B,这是继五月份首次推出的较 ......
MosaicML 模型 Falcon LLaMA 30B

Video-LLaMa:利用多模态增强对视频内容理解

在数字时代,视频已经成为一种主要的内容形式。但是理解和解释视频内容是一项复杂的任务,不仅需要视觉和听觉信号的整合,还需要处理上下文的时间序列的能力。本文将重点介绍称为video - llama的多模态框架。Video-LLaMA旨在使LLM能够理解视频中的视觉和听觉内容。论文设计了两个分支,即视觉语 ......
模态 Video-LLaMa 内容 Video LLaMa

ChatDoctor:一个基于微调LLaMA模型用于医学领域的医学聊天机器人

ChatDoctor:一个基于微调LLaMA模型用于医学领域的医学聊天机器人 https://www.yunxiangli.top/ChatDoctor/ 资源列表 Demo.自动聊天医生与疾病数据库演示。 HealthCareMagic-100k.100k患者和医生之间的真实的对话HealthCa ......
医学 机器人 ChatDoctor 模型 机器

Vicuna-13B, an open-source chatbot trained by fine-tuning LLaMA

一、项目背景 We introduce Vicuna-13B, an open-source chatbot trained by fine-tuning LLaMA on user-shared conversations collected from ShareGPT. Preliminary ......

LLaMA(Open and Efficient Foundation Language Models)学习

一、论文学习 原文链接:https://arxiv.org/pdf/2302.13971.pdf 0x1:引言 在大语料上训练得到的大语言模型(LLM)已经展示了它们的实力,在few-shot特性展现之后,有一系列的工作都关注于提高这些模型的规模。它们的努力是基于更多的参数可以带来更好的性能的假设之 ......
Foundation Efficient Language Models LLaMA

Chinese-LLaMA-Alpaca技术报告

EFFICIENT AND EFFECTIVE TEXT ENCODING FOR CHINESE LL AMA AND ALPACA https://arxiv.org/pdf/2304.08177v1.pdf https://github.com/ymcui/Chinese-LLaMA-Alpa ......

大模型入门(三)—— 单张A100微调LLAMA-7B

单张V100的GPU内存只有16G,LLAMA-7B模型大小就有约27G,在单张16G的V100上微调LLAMA-7B呢?这里需要用到几个技巧:1)lora微调;2)混合精度训练;3)梯度累积。目前github上已经有不少用lora微调llama的代码,但基本都是完全基于hugging face的库 ......
模型 LLAMA A100 100 7B

基于LLaMA的指令微调模型--Alpaca(大羊驼),Vicuna(小羊驼)

Alpaca-7B 文章:https://crfm.stanford.edu/2023/03/13/alpaca.html 想要在预算内训练一个高质量的指令微调模型,就必须面临2个重要的挑战: 一个强大的预训练语言模型 LLaMA 一个高质量的指令遵循数据 Self-Instruct: Aligni ......
指令 模型 Alpaca Vicuna LLaMA

大模型入门(一)—— LLaMa/Alpaca/Vicuna

LLaMa模型是Meta开源的大模型,模型参数从7B到65B不等,LLaMa-7B在大多数基准测试上超过了GPT3-173B,而LLaMa-65B和Chinchilla-70B、PaLM-540B相比也极具竞争力。相比于ChatGPT或者GPT4来说,LLaMa可能效果上还有差距,但相比Closed ......
模型 Alpaca Vicuna LLaMa

LLaMA:开放和高效的基础语言模型

LLaMA:开放和高效的基础语言模型 论文:https://arxiv.org/pdf/2302.13971.pdf 代码:https://github.com/facebookresearch/llama 前言 我们介绍了LLaMA,这是一个参数范围从7B到65B的基础语言模型集合。我们在数以万亿 ......
模型 语言 基础 LLaMA

[Ai] 通过llama.cpp与羊驼聊天的网页界面- 详解 Serge 的启动使用

1. 官方指导是使用如下命令直接运行: $ docker run -d -v weights:/usr/src/app/weights -v datadb:/data/db/ -p 8008:8008 ghcr.io/nsarrazin/serge:latest 随后打开地址 localhost:8 ......
界面 网页 llama Serge cpp

【读论文】LLaMA: Open and Efficient Foundation Language Models

论文:LLaMA: Open and Efficient Foundation Language Models 模型代码:https://github.com/facebookresearch/llama/blob/main/llama/model.py 你也可以打开之前的目录看完整代码。 摘要、介 ......
Foundation Efficient Language Models 论文

Meta最新语言模型LLaMA解读

导师最近关注热门的大规模语言模型,如ChatGPT等。本文调研了Meta最新发布的语言模型,解读了模型结构和部署方法,分享以供NLP方向同学研究参考。 ......
模型 语言 LLaMA Meta

本地推理,单机运行,MacM1芯片系统基于大语言模型C++版本LLaMA部署“本地版”的ChatGPT

OpenAI公司基于GPT模型的ChatGPT风光无两,眼看它起朱楼,眼看它宴宾客,FaceBook终于坐不住了,发布了同样基于LLM的人工智能大语言模型LLaMA,号称包含70亿、130亿、330亿和650亿这4种参数规模的模型,参数是指神经网络中的权重和偏置等可调整的变量,用于训练和优化神经网络 ......
单机 芯片 模型 ChatGPT 版本
共119篇  :4/4页 首页上一页4下一页尾页