526互联
首页
Ai
Java
Python
Android
Mysql
JavaScript
Html
CSS
Mixtral-offloading
使用Mixtral-offloading在消费级硬件上运行Mixtral-8x7B
Mixtral-8x7B是最好的开放大型语言模型(LLM)之一,但它是一个具有46.7B参数的庞大模型。即使量化为4位,该模型也无法在消费级GPU上完全加载(例如,24 GB VRAM是不够的)。 Mixtral-8x7B是混合专家(MoE)。它由8个专家子网组成,每个子网有60亿个参数。8位专家中 ......
Mixtral
Mixtral-offloading
offloading
硬件
8x
更新时间 2024-01-13
共1篇 :1/1页
首页
上一页
1
下一页
尾页