wsl gpu

git设置代理+wsl2设置代理

# 1.http || https协议 ``` bash //设置全局代理 //http git config --global https.proxy http://127.0.0.1:1080 //https git config --global https.proxy https://127 ......
wsl2 git wsl

win11安装ubuntu(by wsl2)

### 欢迎访问我的GitHub > 这里分类和汇总了欣宸的全部原创(含配套源码):[https://github.com/zq2599/blog_demos](https://github.com/zq2599/blog_demos) ### 本机情况 - 省吃俭用入手了ThinkPad T14, ......
ubuntu wsl2 win wsl 11

GPU计算性能参数分析

GPU计算性能参数分析 单核CPU无论在PC端,还是服务器上,基本上已经退出历史舞台,目前主流的计算平台是使用多核(multiple cores)的CPU,以及众核(many cores)的GPU。另外处理器与内存访问速度差距也不断增大,为克服访存瓶颈,主要采用两种方法。其中多核CPU与单核CPU, ......
性能参数 性能 参数 GPU

pytorch分布式训练报错:Duplicate GPU detected : rank 1 and rank 0 both on CUDA device 35000

之前使用的比较老的torch 1.8.1,换到torch 2.0后报错 "rank 1 and rank 0 both on CUDA device 35000" 将main函数开头部分的初始化 ```python distributed.init_process_group(backend='nc ......
分布式 rank Duplicate detected pytorch

聊透 GPU 通信技术——GPU Direct、NVLink、RDMA 审核中

最近人工智能大火,AI 应用所涉及的技术能力包括语音、图像、视频、NLP 等多方面,而这些都需要强大的计算资源支持。AI 技术对算力的需求是非常庞大的,虽然 GPU 的计算能力在持续提升,但是对于 AI 来说,单卡的计算能力就算再强,也是有极限的,这就需要多 GPU 组合。而 GPU 多卡的组合,主 ......
通信技术 GPU Direct NVLink 技术

Ziya-LLaMA-13B 模型在GPU 上部署

# Ziya-LLaMA-13B 模型在GPU 上部署 Ziya-LLaMA-13B是IDEA-CCNL基于LLaMa的130亿参数的大规模预训练模型,具备翻译,编程,文本分类,信息抽取,摘要,文案生成,常识问答和数学计算等能力。目前姜子牙通用大模型已完成大规模预训练、多任务有监督微调和人类反馈学习 ......
Ziya-LLaMA 模型 LLaMA Ziya GPU

WSL中无法使用systemctl命令

# WSL使用system报错"System has not been booted with systemd as init system" (原文链接)[https://linuxhandbook.com/system-has-not-been-booted-with-systemd/] ## ......
systemctl 命令 WSL

centos安装支持gpu加速的ffmpeg

阿里云ECS环境: 规格:ecs.gn6i-c16g1.4xlarge 显卡:T4 镜像:centos7.5 cuda安装版本:12.2 1.安装显卡驱动 https://www.nvidia.com/Download/Find.aspx?lang=cn wget https://cn.downlo ......
centos ffmpeg gpu

ARM和X86、X86和X64、Intel和AMD、CPU和GPU介绍

一、ARM和X86 X86 和 ARM 都是CPU设计的一个架构。X86 用的是复杂指令集。ARM用的是精简指令集。指令集其实就是机器码,机器码上是汇编,汇编之上是程序语言例如java、c、c#。复杂指令集是在硬件层面上设计了很多指令,所以编程会简单些。精简指令集是在硬件层面上设计的指令比较少,所以 ......
X86 Intel 86 ARM AMD

hashcat GPU算力 H/s 收集(表格)

hashcat GPU算力 H/s 收集 |hashcat 版本| AMD | NVIDIA| 破解速度| 测试时间 | 测试信息来源 | | | | | | | | | 6.2.6 | | RTX 4090 | 300GH/s NTLM和200kh/s | 2022 | https://roll. ......
表格 hashcat GPU

使用Windows搭建WSL Linux开发环境

title: 使用Windows搭建WSL Linux开发环境 date: 2023/08/29 tags: Windows categories: - OS reward: true ## 前言 WSL(Windows Subsyetem for Linux,适用于 Linux 的 Windows ......
Windows 环境 Linux WSL

GPU单机多卡训练

多卡训练的主要思想是将训练数据分成多个批次或样本,在每个GPU上分别处理这些数据,然后将各个GPU计算得到的梯度进行聚合,最终更新模型参数。这样可以显著加快训练过程,特别是对于大规模的深度学习模型。 多卡训练需要考虑到数据划分、梯度聚合和模型参数同步等问题,以确保各个GPU上的计算结果能够正确地协同 ......
单机 GPU

基于LXD搭建实验室GPU服务器(四)——LXD部署

在之前的文章中,我们完成了宿主机的配置,接下来将进行LXD的部署。 在实验室环境下,多人共用GPU服务器,由于大家所需的系统环境可能不同,一个用户修改系统文件会影响其它用户,甚至会有小白胡乱修改文件导致服务器崩溃的可能。我们可以通过不给sudo权限来减轻这个问题,但是这不仅对用户来说不方便,也大大增... ......
LXD 实验室 服务器 GPU

修改Docker镜像、容器、网络和卷等数据的存储位置|修改wsl在windows下的数据目录

起因: 我发现这个C盘快要爆炸了 C:\Users\Administrator\AppData\Local\Docker\wsl\data\ext4.vhdx(此目录是默认指向,都快100G了) 解决步骤: wsl --shutdown wsl --export docker-desktop-dat ......
数据 容器 镜像 位置 windows

解决wsl正确安装torch_sparse、torch_scatter的问题

# 快速解决torch_sparse、torch_scatter安装并正确使用的问题 我们如果直接进行pip install后,会因为pip的机制自动下载最新版本的其他依赖,例如torch等cuda版本。 所以我们需要找到对应自己电脑的cuda版本的模块whl,进行离线安装。 ## 找到对应版本 打 ......

基于LXD搭建实验室GPU服务器(三)——配置frp网穿并注册服务

在之前博客中,我们对宿主机进行了基本配置和基本深度学习环境的配置,在本文中,我们将介绍如何对服务器进行frp网穿,本文的内容可用于后续的lxd容器中,实现每个容器皆可使用公网ip访问。 若不需要配置网穿,则可以跳过此文。 配置网穿可以在局域网外访问服务器,我们需要一台具有公网ip的服务器。 ......
实验室 服务器 LXD GPU frp

基于LXD搭建实验室GPU服务器(二)——宿主机的深度学习环境安装

在上一篇博客中,我们介绍了服务器的基本配置,例如换源、sshd配置、防火墙配置等。 在本文中,我们将继续介绍如何在宿主机配置基本的深度学习环境,包括nvidia驱动,cuda,anaconda,torch等。 ......
宿主机 宿主 深度 实验室 环境

基于LXD搭建实验室GPU服务器(一)——宿主机的基本配置

从零搭建服务器是一个看似简单实则有些繁琐的操作,本文旨在记录并整合这些操作,使得后续搭建可以成为一个流水线般简单流程的过程。 操作系统的安装过程网络上资源非常多,本文不再赘述。 本文将对刚安装的ubuntu20.04.06操作系统进行基本配置。 ......

抢占GPU的脚本

我主要利用Python多进程编程,通过占用GPU内存,从而达到占用GPU的目的。关于代码的解释见我的[个人博客](https://yigengjiang.github.io/the_art_of_gpu_occupation/),以下主要介绍如何使用该脚本。 我的Python版本为3.11,执行命令 ......
脚本 GPU

wsl 编译 android AOSP 13 源码

# 安装WSL 1. Windows 11 版本如下: ![image](https://img2023.cnblogs.com/blog/389185/202308/389185-20230824154512143-2038737349.png) 2. 首先在 microsoft store 里面 ......
源码 android AOSP wsl 13

WSL安装Docker并部署后端开发环境

# WSL安装Docker并部署后端开发环境 > 本文用于记录win10操作系统下安装基于WSL的Docker开发环境。 ## 一、Docker on Wsl安装 1. 在[Docker官网](https://www.docker.com/)下载win安装包; 2. 修改安装路径: Docker默认 ......
环境 Docker WSL

如何评估计算机的算力:从 CPU 到 GPU 的演变

计算机的算力一直是科学技术发展的重要驱动力之一。从最早的计算机到现代的超级计算机,计算机的算力不断提高,为人类社会带来了前所未有的变革。其中,CPU(中央处理器)和 GPU(图形处理器)是计算机中最为核心的两个组件,它们的算力和性能对于计算机的整体性能具有决定性的影响。 ## **CPU和GPU** ......
计算机 CPU GPU

Hello Cuda(一)——GPU设备检测

``` #include "device_launch_parameters.h" #include int main(int argc, char*argv[]) { int deviceCount; // 设备数目 cudaGetDeviceCount(&deviceCount); for(in ......
设备 Hello Cuda GPU

解决方案 | 1分钟快速解决 win10 任务管理器性能不显示GPU?

1 问题 环境:win10 22h2 2 解决方法 win+r输入dxdiag回车,查看下面信息: (1)确认你的Windows10版本号大于1909,如果确认,在任务管理器进程页右键名称一栏,将GPU勾选上即可。如果Windows10版本过旧,更新至1909版本或以上即可。 (2)还是上面图片点击 ......
解决方案 性能 任务 方案 win

GPU与CUDA C编程基本知识

## 一 、CPU与GPU的异同 CPU:延迟导向内核,所谓延迟,指指令发出到得到结果中间经历的时间。 GPU:吞吐导向内核,所谓吞吐量指单位时间内处理的指令数量。其适合于计算密集或者数据并行的场合。 ## 二、CUDA ### 2.1 简介 CUDA(Compute Unified Device ......
基本知识 知识 CUDA GPU

使用 UCS(On-Premises) 管理您的GPU资源池,释放AI大模型算力潜能

UCS(On-Premises)旨在将云上的服务能力延伸至各行业的客户的本地数据中心,结合volcano的AI作业管理及智能调度能力、xGPU的GPU虚拟化能力,帮助用户快速在IDC构建云原生的AI基础设施,更细粒度的使用GPU资源,让用户聚焦AI的业务开发,最大限度释放AI大模型算力潜能。 ......
潜能 On-Premises Premises 模型 资源

VS调试WSL中的.NET应用

先决条件 Visual Studio 2019 v16.9 预览版1或更高版本(通过WSL可选组件进行.NET调试)。若要检查 WSL 组件,请选择 “工具” > “获取工具和功能” 。 在 Visual Studio 安装程序中,选择 “单个组件”,然后键入 “WSL” 搜索安装组件 。 安装WS ......
WSL NET

win10开启WSL安装ubuntu

从win10开始提供了WSL来使用linux系统,这里利用wsl来安装ubuntu, 1、首先要确保windows中的几个相关的选项是打开的 确定后重启系统 然后以管理员身份打开powershell,输入命令Enable-WindowsOptionalFeature -Online -Feature ......
ubuntu win WSL 10

Windows安装Archlinux(WSL2)

## 导言 > 对于在Windows中使用Linux系统,有很多种实现方法。最常见的方法就是使用VM虚拟机软件。于是微软推出了WSL(Windows SubSystem For Linux),初代的WSL1,总体上是在运行时将Linux System Call翻译为NT API调用,从而在NT内核基 ......
Archlinux Windows WSL2 WSL

在 win10 2021 LTSC 上安装配置 wsl2 和 ubuntu

在 win10 2021 LTSC 上安装配置 wsl2 和 ubuntu 的过程: 1. win10系统启用wsl2: > wsl --install no-distribution (安装wsl2, 会自动打开系统feature: wsl子系统,虚拟机平台. 不再需要去控制面板--启用windo ......
ubuntu 2021 LTSC wsl2 win