当前位置: 首页 > news >正文

【2025深度学习环境搭建-1】在Win11上用WSL2和Docker解锁GPU加速

建议有:

  • 较新的win11电脑,GPU是nvidia
  • 一点点Linux基础
  • 一点点Docker基础

一、安装WSL2

【控制面板】=》【程序】=》【启用或关闭Windows功能】

打开三个功能:【Hyper-V】【Virtual Machine Platform】【适用于Linux的Windows子系统】

可能看不到Hyper-V,百度:win11没有Hyper-V
在这里插入图片描述

在管理员模式下打开 PowerShell 或 Windows 命令提示符,方法是右键单击并选择“以管理员身份运行”,输入 wsl --install 命令,然后重启计算机。

wsl --install
wsl --list --online # 显示可安装的WSL系统

在这里插入图片描述

wsl --install -d Ubuntu-24.04 # 安装Ubuntu-24.04
wsl --list # 显示本地的WSL系统

下图中可看到Ubuntu-24.04,这就是我们刚才安装的
在这里插入图片描述

1.1 启动wsl

在终端中输入wsl启动wsl

wsl  #启动wsl,要在Windows终端中运行

顺便一提,关闭wsl的命令是wsl --shutdown,要在Windows终端中运行

在【开始】菜单中找到Ubuntu-24.04,打开它
在这里插入图片描述

根据提示设置好用户名和密码

设置root用户的密码

sudo passwd # 设置root用户的密码

你的CUDA版本够新,则此时可在wsl中输入nvidia-smi查看显卡信息

nvidia-smi

在这里插入图片描述

二、安装Docker Desktop(自行换镜像源)

进入docker官网,下载Dockers Desktop

https://www.docker.com/

在右上角打开设置,如下图设置

在这里插入图片描述
在这里插入图片描述

三、安装NVIDIA Container Toolkit

nvidia-docker2 和 NVIDIA Container Toolkit 的区别及推荐
打开WSL,执行以下命令
配置生产存储库:

curl -fsSL https://nvidia.github.io/libnvidia-container/gpgkey | sudo gpg --dearmor -o /usr/share/keyrings/nvidia-container-toolkit-keyring.gpg \&& curl -s -L https://nvidia.github.io/libnvidia-container/stable/deb/nvidia-container-toolkit.list | \sed 's#deb https://#deb [signed-by=/usr/share/keyrings/nvidia-container-toolkit-keyring.gpg] https://#g' | \sudo tee /etc/apt/sources.list.d/nvidia-container-toolkit.list

从存储库更新软件包列表:

sudo apt-get update

安装 NVIDIA Container Toolkit 软件包:

sudo apt-get install -y nvidia-container-toolkit

重启Docker(在Docker Desktop中操作也行)

sudo systemctl daemon-reload
sudo systemctl restart docker

四、确保Docker能使用GPU

注意docker拉nvidia/cuda镜像时,拉取的cuda版本不能高于本地的cuda版本

我本地的cuda版本是12.7,则我无法拉取镜像docker pull nvidia/cuda:12.6.3-base-ubuntu24.04,因为这个镜像的cuda版本是12.8

执行以下命令,正常情况下会输出nvidia显卡信息【表示本机的Docker可使用GPU】,如图所示

docker run --rm --gpus all nvidia/cuda:12.6.3-base-ubuntu24.04 nvidia-smi

在这里插入图片描述

若您认为以上cuda版本过高,则可找个低版本的镜像,
命令如下:docker run --rm --gpus all nvidia/cuda:11.0.3-base-ubuntu16.04 nvidia-smi

找镜像的网站:https://hub.docker.com/r/nvidia/cuda/tags

现在,我们可以在Docker环境中使用GPU啦!下一步我们将搭建一个深度学习环境,以满足我们的深度学习研究需求!

下一步:pytorch+Docker+VS Code+DevContainer搭建本地深度学习环境

参考

WSL 2官方安装教程

WSL 2 上的 Docker 入门

NVIDIA Container Toolkit官方安装教程

nvidia/cuda镜像搜索网站


http://www.mrgr.cn/news/92150.html

相关文章:

  • C++初阶——简单实现list
  • C语言——深入理解指针(3)
  • sql的索引与性能优化相关
  • 第4章 4.1 Entity Framework Core概述
  • podman加速器配置,harbor镜像仓库部署
  • 设计模式学习笔记
  • 【论文解读】《Training Large Language Models to Reason in a Continuous Latent Space》
  • C/C++后端开发面经
  • Java八股文(下)
  • docker容器网络配置及常用操作
  • 骁勇善战的量化利器:多因子模型【量化理论】
  • Redission可重试、超时续约的实现原理(源码分析)
  • 安全见闻5
  • 【废物研究生零基础刷算法】DFS与递归(一)典型题型
  • 【MySQL篇】持久化和非持久化统计信息的深度剖析(含analyze命令和mysqlcheck工具两种收集方式)
  • Java 使用websocket
  • ClickHouse系列之ClickHouse安装
  • Linux上使用dify构建RAG
  • 第9章:LangChain结构化输出-示例4(基于大模型从自然语言中提取POJO)
  • vue:vite 代理服务器 proxy 配置