当前位置: 首页 > news >正文

learn torch 01

pytorch学习
在安装完conda时,需要在windows上修改pip配置路径具体操作如下
文件管理器文件路径地址栏敲:%APPDATA%回车,快速进入C:\Users\电脑用户\AppData\Roaming文件夹中
新建pip文件夹并在文件夹中新建pip.ini配置文件
需要在pip.ini配置文件内容,我们可以使用记事本打开,输入一下内容,以豆瓣源为例子
[global]
index-url = http://pypi.douban.com/simple
[install]
use-mirrors =true
mirrors =http://pypi.douban.com/simple/
trusted-host =pypi.douban.com
conda换源(清华源)
windows系统:
TUNA 提供了 Anaconda 仓库与第三方源的镜像,各系统都可以通过修改用户目录下的 .condarc 文件。Windows 用户无法直接创建名为 .condarc 的文件,可先执行conda config --set show_channel_urls yes生成该文件之后再修改。

完成这一步后,我们需要修改C:\Users\User_name.condarc这个文件,打开后将文件里原始内容删除,将下面的内容复制进去并保存。
channels:

  • defaults
    show_channel_urls: true
    default_channels:
  • https://mirrors.tuna.tsinghua.edu.cn/anaconda/pkgs/main
  • https://mirrors.tuna.tsinghua.edu.cn/anaconda/pkgs/r
  • https://mirrors.tuna.tsinghua.edu.cn/anaconda/pkgs/msys2
    custom_channels:
    conda-forge: https://mirrors.tuna.tsinghua.edu.cn/anaconda/cloud
    msys2: https://mirrors.tuna.tsinghua.edu.cn/anaconda/cloud
    bioconda: https://mirrors.tuna.tsinghua.edu.cn/anaconda/cloud
    menpo: https://mirrors.tuna.tsinghua.edu.cn/anaconda/cloud
    pytorch: https://mirrors.tuna.tsinghua.edu.cn/anaconda/cloud
    simpleitk: https://mirrors.tuna.tsinghua.edu.cn/anaconda/cloud

这一步完成后,我们需要打开Anaconda Prompt 运行 conda clean -i 清除索引缓存,保证用的是镜像站提供的索引。

我的cuda版本时12.6
安装命令如下
在安装时需要注意要用python3.9及以上的版本
pip3 install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu126

PyTorch之所以被越来越多的人使用,不仅在于其完备的教程,还受益于许多相关的资源,在这里,我们列举了相关的优质资源希望能帮助到各位同学。

Awesome-pytorch-list:目前已获12K Star,包含了NLP,CV,常见库,论文实现以及Pytorch的其他项目。

PyTorch官方文档:官方发布的文档,十分丰富。

Pytorch-handbook:GitHub上已经收获14.8K,pytorch手中书。

PyTorch官方社区:在这里你可以和开发pytorch的人们进行交流。

第二章
记录了一些torch上tensor上的一些操作还有梯度计算
PyTorch 中,所有神经网络的核心是 autograd 包。autograd包为张量上的所有操作提供了自动求导机制。它是一个在运行时定义 ( define-by-run )的框架,这意味着反向传播是根据代码如何运行来决定的,并且每次迭代可以是不同的。

torch.Tensor 是这个包的核心类。如果设置它的属性 .requires_grad 为 True,那么它将会追踪对于该张量的所有操作。当完成计算后可以通过调用 .backward(),来自动计算所有的梯度。这个张量的所有梯度将会自动累加到.grad属性。

注意:在 y.backward() 时,如果 y 是标量,则不需要为 backward() 传入任何参数;否则,需要传入一个与 y 同形的Tensor。
要阻止一个张量被跟踪历史,可以调用.detach()方法将其与计算历史分离,并阻止它未来的计算记录被跟踪。为了防止跟踪历史记录(和使用内存),可以将代码块包装在 with torch.no_grad(): 中。在评估模型时特别有用,因为模型可能具有 requires_grad = True 的可训练的参数,但是我们不需要在此过程中对他们进行梯度计算。


http://www.mrgr.cn/news/90286.html

相关文章:

  • 利用二分法进行 SQL 时间盲注
  • Kong故障转移参数配置
  • 小白零基础如何搭建CNN
  • TCP队头阻塞问题以及QUIC解决方案
  • JAVA:CloseableHttpClient 进行 HTTP 请求的技术指南
  • 如何设置Jsoup请求头模拟浏览器访问?
  • three.js快速入门学习笔记
  • 渗透利器工具:Burp Suite 联动 XRAY 图形化工具.(主动扫描+被动扫描)
  • 客户端渲染和服务端渲染
  • Android车机DIY开发之软件篇(十二) AOSP12下载编译
  • 防御综合实验
  • 【STM32】ADC|多通道ADC采集
  • 强化学习笔记
  • 推荐系统Day1笔记
  • [LUA ERROR] bad light userdata pointer
  • java后端开发day13--面向对象综合练习
  • 服务器绑定 127.0.0.1 和 0.0.0.0 的区别
  • 保姆级教程Docker部署Zookeeper镜像
  • 从零开始构建强大 AI 对话系统:ollama + deepseek + open-webui 完整部署教程(Docker 版)
  • 如何本地部署DeepSeek
  • 【Docker】
  • iOS主要知识点梳理回顾-3-运行时消息机制
  • ESP32_H2(IDF)学习系列-蓝牙基础学习(上)
  • [开源]MaxKb+Ollama 构建RAG私有化知识库
  • Generate html
  • C#、.Net 中级高级架构管理面试题杂烩