当前位置: 首页 > news >正文

【paddle】初次尝试

张量

张量是 paddlepaddle, torch, tensorflow 等 python 主流机器学习包中唯一通货变量,因此应当了解其基本的功能。

张量 paddle.Tensor 与 numpy.array 的转化

import paddle as paddle
import matplotlib.pyplot as plt 
a=paddle.to_tensor(list(paddle.arange(-3.14,3.15,0.01))) # 生成张量a包含从-3.14到3.14间隔0.01的一维张量
b=paddle.sin(a) 
x=paddle.Tensor.numpy(a)  # 将张量a转化为numpy 数组
y=paddle.Tensor.numpy(b)  # 将张量b转化为numpy 数组
plt.plot(x,y)
plt.grid(True)

在这里插入图片描述

张量 Tensor

stop_gradient 查看一个 Tensor 是否计算并传播梯度,如果 stop_gradient 为 True,则该 Tensor 不会计算梯度,并会阻绝 Autograd 的梯度传播。 反之,则会计算梯度并传播梯度。用户自行创建的 Tensor,默认是 True,模型参数的 stop_gradient 都为 False。

place 查看一个 Tensor 的设备位置,Tensor 可能的设备位置有三种:CPU/GPU/固定内存,其中固定内存也称为不可分页内存或锁页内存, 其与 GPU 之间具有更高的读写效率,并且支持异步传输,这对网络整体性能会有进一步提升,但其缺点是分配空间过多时可能会降低主机系统的性能, 因为其减少了用于存储虚拟内存数据的可分页内存。

  1. CPU: place=paddle.CPUPlace() 或 place=Place(cpu)
  2. GPU: place=paddle.CUDAPlace(0) 或 place=Place(gpu:0)

name 名字

persistable 不会被删除的持久性变量

一维张量

shape 维数
| 0 | 1 |…|n-1|
| - | -| -|- |
|a[0] | a[1] |… |a[n-1]|

a=paddle.to_tensor([0,1,2])
print(a)
print(a.shape)
print(a.place)
print(a.stop_gradient)
a.stop_gradient=False
print(a.stop_gradient)
a.name='Var_a'
print(a.name)
Tensor(shape=[3], dtype=int64, place=Place(cpu), stop_gradient=True,[0, 1, 2])
[3]
Place(cpu)
True
False
Var_a
b=paddle.to_tensor([[0,1,2],[4,5,6]])
print(b)
print(b.shape)
print(b[0])
print(b[0,0:2])
print(b[:,1])
Tensor(shape=[2, 3], dtype=int64, place=Place(cpu), stop_gradient=True,[[0, 1, 2],[4, 5, 6]])
[2, 3]
Tensor(shape=[3], dtype=int64, place=Place(cpu), stop_gradient=True,[0, 1, 2])
Tensor(shape=[2], dtype=int64, place=Place(cpu), stop_gradient=True,[0, 1])
Tensor(shape=[2], dtype=int64, place=Place(cpu), stop_gradient=True,[1, 5])

Tensor 其他属性

dtype 数据类型, ‘bool’,‘float16’,‘float32’,‘float64’,‘uint8’,‘int8’,‘int16’,‘int32’,‘int64’

type 类型

is_leaf 梯度链式法则网上的叶子 (stop_gradient=True)

ndim 张量维数

shape 张量形状

import paddlex = paddle.to_tensor([1, 2, 3])
y = x[1]
print(y.is_contiguous())
True

渐进步长梯度下降法

考虑函数 f ( x ) = x 0 2 + x 1 2 f(x)=x_0^2+x_1^2 f(x)=x02+x12, 梯度为 ∇ f ( x ) = 2 ( x 0 , x 1 ) ⊤ \nabla f(x)=2(x_0,x_1)^\top f(x)=2(x0,x1)

则其梯度下降格式为

x k + 1 = x k − α k ∇ f ( x k ) x_{k+1}=x_k- \alpha_k \nabla f(x_k) xk+1=xkαkf(xk)

import paddle
root = paddle.to_tensor([[1], [2]], dtype='float32', stop_gradient=False)
y = root[0]**2+root[1]**2
paddle.autograd.backward(y,root,True)
print(root.grad)
for i in range(300):root= root - root.grad/(i+3)root = paddle.to_tensor(root, dtype='float32', stop_gradient=False) # 不得已而为之, 不然报错 因为 root.grad 输出为 Noney = root[0]**2+root[1]**2   # 更新目标函数值paddle.autograd.backward(y,root,True)  # 更新梯度
print(root)
Tensor(shape=[2, 1], dtype=float32, place=Place(cpu), stop_gradient=False,[[2.],[4.]])
Tensor(shape=[2, 1], dtype=float32, place=Place(cpu), stop_gradient=False,[[0.08197821],[0.16395642]])


http://www.mrgr.cn/news/82103.html

相关文章:

  • 【C】Preliminary knowledge
  • 设计模式 创建型 建造者模式(Builder Pattern)与 常见技术框架应用 解析
  • ubuntu开启root用户
  • MATLAB 中打印某些变量的值到文本文件中,使用diary和 fprintf
  • 1月2日作业
  • 前端页面有那三层?分别是什么?作用是 什么?
  • C++新特性||线程协程
  • 论文实现:Reactive Nonholonomic Trajectory Generation via Parametric Optimal Control
  • 算法-判断快乐数
  • Scrapy和Selenium结合使用完整步骤
  • 物品租赁系统的设计与实现
  • C语言实现贪吃蛇游戏
  • C++新特性||线程协程(代码解析1)
  • 探索 .idea 文件夹:Java Maven 工程的隐形守护者
  • c#String和StringBuilder
  • UE5材质节点SimpleGrassWind
  • Unity-Mirror网络框架-从入门到精通之Mirror简介
  • Linux(13)——网络概述
  • NLP模型工程化部署
  • Mybatis 为什么不需要给Mapper接口写实现类,为什么要使用代理而不是硬编码?
  • 数据库的概念和操作
  • day22-YUM与开源项目(Web运维)
  • 我的JAVA-Web进阶--Mybatis
  • ES elasticsearch-8.17.0-windows-x86_64使用
  • vue3学习笔记(11)-组件通信
  • 【阅读笔记】《基于区间梯度的联合双边滤波图像纹理去除方法》