技术标签: # Pytorch笔记
1.只分配空间
x1 = torch.Tensor(5, 3) # 数据是随机的,只是分配了可见,没有初始化,所及数据是对应空间里的数据
print(x1)
输出:
tensor([[7.3470e-39, 8.9082e-39, 8.9082e-39],
[1.0194e-38, 9.1837e-39, 4.6837e-39],
[9.2755e-39, 1.0837e-38, 8.4490e-39],
[9.9184e-39, 9.9184e-39, 9.0000e-39],
[1.0561e-38, 1.0653e-38, 4.1327e-39]])
2.0-1分布
x2 = torch.rand(5, 3) # 使用[0,1]分布(默认的)随机初始化数据,构建(5, 3)shape的数组
print(x2)
输出:
tensor([[0.0786, 0.0817, 0.5277],
[0.3758, 0.9402, 0.2716],
[0.0723, 0.3258, 0.7880],
[0.9141, 0.7395, 0.1126],
[0.9843, 0.5128, 0.9107]])
3.直接创建
x3 = torch.tensor([ [1,2,3,4],
[5,6,7,8]])
print(x3)
输出:
tensor([[1, 2, 3, 4],
[5, 6, 7, 8]])
4.同一个数值
x4 = torch.full((5, 3), 6)
print(x4)
输出:
tensor([[6., 6., 6.],
[6., 6., 6.],
[6., 6., 6.],
[6., 6., 6.],
[6., 6., 6.]])
5.在一个区间内按一定步长
x5 = torch.arange(0, 100, 10) # 从0到99,按步长为10进行生成
print(x5)
输出:
tensor([ 0, 10, 20, 30, 40, 50, 60, 70, 80, 90])
或者:
在一定区间内均匀生成多少份,步长自动计算
x6 = torch.linspace(0, 100, 10) # 在0到100均匀生成10份
print(x6)
输出:
tensor([ 0.0000, 11.1111, 22.2222, 33.3333, 44.4444, 55.5556, 66.6667,
77.7778, 88.8889, 100.0000])
这里可见看出来使用torch.linspace包含end,0到100分成10个数,相对于在0到100的线段上均匀定9个点,100/9 = 11.111111······,所以,步长为11.11111.
如果生成11份,步长就为10了。
输出:
tensor([ 0., 10., 20., 30., 40., 50., 60., 70., 80., 90., 100.])
6.特殊矩阵
# 特殊矩阵
x7 = torch.zeros(5, 3) # 全0矩阵
print(x7)
x8 = torch.ones(5, 3) # 全1矩阵
print(x8)
x9 = torch.eye(3, 3) # 单位阵
print(x9)
x10 = torch.eye(5, 3) # 当输入shape不是方阵时,一部分是单位阵,多出来的部分为0
print(x10)
输出:
tensor([[0., 0., 0.],
[0., 0., 0.],
[0., 0., 0.],
[0., 0., 0.],
[0., 0., 0.]])
tensor([[1., 1., 1.],
[1., 1., 1.],
[1., 1., 1.],
[1., 1., 1.],
[1., 1., 1.]])
tensor([[1., 0., 0.],
[0., 1., 0.],
[0., 0., 1.]])
tensor([[1., 0., 0.],
[0., 1., 0.],
[0., 0., 1.],
[0., 0., 0.],
[0., 0., 0.]])
7.生成一个与已知tensor的shape相同的tensor
x11 = torch.rand_like(x10)
print(x11)
输出:
tensor([[0.2761, 0.7960, 0.0800],
[0.3035, 0.3525, 0.5574],
[0.3570, 0.5426, 0.4790],
[0.3504, 0.3996, 0.1984],
[0.5939, 0.3260, 0.6721]])
8.从numpy转
x12 = np.random.rand(5, 3)
print(x12)
x12 = torch.from_numpy(x12)
print(x12)
输出:
[[0.14858865 0.18512316 0.97759539]
[0.96559993 0.75191884 0.1561388 ]
[0.71575248 0.88542421 0.29086326]
[0.67362585 0.00512253 0.34022816]
[0.69759491 0.25110932 0.71962754]]
tensor([[0.1486, 0.1851, 0.9776],
[0.9656, 0.7519, 0.1561],
[0.7158, 0.8854, 0.2909],
[0.6736, 0.0051, 0.3402],
[0.6976, 0.2511, 0.7196]], dtype=torch.float64)
x2 = torch.rand(5, 3) # 使用[0,1]分布(默认的)随机初始化数据,构建(5, 3)shape的数组
print(x2)
print(x2.size()) # (列,行)
print(x2.shape) # (列, 行)
print(x2.dtype) # 数据类型
输出:
tensor([[0.6725, 0.6270, 0.0352],
[0.0420, 0.4865, 0.7263],
[0.9950, 0.3957, 0.3868],
[0.3802, 0.3337, 0.0465],
[0.0089, 0.7211, 0.1279]])
torch.Size([5, 3])
torch.Size([5, 3])
torch.float32
import torch
x1 = torch.randint(0, 10, (5, 3), dtype=torch.float)
print(x1)
x2 = torch.eye(5, 3)
print(x2)
# 1
print(x1 + x2)
# 2
print(torch.add(x1, x2))
# 3
print(x1.add(x2))
# 4
sum = torch.Tensor(5, 3) # 预先分配空间
torch.add(x1, x2, out=sum) # 加的结果保存在sum里
print(sum)
输出:
tensor([[5., 5., 8.],
[9., 3., 8.],
[9., 8., 3.],
[5., 5., 6.],
[6., 9., 5.]])
tensor([[1., 0., 0.],
[0., 1., 0.],
[0., 0., 1.],
[0., 0., 0.],
[0., 0., 0.]])
tensor([[6., 5., 8.],
[9., 4., 8.],
[9., 8., 4.],
[5., 5., 6.],
[6., 9., 5.]])
tensor([[6., 5., 8.],
[9., 4., 8.],
[9., 8., 4.],
[5., 5., 6.],
[6., 9., 5.]])
tensor([[6., 5., 8.],
[9., 4., 8.],
[9., 8., 4.],
[5., 5., 6.],
[6., 9., 5.]])
tensor([[6., 5., 8.],
[9., 4., 8.],
[9., 8., 4.],
[5., 5., 6.],
[6., 9., 5.]])
这个算是和python的特性一致,不加下划线的第一种就是普通的加法,不会改变tensor1的内容。而加了下划线,即第二种,加的结果会赋值给tensor1。
例子:
print(x1.add(x2))
print(x1)
print(x1.add_(x2))
print(x1)
输出:
tensor([[5., 8., 9.],
[2., 4., 3.],
[6., 2., 9.],
[3., 1., 3.],
[8., 5., 9.]])
tensor([[4., 8., 9.],
[2., 3., 3.],
[6., 2., 8.],
[3., 1., 3.],
[8., 5., 9.]])
tensor([[5., 8., 9.],
[2., 4., 3.],
[6., 2., 9.],
[3., 1., 3.],
[8., 5., 9.]])
tensor([[5., 8., 9.],
[2., 4., 3.],
[6., 2., 9.],
[3., 1., 3.],
[8., 5., 9.]])
其他的减法,乘法,除法均可使用:-,*,/。同时也可以使用
torch.sub()
减法torch.mul()
乘法,只是简单的对应位置相乘,不是矩阵的乘法torch.div()
除法,对应位置相除或者
tensor1.sub(tensor2)
tensor1.mul(tensor2)
tensor.div(tensor2)
其中,如果被除数为0,会出现这样的结果:
tensor([[9., inf, inf],
[inf, 6., inf],
[inf, inf, 0.],
[nan, inf, inf],
[inf, inf, inf]])
上面的三种运算中torch.sub()
这种也都可以添加out=
.
此外,还有很多其他的运算,基本都比较简单。
RuntimeError: expected backend CPU and dtype Float but got backend CPU and dtype Long
这种情况,根据提示信息就是数据的类型不对。
一般可以在创建tensor的时候添加dtype=torch.float
类似的语句来改。也可以使用tensor1.float()
来修改
查看tensor的数据类型时:使用tensor1.dtype
文章浏览阅读4.4w次,点赞11次,收藏56次。分类问题是人类所面临的一个非常重要且具有普遍意义的问题,我们生活中的很多问题归根到底都是分类问题。文本分类就是根据文本内容将其分到合适的类别,它是自然语言处理的一个十分重要的问题。文本分类主要应用于信息检索,机器翻译,自动文摘,信息过滤,邮件分类等任务。文本分类技术发展历史 1960-1970:那时主要通过人工+规则(关键词或者正则表达式)的方式,制定规则的人需要对某类目领域有足够的认知和了解。举_文本特征提取word2vec
文章浏览阅读1k次。本文利用libevent,实现一个C++线程池,,可自定义用户任务类,继承于任务task基类,重写任务基类的纯虚函数实现多态。比如将定义定义处理客户端的请求任务类,实现对客户端请求的并发处理。工作队列:可以理解为线程的队列,一个线程同时可以处理一个任务,空闲的线程回从任务队列取出任务执行。当工作队列空时,线程会睡眠。任务队列:用户将任务加入任务队列,然后通知工作队列,取出一个任务到线程中执行。_windows c++ 开发 客户端 libevent
文章浏览阅读3.4w次,点赞3次,收藏11次。篇一:《工作中存在的不足及改进措施》通过近一段时间的工作,反省自身,还存在许多不足和缺点,现将近期的工作、学习中存在的不足和缺点简要总结如下:1、自身的专业业务水平不高,事故应急处理能力不强.虽然通过学习和工作经验的积累,在业务水平上有了一定的提高,但业务水平和工作经验与其它老同志比还是比较低.在日常工作中偏重于日常生产工作,也忽视了自身思想素质的提高,工作中争强当先的意识不强.2、工作上满足于正..._工作不足之处及改进措施
文章浏览阅读2k次。常用的poi工具,如easy-excel,hutool读取excel是都是先将整个excel加载到内存中分析,然后再一行行遍历,当excel文件太大时读取的时间就会更长,如果我们只需要读取excel的前几行来进行预览就不能使用这种方式,应该按需读取。_java 读取大文件excel
文章浏览阅读237次。HTML_常用标签测试_html标签检测
文章浏览阅读482次。牛顿法是一种用于求解非线性方程组的迭代优化方法。其基本原理是基于泰勒级数展开和一阶导数的近似,通过不断迭代修正初始猜测解来逼近方程组的解。Fx0其中,Fxf1xf2x...fnxT是一个多元函数,xx1x2...xnT是待求解的变量向量。牛顿法的基本思想是,在当前的迭代点xk处,用一个一阶泰勒展开来近似fixfix≈fixkj1∑n∂xj∂fixk。
文章浏览阅读815次。文章目录摘要摘要_后端克里金插值分析
文章浏览阅读3.3w次,点赞10次,收藏36次。我们在 Windows 操作系统中写文档,做笔记,通常使用 Windows 自带的记事本,可是记事本不支持插入图片,创建表格等功能,从而不得不使用 Office Word。不知道大家有没有这样的感觉,使用 Office Word 写文档,效率极低,需要一边敲字,一边使用鼠标排版,比如:在文章中给团队的名字“LSGO软件技术团队”加粗,就需要先用鼠标选中这个词语,然后点击工具栏中“B”形状的工具..._有道云笔记如何建立 文档索引
文章浏览阅读137次。IP-guard 远程命令执行漏洞_ipg 漏洞
文章浏览阅读255次。2017年,全球数据泄露事件已不仅是呈翻倍的速度增长。16年的14亿条,到17年仅上半年的17亿条,这样的数据泄露规模你是否还在存在侥幸心理,就是那所谓的“怎么可能刚好落在我身上”。随着我们在工作、生活中的云化,就在今天,万物互联已经融入到我们每个人的生活中,相信在不就的将来,整个IOT时代也将会很快的到来。仔细回忆一下,今天我们所做的任何情都离不..._8,iot时代,数据安全有哪些新特征?
文章浏览阅读6.7k次,点赞47次,收藏143次。存放文本时,也可以使用Text数据类型,可以将TEXT列视为VARCHAR列,注意Text不能有默认值,大小0-2^16字节;同一查询在同一事务中多次进行,由于其它提交事务所做的修改和删除,每次返回不同的结果集,则发生不可重复读;多个连接开启各自事务操作数据库中数据时,数据库系统要负责隔离操作,以保证各个连接在获取数据是的准确性;同一查询在同一个事务中多次执行,由于其它提交事务所做的插入操作,每次返回不同的结果集,此时发生幻读;同真是的表一样,视图包含列,其数据来自对应的真实表(基表)_mysql教程
文章浏览阅读550次,点赞10次,收藏6次。GD32官方的开发环境(基于Eclipse)的使用。_gd32e23 开发环境