torch.nn.Conv2d 为什么只定义卷积核的大小,而不定义卷积核的具体数值
#输入通道是 3 , 输出通道是 5 , 卷积核大小是 3 * 3
x=torch.nn.Conv2d(in_channels=3,out_channels=4,kernel_size=3,groups=1)
为什么这一步只定义卷积核的大小,但是不定义具体的数值呢?
#创建一个输入:样本数 1 ,输入通道是 3 ,行数是 5 , 列数也是5
input=torch.ones(1,3,5,5)
#将 x 作用于 输入上
out=x(input)
看了卷积的知识,卷积应该是 卷积核 与 输入参数 的对应位置 相乘,再相加的过程。
为什么pytorch 中不用定义卷积核的具体的数值呢,
没有具体值 要用什么数来相乘呢?
如果你对这篇内容有疑问,欢迎到本站社区发帖提问 参与讨论,获取更多帮助,或者扫码二维码加入 Web 技术交流群。
绑定邮箱获取回复消息
由于您还没有绑定你的真实邮箱,如果其他用户或者作者回复了您的评论,将不能在第一时间通知您!
发布评论
评论(2)
知道了 ,卷积核都是随机的,可以通过 list(x.parameters()) 来查看随机出来的值。
随机值的取值范围可以参考官方文档。
https://pytorch.apachecn.org/...
卷积核里面的参数,只是一开始是随机数,它本身是需要训练的权重值,只是一开始被初始化了为随机数,并不是一直都是随机数,它会随着网络的训练,逐渐发生变化,最后生成固定的权重值。