神经网络的复习
计算的高速化
位精度
默认是 float64
>>> import numpy as np >>> a = np.random.randn(3) >>> a.dtype dtype('float64')
指定 float32
>>> b = np.random.randn(3).astype(np.float32) >>> b.dtype dtype('float32')
将权重数据用 16 位精度保存时,只需要 32 位时的一半容量。 因此,仅在保存学习好的权重时,将其变换为 16 位浮点数。
Google TPU support 8 bit computation。
GPU(CuPy)
先安装 CuDA:https://docs.nvidia.com/cuda/cuda-installation-guide-microsoft-windows/index.html
然后验证安装, 得知 Cuda 版本为 11.1
$ nvcc -V nvcc: NVIDIA (R) Cuda compiler driver Copyright (c) 2005-2020 NVIDIA Corporation Built on Mon_Oct_12_20:54:10_Pacific_Daylight_Time_2020 Cuda compilation tools, release 11.1, V11.1.105 Build cuda_11.1.relgpu_drvr455TC455_06.29190527_0
接下来,安装对应版本的 cupy,注意版本必须对应:https://docs.cupy.dev/en/latest/install.html
pip install cupy-cuda111
测试 cupy
$ python Python 3.7.4 (tags/v3.7.4:e09359112e, Jul 8 2019, 20:34:20) [MSC v.1916 64 bit (AMD64)] on win32 Type "help", "copyright", "credits" or "license" for more information. >>> import cupy as cp >>> x = cp.arange(6).reshape(2, 3).astype('f') >>> x array([[0., 1., 2.], [3., 4., 5.]], dtype=float32)
如果你对这篇内容有疑问,欢迎到本站社区发帖提问 参与讨论,获取更多帮助,或者扫码二维码加入 Web 技术交流群。
上一篇: Web 动画性能
绑定邮箱获取回复消息
由于您还没有绑定你的真实邮箱,如果其他用户或者作者回复了您的评论,将不能在第一时间通知您!
发布评论