神经网络的复习

发布于 2023-05-07 10:22:14 字数 1496 浏览 73 评论 0

计算的高速化

位精度

默认是 float64

>>> import numpy as np
>>> a = np.random.randn(3)
>>> a.dtype
dtype('float64')

指定 float32

>>> b = np.random.randn(3).astype(np.float32)
>>> b.dtype
dtype('float32')

将权重数据用 16 位精度保存时,只需要 32 位时的一半容量。 因此,仅在保存学习好的权重时,将其变换为 16 位浮点数。

Google TPU support 8 bit computation。

GPU(CuPy)

先安装 CuDA:https://docs.nvidia.com/cuda/cuda-installation-guide-microsoft-windows/index.html

然后验证安装, 得知 Cuda 版本为 11.1

$ nvcc -V
nvcc: NVIDIA (R) Cuda compiler driver
Copyright (c) 2005-2020 NVIDIA Corporation
Built on Mon_Oct_12_20:54:10_Pacific_Daylight_Time_2020
Cuda compilation tools, release 11.1, V11.1.105
Build cuda_11.1.relgpu_drvr455TC455_06.29190527_0

接下来,安装对应版本的 cupy,注意版本必须对应:https://docs.cupy.dev/en/latest/install.html

pip install cupy-cuda111

测试 cupy

$ python
Python 3.7.4 (tags/v3.7.4:e09359112e, Jul  8 2019, 20:34:20) [MSC v.1916 64 bit (AMD64)] on win32
Type "help", "copyright", "credits" or "license" for more information.
>>> import cupy as cp
>>> x = cp.arange(6).reshape(2, 3).astype('f')
>>> x
array([[0., 1., 2.],
       [3., 4., 5.]], dtype=float32)

如果你对这篇内容有疑问,欢迎到本站社区发帖提问 参与讨论,获取更多帮助,或者扫码二维码加入 Web 技术交流群。

扫码二维码加入Web技术交流群

发布评论

需要 登录 才能够评论, 你可以免费 注册 一个本站的账号。
列表为空,暂无数据

关于作者

茶色山野

暂无简介

0 文章
0 评论
24 人气
更多

推荐作者

eins

文章 0 评论 0

世界等同你

文章 0 评论 0

毒初莱肆砂笔

文章 0 评论 0

初雪

文章 0 评论 0

miao

文章 0 评论 0

qq_zQQHIW

文章 0 评论 0

    我们使用 Cookies 和其他技术来定制您的体验包括您的登录状态等。通过阅读我们的 隐私政策 了解更多相关信息。 单击 接受 或继续使用网站,即表示您同意使用 Cookies 和您的相关数据。
    原文