01. Python 工具
02. Python 基础
03. Numpy
- Numpy 简介
- Matplotlib 基础
- Numpy 数组及其索引
- 数组类型
- 数组方法
- 数组排序
- 数组形状
- 对角线
- 数组与字符串的转换
- 数组属性方法总结
- 生成数组的函数
- 矩阵
- 一般函数
- 向量化函数
- 二元运算
- ufunc 对象
- choose 函数实现条件筛选
- 数组广播机制
- 数组读写
- 结构化数组
- 记录数组
- 内存映射
- 从 Matlab 到 Numpy
04. Scipy
05. Python 进阶
- sys 模块简介
- 与操作系统进行交互:os 模块
- CSV 文件和 csv 模块
- 正则表达式和 re 模块
- datetime 模块
- SQL 数据库
- 对象关系映射
- 函数进阶:参数传递,高阶函数,lambda 匿名函数,global 变量,递归
- 迭代器
- 生成器
- with 语句和上下文管理器
- 修饰符
- 修饰符的使用
- operator, functools, itertools, toolz, fn, funcy 模块
- 作用域
- 动态编译
06. Matplotlib
- Pyplot 教程
- 使用 style 来配置 pyplot 风格
- 处理文本(基础)
- 处理文本(数学表达式)
- 图像基础
- 注释
- 标签
- figures, subplots, axes 和 ticks 对象
- 不要迷信默认设置
- 各种绘图实例
07. 使用其他语言进行扩展
- 简介
- Python 扩展模块
- Cython:Cython 基础,将源代码转换成扩展模块
- Cython:Cython 语法,调用其他C库
- Cython:class 和 cdef class,使用 C++
- Cython:Typed memoryviews
- 生成编译注释
- ctypes
08. 面向对象编程
09. Theano 基础
- Theano 简介及其安装
- Theano 基础
- Theano 在 Windows 上的配置
- Theano 符号图结构
- Theano 配置和编译模式
- Theano 条件语句
- Theano 循环:scan(详解)
- Theano 实例:线性回归
- Theano 实例:Logistic 回归
- Theano 实例:Softmax 回归
- Theano 实例:人工神经网络
- Theano 随机数流变量
- Theano 实例:更复杂的网络
- Theano 实例:卷积神经网络
- Theano tensor 模块:基础
- Theano tensor 模块:索引
- Theano tensor 模块:操作符和逐元素操作
- Theano tensor 模块:nnet 子模块
- Theano tensor 模块:conv 子模块
10. 有趣的第三方模块
11. 有用的工具
- pprint 模块:打印 Python 对象
- pickle, cPickle 模块:序列化 Python 对象
- json 模块:处理 JSON 数据
- glob 模块:文件模式匹配
- shutil 模块:高级文件操作
- gzip, zipfile, tarfile 模块:处理压缩文件
- logging 模块:记录日志
- string 模块:字符串处理
- collections 模块:更多数据结构
- requests 模块:HTTP for Human
12. Pandas
Theano 实例:线性回归
基本模型
在用 theano
进行线性回归之前,先回顾一下 theano
的运行模式。
theano
是一个符号计算的数学库,一个基本的 theano
结构大致如下:
- 定义符号变量
- 编译用符号变量定义的函数,使它能够用这些符号进行数值计算。
- 将函数应用到数据上去
In [1]:
%matplotlib inline
from matplotlib import pyplot as plt
import numpy as np
import theano
from theano import tensor as T
Using gpu device 0: GeForce GTX 850M
简单的例子:$y = a \times b, a, b \in \mathbb{R}$
定义 $a, b, y$:
In [2]:
a = T.scalar()
b = T.scalar()
y = a * b
编译函数:
In [3]:
multiply = theano.function(inputs=[a, b], outputs=y)
将函数运用到数据上:
In [4]:
print multiply(3, 2) # 6
print multiply(4, 5) # 20
6.0
20.0
线性回归
回到线性回归的模型,假设我们有这样的一组数据:
In [5]:
train_X = np.linspace(-1, 1, 101)
train_Y = 2 * train_X + 1 + np.random.randn(train_X.size) * 0.33
分布如图:
In [6]:
plt.scatter(train_X, train_Y)
plt.show()
https://www.wenjiangs.com/wp-content/uploads/2022/docimg20/n5NQLiSPttfzzhv6-GdwH03.png alt="">
定义符号变量
我们使用线性回归的模型对其进行模拟: $$\bar{y} = wx + b$$
首先我们定义 $x, y$:
In [7]:
X = T.scalar()
Y = T.scalar()
可以在定义时候直接给变量命名,也可以之后修改变量的名字:
In [8]:
X.name = 'x'
Y.name = 'y'
我们的模型为:
In [9]:
def model(X, w, b):
return X * w + b
在这里我们希望模型得到 $\bar{y}$ 与真实的 $y$ 越接近越好,常用的平方损失函数如下: $$C = |\bar{y}-y|^2$$
有了损失函数,我们就可以使用梯度下降法来迭代参数 $w, b$ 的值,为此,我们将 $w$ 和 $b$ 设成共享变量:
In [10]:
w = theano.shared(np.asarray(0., dtype=theano.config.floatX))
w.name = 'w'
b = theano.shared(np.asarray(0., dtype=theano.config.floatX))
b.name = 'b'
定义 $\bar y$:
In [11]:
Y_bar = model(X, w, b)
theano.pp(Y_bar)
Out[11]:
'((x * HostFromGpu(w)) + HostFromGpu(b))'
损失函数及其梯度:
In [12]:
cost = T.mean(T.sqr(Y_bar - Y))
grads = T.grad(cost=cost, wrt=[w, b])
定义梯度下降规则:
In [13]:
lr = 0.01
updates = [[w, w - grads[0] * lr],
[b, b - grads[1] * lr]]
编译训练模型
每运行一次,参数 $w, b$ 的值就更新一次:
In [14]:
train_model = theano.function(inputs=[X,Y],
outputs=cost,
updates=updates,
allow_input_downcast=True)
将训练函数应用到数据上
训练模型,迭代 100 次:
In [15]:
for i in xrange(100):
for x, y in zip(train_X, train_Y):
train_model(x, y)
显示结果:
In [16]:
print w.get_value() # 接近 2
print b.get_value() # 接近 1
plt.scatter(train_X, train_Y)
plt.plot(train_X, w.get_value() * train_X + b.get_value(), 'r')
plt.show()
1.94257426262
1.00938093662
https://www.wenjiangs.com/wp-content/uploads/2022/docimg20/8TaTwV8SOYdedO64-UnwVuW.png alt="">
如果你对这篇内容有疑问,欢迎到本站社区发帖提问 参与讨论,获取更多帮助,或者扫码二维码加入 Web 技术交流群。
绑定邮箱获取回复消息
由于您还没有绑定你的真实邮箱,如果其他用户或者作者回复了您的评论,将不能在第一时间通知您!
发布评论