python实现线性回归,使用梯度下降法,结果成了一条水平直线,哪儿出了问题?

发布于 2022-09-01 23:48:15 字数 1510 浏览 19 评论 0

用最小二乘法出来结果是这样的
clipboard.png
相应的cost function 是2.9

梯度下降就成这样了。。。。
clipboard.png
线的轨迹是从下到上,到中间基本就不怎么动了
cost function 到74.9左右变化就很小

代码如下:

import pandas as pd
from numpy import *
import matplotlib.pyplot as plt

year = [2000, 2001, 2002, 2003, 2004, 2005, 2006, 2007, 2008,
2009, 2010, 2011, 2012, 2013]
price = [2.000, 2.500, 2.900, 3.147, 4.515, 4.903, 5.365, 5.704,
6.853, 7.971, 8.561, 10.000, 11.280, 12.900]
m = len(year)

# initialize
xx = mat(array(year))
xx = xx.T
x0 = mat(ones((m, 1)))
# print x0
xx = hstack((x0, xx))
# print xx

yy = mat(array(price))
yy = yy.T
# # xx is m*2 matrix   
# # yy is m*1  

# Hypothesis
def h(vx, theta):
    return vx * theta
    
# Cost function
def J(theta, vx, vy):
    J = float((vx * theta - vy).T * (vx * theta - vy)) / 2
    return J

# Gradient Descent
theta = mat([0, 0]).T

n_iters = 99
alpha = 0.0000001

J_history = mat(ones((n_iters, 1)))
for i in range(n_iters):
    err = xx * theta - yy
    theta = theta - alpha/m * xx.T * err
    J_history[i, :] = J(theta, xx, yy)
    print(J_history[i, :])
    print("\n")
    plt.scatter(year, price)
    plt.plot(year, xx * theta)

print("GD over\n\n\n")
print(J_history)
print("GD over\n\n\n")
print(theta.T)
plt.show()

如果你对这篇内容有疑问,欢迎到本站社区发帖提问 参与讨论,获取更多帮助,或者扫码二维码加入 Web 技术交流群。

扫码二维码加入Web技术交流群

发布评论

需要 登录 才能够评论, 你可以免费 注册 一个本站的账号。

评论(4

听风念你 2022-09-08 23:48:15

把2000-2013改成了0-13就好了

你是我的挚爱i 2022-09-08 23:48:15

学习速率alpha太小了吧,参数基本没有变

作死小能手 2022-09-08 23:48:15

theta迭代次数太少,而且每次的学习步长alpha太小。当时学的时候,一般都是10000次迭代,或者当前cost减去前一次的cost的值在一个很小的范围,说明已经到了极小值点附近,就跳出循环

绝情姑娘 2022-09-08 23:48:15

如果楼主想学随机梯度下降算法的话,可以参考这篇文章自己动手用python写梯度下降

~没有更多了~
我们使用 Cookies 和其他技术来定制您的体验包括您的登录状态等。通过阅读我们的 隐私政策 了解更多相关信息。 单击 接受 或继续使用网站,即表示您同意使用 Cookies 和您的相关数据。
原文