返回介绍

Sklearn 中的线性回归

发布于 2025-01-01 12:38:41 字数 962 浏览 0 评论 0 收藏 0

考虑系统 Xβ=y ,其中 X 的行比列更多。 当你有比变量更多的数据样本时会发生这种情况。 我们想要找到 \hat \beta 来最小化:

\big\vert\big\vert X\beta - y \big\vert\big\vert_2

让我们从使用 sklearn 实现开始:

regr = linear_model.LinearRegression()
%timeit regr.fit(trn, y_trn)

# 458 µs ± 62.4 µs per loop (mean ± std. dev. of 7 runs, 1000 loops each)

pred = regr.predict(test)

有一些指标来表示我们的预测有多好,会很有帮助。 我们将研究均方范数(L2)和平均绝对误差(L1)。

def regr_metrics(act, pred):
    return (math.sqrt(metrics.mean_squared_error(act, pred)), 
    metrics.mean_absolute_error(act, pred))

regr_metrics(y_test, regr.predict(test))

# (75.36166834955054, 60.629082113104403)

如果你对这篇内容有疑问,欢迎到本站社区发帖提问 参与讨论,获取更多帮助,或者扫码二维码加入 Web 技术交流群。

扫码二维码加入Web技术交流群

发布评论

需要 登录 才能够评论, 你可以免费 注册 一个本站的账号。
列表为空,暂无数据
    我们使用 Cookies 和其他技术来定制您的体验包括您的登录状态等。通过阅读我们的 隐私政策 了解更多相关信息。 单击 接受 或继续使用网站,即表示您同意使用 Cookies 和您的相关数据。
    原文