返回介绍

第7章 回归:推荐

发布于 2024-01-30 22:34:09 字数 431 浏览 0 评论 0 收藏 0

关于回归的知识,你可能已经在高等学校的数学课上学过了。在那里它叫做普通最小二乘法 (Ordinary Least Squares,OLS)回归。这个源自20世纪的古老技术运行速度很快,并且可以有效地解决很多真实问题。本章,我们将从回顾OLS回归开始,告诉你如何在NumPy和Scikit-learn里使用它们。

在各种现代应用中,我们碰到了许多经典方法的局限,并开始从一些高级方法中受益;你将在本章里看到这些。当我们要考虑很多特征的时候更是如此,包括特征个数超过样本个数的情况(这是普通最小二乘法所不能正确处理的情况)。这些技术非常先进,是近10年发展起来的,包括lasso法、岭(ridge)回归和弹性网络(elastic net)等。我们之后将会深入介绍。

最后,我们来研究一下推荐。它在很多应用里都是一个重要的领域,为很多应用带来了显著的附加价值。我们将从这个课题开始探索,并在下一章里看到更多细节。

如果你对这篇内容有疑问,欢迎到本站社区发帖提问 参与讨论,获取更多帮助,或者扫码二维码加入 Web 技术交流群。

扫码二维码加入Web技术交流群

发布评论

需要 登录 才能够评论, 你可以免费 注册 一个本站的账号。
列表为空,暂无数据
    我们使用 Cookies 和其他技术来定制您的体验包括您的登录状态等。通过阅读我们的 隐私政策 了解更多相关信息。 单击 接受 或继续使用网站,即表示您同意使用 Cookies 和您的相关数据。
    原文