文章来源于网络收集而来,版权归原创者所有,如有侵权请及时联系!
第7章 回归:推荐
关于回归的知识,你可能已经在高等学校的数学课上学过了。在那里它叫做普通最小二乘法 (Ordinary Least Squares,OLS)回归。这个源自20世纪的古老技术运行速度很快,并且可以有效地解决很多真实问题。本章,我们将从回顾OLS回归开始,告诉你如何在NumPy和Scikit-learn里使用它们。
在各种现代应用中,我们碰到了许多经典方法的局限,并开始从一些高级方法中受益;你将在本章里看到这些。当我们要考虑很多特征的时候更是如此,包括特征个数超过样本个数的情况(这是普通最小二乘法所不能正确处理的情况)。这些技术非常先进,是近10年发展起来的,包括lasso法、岭(ridge)回归和弹性网络(elastic net)等。我们之后将会深入介绍。
最后,我们来研究一下推荐。它在很多应用里都是一个重要的领域,为很多应用带来了显著的附加价值。我们将从这个课题开始探索,并在下一章里看到更多细节。
如果你对这篇内容有疑问,欢迎到本站社区发帖提问 参与讨论,获取更多帮助,或者扫码二维码加入 Web 技术交流群。
绑定邮箱获取回复消息
由于您还没有绑定你的真实邮箱,如果其他用户或者作者回复了您的评论,将不能在第一时间通知您!
发布评论