返回介绍

11.3 其他特征选择方法

发布于 2024-01-30 22:34:09 字数 251 浏览 0 评论 0 收藏 0

当你阅读机器学习文献的时候,会发现其他一些特征选择方法。其中一些甚至看起来并不像特征选择方法,因为它们是嵌在学习过程里面的(不要跟前面提到的封装器混淆)。例如决策树,它有一个深植于其内核的特征选择机制。其他学习方法则会采用一些正则化方法对模型复杂性进行惩罚,从而使学习过程朝着效果较好并且仍然“简单”的模型发展。它们是通过把效用不大的特征的重要性降低为0,然后把它们扔掉(L1正则化)进行特征选择的。

看吧!通常,机器学习方法的威力很大程度上要取决于植入它们的特征选择方法。

如果你对这篇内容有疑问,欢迎到本站社区发帖提问 参与讨论,获取更多帮助,或者扫码二维码加入 Web 技术交流群。

扫码二维码加入Web技术交流群

发布评论

需要 登录 才能够评论, 你可以免费 注册 一个本站的账号。
列表为空,暂无数据
    我们使用 Cookies 和其他技术来定制您的体验包括您的登录状态等。通过阅读我们的 隐私政策 了解更多相关信息。 单击 接受 或继续使用网站,即表示您同意使用 Cookies 和您的相关数据。
    原文