迭代机器学习算法
我需要一个机器学习算法,它需要一些 (x,y) 形式的训练样本, 并计算近似函数f:X→Y,使得误差最小。误差定义为 b/ny 和 f(x) 之差。
但这种学习算法必须是迭代的,并且随着迭代次数的增加,误差必然减小。
任何例子都会有帮助。
I need a machine learning algorithm which takes some training samples of form (x,y),
and compute approximate function f:X->Y such that the error is minimum. error is defined as the difference b/n y and f(x).
But this learning algorithm must be a iterative one,and As the no.of iterations increases, the error must be decreased.
Any example would be helpful.
如果你对这篇内容有疑问,欢迎到本站社区发帖提问 参与讨论,获取更多帮助,或者扫码二维码加入 Web 技术交流群。
绑定邮箱获取回复消息
由于您还没有绑定你的真实邮箱,如果其他用户或者作者回复了您的评论,将不能在第一时间通知您!
发布评论
评论(2)
神经网络是一种具有两个特征的算法:
1.它可以对新数据进行迭代训练
2.它可以迭代地训练相同的数据,因此每次迭代的误差都会减少。 (反向传播学习)
Neural network is one algorithm that have two features:
1. It can train iterativly on new data
2. It can train on same data iterativly, so error is decreased with each iteration. (back propagation learning)
……以及任何通常的提升算法,因为提升过程迭代地改进了分类器。
...and any boosting algorithm generally, because boosting process improves classifier iteratively.