留一交叉验证查询
我目前正在尝试理解人工智能(学习)中的一个主题,并需要帮助理解以下内容:
为什么留一交叉验证算法在与多数分类器结合使用时得分为零而不是 50 %在相同数量的正例和负例的数据集上?
感谢您对此的指导。
I am currently trying to understand a topic in Artificial Intelligence (Learning) and need assistance in understanding the following:
Why would a Leave-one-out-cross-validation algorithm, when used in conjunction with a majority classifier, score zero instead of 50% on a data set of equal number of positive and negative examples?
Thank you for your guidance on this.
如果你对这篇内容有疑问,欢迎到本站社区发帖提问 参与讨论,获取更多帮助,或者扫码二维码加入 Web 技术交流群。
绑定邮箱获取回复消息
由于您还没有绑定你的真实邮箱,如果其他用户或者作者回复了您的评论,将不能在第一时间通知您!
发布评论
评论(1)
如果我正确理解这个问题,当你省略正样本时,训练集会有更多的负样本;因此,留下的样本被分类为负样本。反之亦然。
If I understand the question correctly, when you leave out the positive sample, the training set has more negative samples; therefore the left out sample is classified as negative. And vice versa.