machine-learning

machine-learning

文章 0 浏览 5

寻找想法/参考/关键词:搜索算法的自适应参数控制(在线学习)

我正在寻找有关搜索算法参数(在线学习)的自适应参数控制的想法/经验/参考/关键字组合优化。 更详细一点: 我有一个框架,负责优化硬组合优化问题。…

鸠书 2024-10-04 03:41:10 8 0

“说话”和“学习”网络应用程序?

我的一位朋友在我的 Facebook 页面上发布了一个网络应用程序的链接,该应用程序能够与您进行真正的对话。一开始我对它有点怀疑,但玩过之后我发现它非…

画骨成沙 2024-10-03 22:56:16 8 0

WEKA 的多层感知器:训练然后再次训练

我正在尝试使用 weka 的 MultilayerPerceptron 执行以下操作: 使用一小部分训练实例来训练一部分历元输入, 使用整组实例来训练剩余的历元。 然而,…

榆西 2024-10-03 17:23:35 8 0

如何在分类中包含单词作为数字特征

在任何机器学习算法中使用单词本身作为特征的最佳方法是什么? 问题是我必须从特定段落中提取与单词相关的特征。我应该使用字典中的索引作为数字特征…

離人涙 2024-10-03 16:56:39 10 0

使用 Python 绑定 SVM 库 LIBSVM 的示例

我迫切需要一个在 python 中使用 LibSVM 的分类任务示例。我不知道输入应该是什么样子,也不知道哪个函数负责训练,哪个函数负责测试 谢谢…

萌化 2024-10-03 03:21:27 7 0

神经网络加权

最近我研究了反向传播网络并做了一些手动练习。 之后,我提出了一个问题(也许没有意义):遵循两种不同的替换方法有什么重要的吗: 1. 增量训练:一…

世界和平 2024-10-03 00:37:53 16 0

机器学习和统计学有什么区别?

在 2010 年图灵讲座 Christopher Bishop 谈论机器学习正在经历一场革命,因为统计学正在应用于机器学习算法...... 但它就像所有机器学习算法一样都是…

随心而道 2024-10-02 22:41:38 3 0

使用 Apache Mahout 对数据进行分类

我正在尝试解决一个简单的分类问题。 问题: 我有一组文本,我必须根据内容对它们进行分类。 使用 Mahout 的解决方案: 我知道我必须将输入转换为序列…

南烟 2024-10-01 18:43:27 13 0

“预建”潜在语义分析矩阵

我想对我正在构建的小型应用程序使用潜在语义分析,但我不想自己构建矩阵。 (部分是因为我拥有的文档不会成为一个很好的培训集合,因为它们有点短且…

套路撩心 2024-10-01 14:19:49 15 0

k-means会陷入无限循环吗?

我研究过 k 均值算法并且知道它是如何工作的。 只是好奇,是否有任何情况该算法会进入无限循环,比如说我们对初始质心点有一些特别糟糕的选择?我只能…

氛圍 2024-09-30 21:15:54 8 0

用于前馈神经网络训练的有效数据集大小

我在 python 中使用前馈神经网络,使用 pybrain 实现。对于训练,我将使用反向传播算法。我知道,对于神经网络,我们需要拥有适量的数据,以免网络训…

回心转意 2024-09-30 20:19:09 11 0

哪种人工智能理论最有可能催生智能机器?

我目前正在阅读杰夫·霍金斯的《论情报》。他的记忆预测框架非常发人深省,并且对什么是智力给出了有希望的解释。是否还有其他类似的理论试图提供一个…

酸甜透明夹心 2024-09-30 19:50:52 7 0

反向传播实现问题

我应该做什么。我有一个黑白图像(100x100px): 我应该训练一个 使用该图像的反向传播神经网络。输入是图像的 x、y 坐标(从 0 到 99),输出是 1(…

老街孤人 2024-09-30 08:56:24 10 0

关于聚类方法的问题

最近我开始研究数据挖掘中的聚类,并且研究了顺序聚类、层次聚类和 k 均值。 我还读到了一种将 k-means 与其他两种聚类技术区分开来的说法,说 k-mean…

暮凉 2024-09-30 07:52:06 11 0

关于一些数据挖掘算法的问题

最近我研究了k近邻和决策树,我很好奇两者之间的区别,即,对于像分离目标函数这样的任务“如果x2>x1返回1,否则返回0”,那么选择最近邻将在这里很好…

平安喜乐 2024-09-30 05:49:22 9 0
我们使用 Cookies 和其他技术来定制您的体验包括您的登录状态等。通过阅读我们的 隐私政策 了解更多相关信息。 单击 接受 或继续使用网站,即表示您同意使用 Cookies 和您的相关数据。
原文