为什么在增加样本量的同时,错误会减少?
我手中有一个数据,在固定方差时,我通过增加数据的采样频率来增加样本量。随着样本量的增加,均方误差会减小。
这样做的原因是什么?为什么会减少?
I have a data in my hand, I increase the sample size by increasing the sampling frequency of the data while the variance is fixed. As the sample size increases, the mean square error decreases.
What could be the reason for this? Why is it decreasing?
如果你对这篇内容有疑问,欢迎到本站社区发帖提问 参与讨论,获取更多帮助,或者扫码二维码加入 Web 技术交流群。

绑定邮箱获取回复消息
由于您还没有绑定你的真实邮箱,如果其他用户或者作者回复了您的评论,将不能在第一时间通知您!
发布评论
评论(1)
估计差异通常是成反比的(不必是线性)与样本量的。例如,对于平均估计,差异为$ \ var [x] = \ frac {\ sigma^2} {n} $,其中$ \ sigma $是噪声标准偏差,而$ n $是样本量。 在这里,您可以看到一个简短的示例。
The estimation variance is usually inversely proportional (does not have to be linear) to the sample size. For example, for mean estimation, the variance is $\Var[x]=\frac{\sigma^2}{n}$ where $\sigma$ is the noise standard deviation and $n$ is the sample size. Here, You can see a short example.