线性回归和SPSS中的普通最小二乘法一样吗?

发布于 2024-08-11 16:22:36 字数 126 浏览 12 评论 0原文

我想使用线性回归模型,但我想使用普通最小二乘法,我认为这是一种线性回归。我使用的软件是SPSS。它只有线性回归、偏最小二乘和两阶段最小二乘。我不知道哪一个是普通最小二乘法 (OLS)。

I want to use a linear regression model, but I want to use ordinary least squares, which I think it is a type of linear regression. The software I use is SPSS. It only has linear regression, partial least squares and 2-stages least squares. I have no idea which one is ordinary least squares (OLS).

如果你对这篇内容有疑问,欢迎到本站社区发帖提问 参与讨论,获取更多帮助,或者扫码二维码加入 Web 技术交流群。

扫码二维码加入Web技术交流群

发布评论

需要 登录 才能够评论, 你可以免费 注册 一个本站的账号。

评论(2

回眸一笑 2024-08-18 16:22:36

是的,虽然“线性回归”是指对一个或多个变量之间的关系进行建模的任何方法,但 OLS 是用于查找一组数据的简单线性回归的方法。

Yes, although 'linear regression' refers to any approach to model the relationship between one or more variables, OLS is the method used to find the simple linear regression of a set of data.

策马西风 2024-08-18 16:22:36

线性回归是一个广泛的术语,它只是说我们正在寻找因变量和自变量之间的关系,无论我们使用什么技术。

OLS 只是进行线性调节的技术之一。

可以说,

误差(e)=(观测值 - 预测值)

观测值 - 图片中的

预测值中的蓝点 - 线上的点(观测值的垂直下方)

下面的垂直线代表“e”。我们将它们平方 ->添加它们并得到总错误。我们尝试减少这个总误差。

输入图像描述这里

对于 OLS,顾名思义(普通最小二乘法),这里我们减少所有 e^2 的总和,即我们尝试使误差最小。

Linear regression is a vast term that just says we are finding a relationship between the dependent and independent variable(s), no matter what technique we are using.

OLS is just one of the technique to do linear reg.

Lets say,

error(e) = (observed value - predicted value)

Observed values - blue dots in picture

predicted values - points on the line(vertically below to the observed values)

The vertical lines below represent 'e'. We square them -> add them and get total err. And we try to reduce this total error.

enter image description here

For OLS, as the name says (ordinary least squared method), here we reduce the sum of all e^2 i.e. we try to make the error least.

~没有更多了~
我们使用 Cookies 和其他技术来定制您的体验包括您的登录状态等。通过阅读我们的 隐私政策 了解更多相关信息。 单击 接受 或继续使用网站,即表示您同意使用 Cookies 和您的相关数据。
原文