Pyspark与Groupby Pandas的Groupby

发布于 2025-02-13 02:56:30 字数 147 浏览 3 评论 0原文

我找不到pandas .groupby()和pyspark .groupby()(应用于dataFrame时)之间的区别。有区别吗?我得到相同的结果。如果有区别,我如何知道何时使用,如果我同时与Pyspark打交道。 谢谢!

I can't find the difference between pandas .groupby() and PySpark .groupBy() (when applied to a DataFrame). Is there any difference? I'm getting the same results. If there is a difference, how do I know when to use which, in case I'm dealing with PySpark at the same time.
Thanks!

如果你对这篇内容有疑问,欢迎到本站社区发帖提问 参与讨论,获取更多帮助,或者扫码二维码加入 Web 技术交流群。

扫码二维码加入Web技术交流群

发布评论

需要 登录 才能够评论, 你可以免费 注册 一个本站的账号。

评论(1

海夕 2025-02-20 02:56:30

语义没有差异。区别在于熊猫(单机)和火花(分布式计算框架)。

There is no difference in the semantics. The difference lies within Pandas (Single Machine) and Spark (Framework for Distributed Computing).

~没有更多了~
我们使用 Cookies 和其他技术来定制您的体验包括您的登录状态等。通过阅读我们的 隐私政策 了解更多相关信息。 单击 接受 或继续使用网站,即表示您同意使用 Cookies 和您的相关数据。
原文