Pyspark与Groupby Pandas的Groupby
我找不到pandas .groupby()
和pyspark .groupby()
(应用于dataFrame时)之间的区别。有区别吗?我得到相同的结果。如果有区别,我如何知道何时使用,如果我同时与Pyspark打交道。 谢谢!
I can't find the difference between pandas .groupby()
and PySpark .groupBy()
(when applied to a DataFrame). Is there any difference? I'm getting the same results. If there is a difference, how do I know when to use which, in case I'm dealing with PySpark at the same time.
Thanks!
如果你对这篇内容有疑问,欢迎到本站社区发帖提问 参与讨论,获取更多帮助,或者扫码二维码加入 Web 技术交流群。

绑定邮箱获取回复消息
由于您还没有绑定你的真实邮箱,如果其他用户或者作者回复了您的评论,将不能在第一时间通知您!
发布评论
评论(1)
语义没有差异。区别在于熊猫(单机)和火花(分布式计算框架)。
There is no difference in the semantics. The difference lies within Pandas (Single Machine) and Spark (Framework for Distributed Computing).