Pyspark groupby / agg 函数无需更改列名?

发布于 2025-01-18 18:50:03 字数 176 浏览 1 评论 0原文

如果我有大量的列需要求和、求平均值等,有没有办法不更改列名,而不必在每列上使用 .alias?默认是将函数添加到列名中(例如,取平均值后,col1 变为“avg(col1)”),是否有有效的方法让它保持命名为“col1”?

df = df.groupby(seg).avg('col1')

In cases where I have a large number of columns that I want to sum, average, etc., is there a way to NOT change the column names, without having to use .alias on each column? The default is to add the function to the column name (e.g. col1 becomes "avg(col1)" after taking the average), is there an efficient way to have it stay named "col1"?

df = df.groupby(seg).avg('col1')

如果你对这篇内容有疑问,欢迎到本站社区发帖提问 参与讨论,获取更多帮助,或者扫码二维码加入 Web 技术交流群。

扫码二维码加入Web技术交流群

发布评论

需要 登录 才能够评论, 你可以免费 注册 一个本站的账号。
列表为空,暂无数据
我们使用 Cookies 和其他技术来定制您的体验包括您的登录状态等。通过阅读我们的 隐私政策 了解更多相关信息。 单击 接受 或继续使用网站,即表示您同意使用 Cookies 和您的相关数据。
原文