Pyspark groupby / agg 函数无需更改列名?
如果我有大量的列需要求和、求平均值等,有没有办法不更改列名,而不必在每列上使用 .alias?默认是将函数添加到列名中(例如,取平均值后,col1 变为“avg(col1)”),是否有有效的方法让它保持命名为“col1”?
df = df.groupby(seg).avg('col1')
In cases where I have a large number of columns that I want to sum, average, etc., is there a way to NOT change the column names, without having to use .alias on each column? The default is to add the function to the column name (e.g. col1 becomes "avg(col1)" after taking the average), is there an efficient way to have it stay named "col1"?
df = df.groupby(seg).avg('col1')
如果你对这篇内容有疑问,欢迎到本站社区发帖提问 参与讨论,获取更多帮助,或者扫码二维码加入 Web 技术交流群。
绑定邮箱获取回复消息
由于您还没有绑定你的真实邮箱,如果其他用户或者作者回复了您的评论,将不能在第一时间通知您!
发布评论