返回介绍

数学基础

统计学习

深度学习

工具

Scala

八、GroupedData

发布于 2023-07-17 23:38:23 字数 2809 浏览 0 评论 0 收藏 0

  1. GroupedData 通常由DataFrame.groupBy() 创建,用于分组聚合

8.1 方法

  1. .agg(*exprs):聚合并以DataFrame 的形式返回聚合的结果

    • 可用的聚合函数包括:avg、max、min、sum、count

    • 参数:

      • exprs:一个字典,键为列名,值为聚合函数字符串。也可以是一个Column 的列表
    • 示例:

      
      
      xxxxxxxxxx
      df.groupBy(df.name).agg({"*": "count"}) #字典 # 或者 from pyspark.sql import functions as F df.groupBy(df.name).agg(F.min(df.age)) #字典
  2. 统计:

    • .avg(*cols):统计数值列每一组的均值,以DataFrame 的形式返回

      • 它是mean() 的别名

      • 参数:

        • cols:列名或者列名的列表
      • 示例:

        
        
        xxxxxxxxxx
        df.groupBy().avg('age') df.groupBy().avg('age', 'height')
    • .count():统计每一组的记录数量,以DataFrame 的形式返回

    • .max(*cols):统计数值列每一组的最大值,以DataFrame 的形式返回

      • 参数:

        • cols:列名或者列名的列表
    • .min(*cols):统计数值列每一组的最小值,以DataFrame 的形式返回

      • 参数:

        • cols:列名或者列名的列表
    • .sum(*cols):统计数值列每一组的和,以DataFrame 的形式返回

      • 参数:

        • cols:列名或者列名的列表
  3. .pivot(pivot_col, values=None):对指定列进行透视。

    • 参数:

      • pivot_col:待分析的列的列名
      • values:待分析的列上,待考察的值的列表。如果为空,则spark 会首先计算pivot_coldistinct
    • 示例:

      
      
      xxxxxxxxxx
      df4.groupBy("year").pivot("course", ["dotNET", "Java"]).sum("earnings") #结果为:[Row(year=2012, dotNET=15000, Java=20000), Row(year=2013, dotNET=48000, Java=30000)] # "dotNET", "Java" 是 course 字段的值

如果你对这篇内容有疑问,欢迎到本站社区发帖提问 参与讨论,获取更多帮助,或者扫码二维码加入 Web 技术交流群。

扫码二维码加入Web技术交流群

发布评论

需要 登录 才能够评论, 你可以免费 注册 一个本站的账号。
列表为空,暂无数据
    我们使用 Cookies 和其他技术来定制您的体验包括您的登录状态等。通过阅读我们的 隐私政策 了解更多相关信息。 单击 接受 或继续使用网站,即表示您同意使用 Cookies 和您的相关数据。
    原文