返回介绍

下载

编译与部署

开始使用

操作手册

最佳实践

扩展功能

设计文档

SQL 手册

开发者手册

Apache 社区

导出查询结果集

发布于 2021-09-30 01:42:43 字数 24680 浏览 1071 评论 0 收藏 0

本文档介绍如何使用 SELECT INTO OUTFILE 命令进行查询结果的导出操作。

语法

SELECT INTO OUTFILE 语句可以将查询结果导出到文件中。目前支持通过 Broker 进程, 通过 S3 协议, 或直接通过 HDFS 协议,导出到远端存储,如 HDFS,S3,BOS,COS(腾讯云)上。语法如下

query_stmt
INTO OUTFILE "file_path"
[format_as]
[properties]
  • file_path

    file_path 指向文件存储的路径以及文件前缀。如 hdfs://path/to/my_file_

    最终的文件名将由 my_file_,文件序号以及文件格式后缀组成。其中文件序号由0开始,数量为文件被分割的数量。如:

      my_file_abcdefg_0.csv
      my_file_abcdefg_1.csv
      my_file_abcdegf_2.csv
    
  • [format_as]

      FORMAT AS CSV
    

    指定导出格式。默认为 CSV。

  • [properties]

    指定相关属性。目前支持通过 Broker 进程, 或通过 S3 协议进行导出。

    • Broker 相关属性需加前缀 broker.。具体参阅Broker 文档
    • HDFS 相关属性需加前缀 hdfs.
    • S3 协议则直接执行 S3 协议配置即可。

      ("broker.prop_key" = "broker.prop_val", ...)
      or
      ("hdfs.fs.defaultFS" = "xxx", "hdfs.hdfs_user" = "xxx")
      or 
      ("AWS_ENDPOINT" = "xxx", ...)
      

      其他属性:

      ("key1" = "val1", "key2" = "val2", ...)
      

      目前支持以下属性:

    • column_separator:列分隔符,仅对 CSV 格式适用。默认为 \t

    • line_delimiter:行分隔符,仅对 CSV 格式适用。默认为 \n
    • max_file_size:单个文件的最大大小。默认为 1GB。取值范围在 5MB 到 2GB 之间。超过这个大小的文件将会被切分。
    • schema:PARQUET 文件schema信息。仅对 PARQUET 格式适用。导出文件格式为PARQUET时,必须指定schema

并发导出

默认情况下,查询结果集的导出是非并发的,也就是单点导出。如果用户希望查询结果集可以并发导出,需要满足以下条件:

  1. session variable 'enable_parallel_outfile' 开启并发导出: set enable_parallel_outfile = true;
  2. 导出方式为 S3 , 或者 HDFS, 而不是使用 broker
  3. 查询可以满足并发导出的需求,比如顶层不包含 sort 等单点节点。(后面会举例说明,哪种属于不可并发导出结果集的查询)

满足以上三个条件,就能触发并发导出查询结果集了。并发度 = be_instacne_num * parallel_fragment_exec_instance_num

如何验证结果集被并发导出

用户通过 session 变量设置开启并发导出后,如果想验证当前查询是否能进行并发导出,则可以通过下面这个方法。

explain select xxx from xxx where xxx  into outfile "s3://xxx" format as csv properties ("AWS_ENDPOINT" = "xxx", ...);

对查询进行 explain 后,Doris 会返回该查询的规划,如果你发现 RESULT FILE SINK 出现在 PLAN FRAGMENT 1 中,就说明导出并发开启成功了。 如果 RESULT FILE SINK 出现在 PLAN FRAGMENT 0 中,则说明当前查询不能进行并发导出 (当前查询不同时满足并发导出的三个条件)。

并发导出的规划示例:
+-----------------------------------------------------------------------------+
| Explain String                                                              |
+-----------------------------------------------------------------------------+
| PLAN FRAGMENT 0                                                             |
|  OUTPUT EXPRS:<slot 2> | <slot 3> | <slot 4> | <slot 5>                     |
|   PARTITION: UNPARTITIONED                                                  |
|                                                                             |
|   RESULT SINK                                                               |
|                                                                             |
|   1:EXCHANGE                                                                |
|                                                                             |
| PLAN FRAGMENT 1                                                             |
|  OUTPUT EXPRS:`k1` + `k2`                                                   |
|   PARTITION: HASH_PARTITIONED: `default_cluster:test`.`multi_tablet`.`k1`   |
|                                                                             |
|   RESULT FILE SINK                                                          |
|   FILE PATH: s3://ml-bd-repo/bpit_test/outfile_1951_                        |
|   STORAGE TYPE: S3                                                          |
|                                                                             |
|   0:OlapScanNode                                                            |
|      TABLE: multi_tablet                                                    |
+-----------------------------------------------------------------------------+

使用示例

  1. 示例1

    使用 broker 方式导出,将简单查询结果导出到文件 hdfs:/path/to/result.txt。指定导出格式为 CSV。使用 my_broker 并设置 kerberos 认证信息。指定列分隔符为 ,,行分隔符为 \n

     SELECT * FROM tbl
     INTO OUTFILE "hdfs:/path/to/result_"
     FORMAT AS CSV
     PROPERTIES
     (
         "broker.name" = "my_broker",
         "broker.hadoop.security.authentication" = "kerberos",
         "broker.kerberos_principal" = "doris@YOUR.COM",
         "broker.kerberos_keytab" = "/home/doris/my.keytab",
         "column_separator" = ",",
         "line_delimiter" = "\n",
         "max_file_size" = "100MB"
     );
    

    最终生成文件如如果不大于 100MB,则为:result_0.csv

    如果大于 100MB,则可能为 result_0.csv, result_1.csv, ...

  2. 示例2

    将简单查询结果导出到文件 hdfs:/path/to/result.parquet。指定导出格式为 PARQUET。使用 my_broker 并设置 kerberos 认证信息。

     SELECT c1, c2, c3 FROM tbl
     INTO OUTFILE "hdfs:/path/to/result_"
     FORMAT AS PARQUET
     PROPERTIES
     (
         "broker.name" = "my_broker",
         "broker.hadoop.security.authentication" = "kerberos",
         "broker.kerberos_principal" = "doris@YOUR.COM",
         "broker.kerberos_keytab" = "/home/doris/my.keytab",
         "schema"="required,int32,c1;required,byte_array,c2;required,byte_array,c2"
     );
    

    查询结果导出到parquet文件需要明确指定schema

  3. 示例3

    将 CTE 语句的查询结果导出到文件 hdfs:/path/to/result.txt。默认导出格式为 CSV。使用 my_broker 并设置 hdfs 高可用信息。使用默认的行列分隔符。

     WITH
     x1 AS
     (SELECT k1, k2 FROM tbl1),
     x2 AS
     (SELECT k3 FROM tbl2)
     SELEC k1 FROM x1 UNION SELECT k3 FROM x2
     INTO OUTFILE "hdfs:/path/to/result_"
     PROPERTIES
     (
         "broker.name" = "my_broker",
         "broker.username"="user",
         "broker.password"="passwd",
         "broker.dfs.nameservices" = "my_ha",
         "broker.dfs.ha.namenodes.my_ha" = "my_namenode1, my_namenode2",
         "broker.dfs.namenode.rpc-address.my_ha.my_namenode1" = "nn1_host:rpc_port",
         "broker.dfs.namenode.rpc-address.my_ha.my_namenode2" = "nn2_host:rpc_port",
         "broker.dfs.client.failover.proxy.provider" = "org.apache.hadoop.hdfs.server.namenode.ha.ConfiguredFailoverProxyProvider"
     );
    

    最终生成文件如如果不大于 1GB,则为:result_0.csv

    如果大于 1GB,则可能为 result_0.csv, result_1.csv, ...

  4. 示例4

    将 UNION 语句的查询结果导出到文件 bos://bucket/result.txt。指定导出格式为 PARQUET。使用 my_broker 并设置 hdfs 高可用信息。PARQUET 格式无需指定列分割符。 导出完成后,生成一个标识文件。

     SELECT k1 FROM tbl1 UNION SELECT k2 FROM tbl1
     INTO OUTFILE "bos://bucket/result_"
     FORMAT AS PARQUET
     PROPERTIES
     (
         "broker.name" = "my_broker",
         "broker.bos_endpoint" = "http://bj.bcebos.com",
         "broker.bos_accesskey" = "xxxxxxxxxxxxxxxxxxxxxxxxxx",
         "broker.bos_secret_accesskey" = "yyyyyyyyyyyyyyyyyyyyyyyyyy",
         "schema"="required,int32,k1;required,byte_array,k2"
     );
    
  5. 示例5

    将 select 语句的查询结果导出到文件 cos://${bucket_name}/path/result.txt。指定导出格式为 csv。 导出完成后,生成一个标识文件。

     select k1,k2,v1 from tbl1 limit 100000
     into outfile "s3a://my_bucket/export/my_file_"
     FORMAT AS CSV
     PROPERTIES
     (
         "broker.name" = "hdfs_broker",
         "broker.fs.s3a.access.key" = "xxx",
         "broker.fs.s3a.secret.key" = "xxxx",
         "broker.fs.s3a.endpoint" = "https://cos.xxxxxx.myqcloud.com/",
         "column_separator" = ",",
         "line_delimiter" = "\n",
         "max_file_size" = "1024MB",
         "success_file_name" = "SUCCESS"
     )
    

    最终生成文件如如果不大于 1GB,则为:my_file_0.csv

    如果大于 1GB,则可能为 my_file_0.csv, result_1.csv, ...

    在cos上验证

    1. 不存在的path会自动创建
    2. access.key/secret.key/endpoint需要和cos的同学确认。尤其是endpoint的值,不需要填写bucket_name。
  6. 示例6

    使用 s3 协议导出到 bos,并且并发导出开启。

     set enable_parallel_outfile = true;
     select k1 from tb1 limit 1000
     into outfile "s3://my_bucket/export/my_file_"
     format as csv
     properties
     (
         "AWS_ENDPOINT" = "http://s3.bd.bcebos.com",
         "AWS_ACCESS_KEY" = "xxxx",
         "AWS_SECRET_KEY" = "xxx",
         "AWS_REGION" = "bd"
     )
    

    最终生成的文件前缀为 my_file_{fragment_instance_id}_

  7. 示例7

    使用 s3 协议导出到 bos,并且并发导出 session 变量开启。

     set enable_parallel_outfile = true;
     select k1 from tb1 order by k1 limit 1000
     into outfile "s3://my_bucket/export/my_file_"
     format as csv
     properties
     (
         "AWS_ENDPOINT" = "http://s3.bd.bcebos.com",
         "AWS_ACCESS_KEY" = "xxxx",
         "AWS_SECRET_KEY" = "xxx",
         "AWS_REGION" = "bd"
     )
    

    但由于查询语句带了一个顶层的排序节点,所以这个查询即使开启并发导出的 session 变量,也是无法并发导出的。

  8. 示例7

    使用 hdfs 方式导出,将简单查询结果导出到文件 hdfs:/path/to/result.txt。指定导出格式为 CSV。使用并设置 kerberos 认证信息。

     SELECT * FROM tbl
     INTO OUTFILE "hdfs://path/to/result_"
     FORMAT AS CSV
     PROPERTIES
     (
         "hdfs.fs.defaultFS" = "hdfs://namenode:port",
         "hdfs.hadoop.security.authentication" = "kerberos",
         "hdfs.kerberos_principal" = "doris@YOUR.COM",
         "hdfs.kerberos_keytab" = "/home/doris/my.keytab"
     );
    

返回结果

导出命令为同步命令。命令返回,即表示操作结束。同时会返回一行结果来展示导出的执行结果。

如果正常导出并返回,则结果如下:

mysql> select * from tbl1 limit 10 into outfile "file:///home/work/path/result_";
+------------+-----------+----------+--------------------------------------------------------------------+
| FileNumber | TotalRows | FileSize | URL                                                                |
+------------+-----------+----------+--------------------------------------------------------------------+
|          1 |         2 |        8 | file:///192.168.1.10/home/work/path/result_{fragment_instance_id}_ |
+------------+-----------+----------+--------------------------------------------------------------------+
1 row in set (0.05 sec)
  • FileNumber:最终生成的文件个数。
  • TotalRows:结果集行数。
  • FileSize:导出文件总大小。单位字节。
  • URL:如果是导出到本地磁盘,则这里显示具体导出到哪个 Compute Node。

如果进行了并发导出,则会返回多行数据。

+------------+-----------+----------+--------------------------------------------------------------------+
| FileNumber | TotalRows | FileSize | URL                                                                |
+------------+-----------+----------+--------------------------------------------------------------------+
|          1 |         3 |        7 | file:///192.168.1.10/home/work/path/result_{fragment_instance_id}_ |
|          1 |         2 |        4 | file:///192.168.1.11/home/work/path/result_{fragment_instance_id}_ |
+------------+-----------+----------+--------------------------------------------------------------------+
2 rows in set (2.218 sec)

如果执行错误,则会返回错误信息,如:

mysql> SELECT * FROM tbl INTO OUTFILE ...
ERROR 1064 (HY000): errCode = 2, detailMessage = Open broker writer failed ...

注意事项

  • 如果不开启并发导出,查询结果是由单个 BE 节点,单线程导出的。因此导出时间和导出结果集大小正相关。开启并发导出可以降低导出的时间。
  • 导出命令不会检查文件及文件路径是否存在。是否会自动创建路径、或是否会覆盖已存在文件,完全由远端存储系统的语义决定。
  • 如果在导出过程中出现错误,可能会有导出文件残留在远端存储系统上。Doris 不会清理这些文件。需要用户手动清理。
  • 导出命令的超时时间同查询的超时时间。可以通过 SET query_timeout=xxx 进行设置。
  • 对于结果集为空的查询,依然会产生一个大小为0的文件。
  • 文件切分会保证一行数据完整的存储在单一文件中。因此文件的大小并不严格等于 max_file_size
  • 对于部分输出为非可见字符的函数,如 BITMAP、HLL 类型,输出为 \N,即 NULL。
  • 目前部分地理信息函数,如 ST_Point 的输出类型为 VARCHAR,但实际输出值为经过编码的二进制字符。当前这些函数会输出乱码。对于地理函数,请使用 ST_AsText 进行输出。

如果你对这篇内容有疑问,欢迎到本站社区发帖提问 参与讨论,获取更多帮助,或者扫码二维码加入 Web 技术交流群。

扫码二维码加入Web技术交流群

发布评论

需要 登录 才能够评论, 你可以免费 注册 一个本站的账号。
列表为空,暂无数据
    我们使用 Cookies 和其他技术来定制您的体验包括您的登录状态等。通过阅读我们的 隐私政策 了解更多相关信息。 单击 接受 或继续使用网站,即表示您同意使用 Cookies 和您的相关数据。
    原文