JSON,AVRO,ORC和PARQUET文件格式的列计数不匹配的错误错误

发布于 2025-02-03 01:01:35 字数 165 浏览 3 评论 0原文

我们正在使用复制命令将数据加载到雪花上。使用CSV文件格式,如果输入CSV文件中存在的列与Snowflake的目标数据库表不匹配,则有一个参数“ error_on_column_count_mismatch”来获取错误。如果存在不匹配列,JSON,AVRO,ORC和PARQUET文件格式是否有类似的参数以获取错误?

We are using a copy command for loading data into Snowflake. With CSV file format, there is a parameter 'ERROR_ON_COLUMN_COUNT_MISMATCH' to get the error if columns present in input CSV file do not match with Snowflake's target database table. Is there any similar parameter for JSON, AVRO, ORC and PARQUET file formats to get the error if there is a column count mismatch?

如果你对这篇内容有疑问,欢迎到本站社区发帖提问 参与讨论,获取更多帮助,或者扫码二维码加入 Web 技术交流群。

扫码二维码加入Web技术交流群

发布评论

需要 登录 才能够评论, 你可以免费 注册 一个本站的账号。

评论(1

对不⑦ 2025-02-10 01:01:35

其他文件形式也使用相同的参数(即JSON,Parquet等)


https://docs.snowflake.com/ en/sql-reference/sql/create-file-format.html#语法

The same parameter is used for other file-formats as well (i.e. JSON, Parquet etc.)

See here -
https://docs.snowflake.com/en/sql-reference/sql/create-file-format.html#syntax

~没有更多了~
我们使用 Cookies 和其他技术来定制您的体验包括您的登录状态等。通过阅读我们的 隐私政策 了解更多相关信息。 单击 接受 或继续使用网站,即表示您同意使用 Cookies 和您的相关数据。
原文