JSON,AVRO,ORC和PARQUET文件格式的列计数不匹配的错误错误
我们正在使用复制命令将数据加载到雪花上。使用CSV文件格式,如果输入CSV文件中存在的列与Snowflake的目标数据库表不匹配,则有一个参数“ error_on_column_count_mismatch”来获取错误。如果存在不匹配列,JSON,AVRO,ORC和PARQUET文件格式是否有类似的参数以获取错误?
We are using a copy command for loading data into Snowflake. With CSV file format, there is a parameter 'ERROR_ON_COLUMN_COUNT_MISMATCH' to get the error if columns present in input CSV file do not match with Snowflake's target database table. Is there any similar parameter for JSON, AVRO, ORC and PARQUET file formats to get the error if there is a column count mismatch?
如果你对这篇内容有疑问,欢迎到本站社区发帖提问 参与讨论,获取更多帮助,或者扫码二维码加入 Web 技术交流群。

绑定邮箱获取回复消息
由于您还没有绑定你的真实邮箱,如果其他用户或者作者回复了您的评论,将不能在第一时间通知您!
发布评论
评论(1)
其他文件形式也使用相同的参数(即JSON,Parquet等)
。
https://docs.snowflake.com/ en/sql-reference/sql/create-file-format.html#语法
The same parameter is used for other file-formats as well (i.e. JSON, Parquet etc.)
See here -
https://docs.snowflake.com/en/sql-reference/sql/create-file-format.html#syntax