将表格结果输出为.CSV BTEQ/FastLoad
我有一个名为“MYTABLE”的充满数据的表,我使用了 SELECT * FROM MYTABLE;
如何将该表的结果输出到 Teradata 数据库的 .csv 文件?
I have a table full of data called "MYTABLE" I used SELECT * FROM MYTABLE;
How do I output the results of this table to a .csv file for a Teradata database?
如果你对这篇内容有疑问,欢迎到本站社区发帖提问 参与讨论,获取更多帮助,或者扫码二维码加入 Web 技术交流群。
绑定邮箱获取回复消息
由于您还没有绑定你的真实邮箱,如果其他用户或者作者回复了您的评论,将不能在第一时间通知您!
发布评论
评论(4)
使用本机 Teradata 实用程序的两个可能选项:
如果您使用 Teradata FastExport 实用程序并在 EXPORT 命令中指定 MLSCRIPT 选项,则会自动生成 MultiLoad 脚本,可用于将数据文件加载到 Teradata 中。通过一些调整,您可以将其指向另一个系统并加载数据。
Teradata 的 ARC 实用程序可用于备份数据,然后使用 ARC 中的 COPY 工具将数据放在单独的系统上。
Two possible options using native Teradata utilities:
If you use the Teradata FastExport utility and specify the MLSCRIPT option in the EXPORT command a MultiLoad Script will be generated automatically that can be used to load the data file into Teradata. With a little tweaking you can point it at another system and load the data.
Teradata's ARC utility can be used to backup the data and then using the COPY facility in ARC put the data on a separate system.
您需要一个 ETL 工具。尝试此论坛获取指导。
You need an ETL tool. Try this forum for a pointer.
如果是小表(大约1000条记录),您可以在SQL Assistant中打开导入/导出模式。这将帮助您将表导出为 csv(您可以设置“工具”->“选项”->“导入/导出”),然后将该文件导入到您的数据库中。
导入时,您可以使用以下语法:
? 的数量。应与表/文件中的列数相同。
如果是更大的表,请快速导出数据并使用快速加载/多重加载导入。
If it's a small table (approx 1000 records), you can turn on the Import/Export mode in SQL Assistant. This will help you to export the table as a csv (you can set the Tools-> Options -> Import/Export) and then import the file to your db.
While importing, you can use the following syntax:
The number of ? should be same as the number of columns in the table/file.
If it's a bigger table, Fastexport the data and the import it using Fastload/Multiload.
我会在 bteq 中使用常规导出命令。如果系统速度很快,您可以在几分钟内获得一百万行,但如果系统速度很慢,您可能需要使用不同的应用程序或将自己限制为 100K 行。
I would use a regular export command in bteq. If it's a fast system, you can get a million rows in a few minutes but if slow, you might want to go with a different application or limit yourself to 100K rows.