如何向oracle数据库插入多条clob记录
我们正在开发自定义 ETL 工具。我们从数据库中提取数据到文件中,文件可能包含 clob 数据。在加载方面,它获取文件并写入数据库表。在引入 clob 数据之前,所有文件都可以正常工作。该文件可以包含数百万条记录。我们使用 OleDb 生成数据库模式,并使用适配器通过读取块数据进行更新。
我的问题是我们如何将 clob 数据插入数据库。如果文件包含数百万条记录,并且 clob 支持每条记录最多 4GB 的数据。
我们应该如何处理这些情况并使应用程序执行得更快并且更少出错?
谢谢,兔子
We are working on custom ETL tool. We extract data from database in files, Files may contain clob data. On the loading side, it picks up the file and writes to the database tables. All the files works correctly until the introduction of clob data. The file can contain millions of records. We use OleDb to generate the database schema and make an update using an adapter by reading data in chunks.
My Question is how do we insert clob data into the database. If the file contains millions of records and clob supports upto 4GB of data for each record.
How should we handle these cases and make the application perform faster, and less error prone?
Thanks, Bunny
如果你对这篇内容有疑问,欢迎到本站社区发帖提问 参与讨论,获取更多帮助,或者扫码二维码加入 Web 技术交流群。
绑定邮箱获取回复消息
由于您还没有绑定你的真实邮箱,如果其他用户或者作者回复了您的评论,将不能在第一时间通知您!
发布评论
评论(1)
你的问题不清楚。
clob 数据是否与正在加载的其他字段内联?
您的代码可以插入单个 clob 吗?
当我使用 clob 或 blob 提取和加载数据时,我将它们保留为单独的文件(1 个 CSV 文件,每个 clob 一个文件),并按每个记录分两步进行加载 - 首先插入 csv 文件中的非 clob 数据,然后更新插入 clob 的记录。
Your question is not clear.
Is the clob data inline with the other fields that are being loaded?
Does your code work inserting a single clob?
When I extract and load data with clobs or blobs, I keep these as separate files (1 CSV file and one file per clob) and do the load as two steps per record - first insert the non-clob data from the csv file and then update the record inserting the clob.