使用 SMO 连接传输 SQL Server 对象任务在大型表上失败
我正在使用传输 SQL Server 对象任务将生产数据库的 120 个表复制到另一个位置。我还尝试过使用 VB.NET 脚本执行脚本任务。 SQL Server 2005 是版本。
除一张表外,所有表都被复制=我得到的错误是-“文件存在”。该表将 .doc、.ppt、.xls 等文件存储在数据类型图像的字段中。该表的大小为 1,156.227 MB。大约5000条记录。
在我们开始出现此错误之前,该软件包已成功运行了近一年。当任务尝试复制上表时,我收到错误 [传输 SQL Server 对象任务] 错误:执行失败,出现以下错误:“错误:错误代码=-2147024816 描述=文件存在。helpFile=dtsmsg.rll helpContext=0 idofInterfaceWithError={8BDFE893-E9D8-4D23-9739-DA807BCDC2AC} ”。
我们也使用 SQL Profiler 来调试故障,但无法看到该表的批量插入语句。所有其他表都有批量插入语句。表创建成功,只是数据复制失败。
有什么方法可以解决此问题或复制此表的其他方法。
I am copying 120 tables our production database to another location using Transfer SQL Server Object task. I have also tried Script task with VB.NET Script. SQL Server 2005 is the version.
All the tables get copied except one table = the error I get is -"The file exists". The table stores files like .doc, .ppt, .xls in a field of data type image. The size of the table is 1,156.227 MB. Around 5000 records.
This package was running successfully for almost a yr before we started to get this error. When the task tries to copy the above table I get the error
[Transfer SQL Server Objects Task] Error: Execution failed with the following error: "ERROR : errorCode=-2147024816 description=The file exists. helpFile=dtsmsg.rll helpContext=0 idofInterfaceWithError={8BDFE893-E9D8-4D23-9739-DA807BCDC2AC}".
We used SQL Profiler too to debug the failure, but couldn't see the bulk insert statement for this table. All the other tables had the bulk insert statement. The table gets created successfully, it's the copying of the data that fails.
Is there any way to troubleshoot this or another way of copying this table.
如果你对这篇内容有疑问,欢迎到本站社区发帖提问 参与讨论,获取更多帮助,或者扫码二维码加入 Web 技术交流群。
绑定邮箱获取回复消息
由于您还没有绑定你的真实邮箱,如果其他用户或者作者回复了您的评论,将不能在第一时间通知您!
发布评论
评论(1)
当包运行并缓存文件时,您可能已经创建了以前运行的重复项
我会检查 %SystemRoot%\Temp 或 %user%\Documents & Settings\Temp\ 查看是否有重复文件或超过 65,535 个文件。
您可能需要使用 filemon 来查看文件的缓存位置
As the packages runs and caches files you might have created duplicates from previous runs
I would check %SystemRoot%\Temp or %user%\Documents & Settings\Temp\ to see if if there is duplicate files or more than 65,535 files.
You might need to use filemon to see where files are being cached