从本地 Hadoop 获取数据到 Data Lake Storage 时,Azure 数据工厂抛出错误

发布于 2025-01-10 11:02:59 字数 757 浏览 0 评论 0原文

我正在尝试使用 Azure 数据工厂将数据从本地 HDFS 系统复制到数据湖。我已成功建立连接并能够浏览 HDFS 目录中的文件。当我尝试运行复制活动时,它向我抛出以下错误:--------

失败发生在“接收器”端。 ErrorCode=UserErrorFailedFileOperation,'Type=Microsoft.DataTransfer.Common.Shared.HybridDeliveryException,消息=上传文件失败,路径为 rawzone\cibil_enq_file_20200831.parquet。,Source=Microsoft.DataTransfer.Common,''Type=Microsoft.DataTransfer.Common.Shared .HybridDeliveryException,消息=读取失败“HDFS”文件。文件路径:“Data_Archival/Bureau_Data_Mart/Bureau_Retail20/cibil_enq_file_20200831/cibil_enq_file_20200831.parquet”。响应详细信息:“{}”。,Source=Microsoft.DataTransfer.ClientLibrary,“Type=System.Net.WebException,Message=远程服务器返回错误:(403)。

我在创建数据集和预览数据时也收到错误。我附上了这两种情况的片段。

在此处输入图片说明

I am trying to copy data from On premise HDFS system to data Lake using Azure Data Factory. I have successfully set up the connection and able to browse the files in HDFS Directory. When I am trying to run the copy activity it is throwing me the below error :--------

Failure happened on 'Sink' side. ErrorCode=UserErrorFailedFileOperation,'Type=Microsoft.DataTransfer.Common.Shared.HybridDeliveryException,Message=Upload file failed at path rawzone\cibil_enq_file_20200831.parquet.,Source=Microsoft.DataTransfer.Common,''Type=Microsoft.DataTransfer.Common.Shared.HybridDeliveryException,Message=Failed to read a 'Hdfs' file. File path: 'Data_Archival/Bureau_Data_Mart/Bureau_Retail20/cibil_enq_file_20200831/cibil_enq_file_20200831.parquet'. Response details: '{}'.,Source=Microsoft.DataTransfer.ClientLibrary,''Type=System.Net.WebException,Message=The remote server returned an error: (403).

I am also getting the error while creating the dataset and previewing the data. I am attaching the snippet for both of the scenarios.

enter image description here

如果你对这篇内容有疑问,欢迎到本站社区发帖提问 参与讨论,获取更多帮助,或者扫码二维码加入 Web 技术交流群。

扫码二维码加入Web技术交流群

发布评论

需要 登录 才能够评论, 你可以免费 注册 一个本站的账号。
列表为空,暂无数据
我们使用 Cookies 和其他技术来定制您的体验包括您的登录状态等。通过阅读我们的 隐私政策 了解更多相关信息。 单击 接受 或继续使用网站,即表示您同意使用 Cookies 和您的相关数据。
原文