从本地 Hadoop 获取数据到 Data Lake Storage 时,Azure 数据工厂抛出错误
我正在尝试使用 Azure 数据工厂将数据从本地 HDFS 系统复制到数据湖。我已成功建立连接并能够浏览 HDFS 目录中的文件。当我尝试运行复制活动时,它向我抛出以下错误:--------
失败发生在“接收器”端。 ErrorCode=UserErrorFailedFileOperation,'Type=Microsoft.DataTransfer.Common.Shared.HybridDeliveryException,消息=上传文件失败,路径为 rawzone\cibil_enq_file_20200831.parquet。,Source=Microsoft.DataTransfer.Common,''Type=Microsoft.DataTransfer.Common.Shared .HybridDeliveryException,消息=读取失败“HDFS”文件。文件路径:“Data_Archival/Bureau_Data_Mart/Bureau_Retail20/cibil_enq_file_20200831/cibil_enq_file_20200831.parquet”。响应详细信息:“{}”。,Source=Microsoft.DataTransfer.ClientLibrary,“Type=System.Net.WebException,Message=远程服务器返回错误:(403)。
我在创建数据集和预览数据时也收到错误。我附上了这两种情况的片段。
I am trying to copy data from On premise HDFS system to data Lake using Azure Data Factory. I have successfully set up the connection and able to browse the files in HDFS Directory. When I am trying to run the copy activity it is throwing me the below error :--------
Failure happened on 'Sink' side. ErrorCode=UserErrorFailedFileOperation,'Type=Microsoft.DataTransfer.Common.Shared.HybridDeliveryException,Message=Upload file failed at path rawzone\cibil_enq_file_20200831.parquet.,Source=Microsoft.DataTransfer.Common,''Type=Microsoft.DataTransfer.Common.Shared.HybridDeliveryException,Message=Failed to read a 'Hdfs' file. File path: 'Data_Archival/Bureau_Data_Mart/Bureau_Retail20/cibil_enq_file_20200831/cibil_enq_file_20200831.parquet'. Response details: '{}'.,Source=Microsoft.DataTransfer.ClientLibrary,''Type=System.Net.WebException,Message=The remote server returned an error: (403).
I am also getting the error while creating the dataset and previewing the data. I am attaching the snippet for both of the scenarios.
如果你对这篇内容有疑问,欢迎到本站社区发帖提问 参与讨论,获取更多帮助,或者扫码二维码加入 Web 技术交流群。
绑定邮箱获取回复消息
由于您还没有绑定你的真实邮箱,如果其他用户或者作者回复了您的评论,将不能在第一时间通知您!
发布评论