Hadoop DistCP:使用了哪些端口?

发布于 2025-02-12 07:57:02 字数 144 浏览 0 评论 0原文

如果我想在本地Hadoop群集上使用DISTCP,以便将数据“将”数据推向外部云存储,则必须提出哪些防火墙考虑才能利用此工具?数据的实际传输是什么端口进行的?是通过SSH和/或端口8020吗?我需要确保为目的地提供网络连接,但归因于最少的特权。 (即,仅开放绝对需要的端口)

If I want to use distCp on an on-prem hadoop cluster, so it can 'push' data to external cloud storage, what firewall considerations must be made in order to leverage this tool? What ports does the actual transfer of data take place on? Is it via SSH, and/or port 8020? I need to make sure network connectivity is provided for source to destination, but with the least amount of privileges ascribed to it. (i.e., only opening ports that are absolutely needed)

如果你对这篇内容有疑问,欢迎到本站社区发帖提问 参与讨论,获取更多帮助,或者扫码二维码加入 Web 技术交流群。

扫码二维码加入Web技术交流群

发布评论

需要 登录 才能够评论, 你可以免费 注册 一个本站的账号。

评论(1

你的背包 2025-02-19 07:57:02

我不认为SSH用于实际数据传输,除非您实际登录群集并启动命令。

至少,它将是Namenodes和Datanodes的RPC数据转移端口,因此您为fs.defaultfsdfs.namenode.rpc-address.rpc-address 和dfs.datanode.address

I do not believe SSH is used for the actual data transfer, other than you actually logging into the cluster and starting the command, for example.

At a minimum, it would be the RPC data-transfer ports for the NameNodes and Datanodes, so whatever you've configured for fs.defaultFS, dfs.namenode.rpc-address and dfs.datanode.address

~没有更多了~
我们使用 Cookies 和其他技术来定制您的体验包括您的登录状态等。通过阅读我们的 隐私政策 了解更多相关信息。 单击 接受 或继续使用网站,即表示您同意使用 Cookies 和您的相关数据。
原文