返回介绍

1.7.4.3 使用HDFS存储

发布于 2020-10-01 16:39:39 字数 2731 浏览 1039 评论 0 收藏 0

简介

注意:Xiaomi Cloud-ML服务访问HDFS数据,由于各个机房和用户网络环境差别,请首先联系Cloud-ML开发人员,咨询Cloud-ML服务是否可以访问特定的HDFS集群。

使用Docker容器

我们已经制作了Docker镜像,可以直接访问c3prc-hadoop集群。

sudo docker run -i -t --net=host -e PASSWORD=mypassword cnbj6-repo.cloud.mi.com/cloud-ml/dev-tensorflow-gpu:1.6.0-xm1.0.0-c3prc-hadoop bash

使用DevEnv

我们提供了更易用的DevEnv境,可以直接在界面或命令行创建开发环境。

cloudml dev create -n mydev -p mypassword

然后可以查看开发环境信息,找到服务器ip和端口,直接ssh登录。

cloudml dev describe dev1

ssh -p 30001 root@10.0.0.1

为了测试能否真的能读HDFS的个人数据,可以先把TFRecords等数据上传到HDFS,然后参考这个项目来测试 http://github.com/tobegit3hub/deep_recommend_system

wget https://github.com/tobegit3hub/deep_recommend_system/archive/master.zip

unzip ./master.zip

cd ./deep_recommend_system-master/

先kinit初始化kerberos账号,然后直接运行传入参数即可。

echo rdKlxxxxxxrnyYU | kinit u_test@XIAOMI.HADOOP

./dense_classifier.py --train_file hdfs://namenode:port/deep_recommend_system/data/cancer_train.csv.tfrecords --validate_file hdfs://namenode:port/deep_recommend_system/data/cancer_test.csv.tfrecords

如果你对这篇内容有疑问,欢迎到本站社区发帖提问 参与讨论,获取更多帮助,或者扫码二维码加入 Web 技术交流群。

扫码二维码加入Web技术交流群

发布评论

需要 登录 才能够评论, 你可以免费 注册 一个本站的账号。
列表为空,暂无数据
    我们使用 Cookies 和其他技术来定制您的体验包括您的登录状态等。通过阅读我们的 隐私政策 了解更多相关信息。 单击 接受 或继续使用网站,即表示您同意使用 Cookies 和您的相关数据。
    原文