如何使用顶点AI在GCP中构建自定义管道
我正在GCP中探索顶点AI AutoML功能,该功能使用户可以导入数据集,培训,部署和预测ML模型。我的用例是自己进行数据预处理(我对自动数据预处理预处理不满意),并希望将数据直接馈送到训练和部署模型的管道中。 另外,我想将新数据提供给数据集。它应该照顾整个管道(从数据预处理到部署最新模型)。 我想了解如何解决这个问题?
I was exploring the vertex AI AutoML feature in GCP, which lets users import datasets, train, deploy and predict ML models. My use case is to do the data pre-processing on my own (I didn't get satisfied with AutoML data preprocessing) and want to feed that data directly to a pipeline where it trains and deploys the model.
Also, I want to feed the new data to the dataset. It should take care of the entire pipeline (from data preprocessing to deploying the latest model).
I want insight as to how to approach this problem?
如果你对这篇内容有疑问,欢迎到本站社区发帖提问 参与讨论,获取更多帮助,或者扫码二维码加入 Web 技术交流群。

绑定邮箱获取回复消息
由于您还没有绑定你的真实邮箱,如果其他用户或者作者回复了您的评论,将不能在第一时间通知您!
发布评论
评论(1)
您可以使用KubeFlow Pipelines SDK V1.8.9或更高或Tensorflow扩展V0.30.0或更高的自定义管道。
如果您在处理结构化数据或文本数据的ML工作流程中使用TensorFlow,建议您使用TFX构建管道。
对于其他用例,我们建议您使用KubeFlow Pipelines SDK构建管道。通过使用KubeFlow Pipelines SDK构建管道,您可以通过构建自定义组件或重用预构建的组件来实现工作流程。
要创建kubeflow管道,您可以按照下一个指南a>
You can create a custom pipeline using Kubeflow Pipelines SDK v1.8.9 or higher or TensorFlow Extended v0.30.0 or higher.
If you use TensorFlow in an ML workflow that processes terabytes of structured data or text data, it is recommended that you build your pipeline using TFX.
For other use cases, we recommend that you build your pipeline using the Kubeflow Pipelines SDK. By building a pipeline with the Kubeflow Pipelines SDK, you can implement your workflow by building custom components or reusing pre-built components.
To create a Kubeflow pipeline, you can follow the next guide