Kubernetes:容器中的数据处理 - 将数据流放入 pod 中
我对 K8 还很陌生,找不到任何有关我的问题的信息。
我有一个算法正在 Edge 设备(Linux 工作节点)上的 K8 的 Pod 中运行。 Edge 设备运行 Windows Server 2019。Hyper-V 用于 Linux 工作节点的 VM。
当包含算法容器的 Pod 启动时,并非算法将处理的所有数据都可用。数据将由网络中的另一台机器(医疗设备)创建,并且应该流式传输到容器中。
由于性能损失,将卷安装到 Pod 中似乎不适合这种情况。我们不想仅在所有数据可用后才启动 Pod。我们希望在第一个数据可用后立即启动 pod,然后不断地将新数据发送到 pod。
有没有一种方法可以将数据流或数据块发送到 Pod?
如果我的描述不清楚,请告诉我。 感谢您的支持!
I'm pretty new to K8 and cannot find any information for my kind of problem.
I have an algorithm that is running in a pod in K8 on an Edge device (Linux worker node). The Edge device runs Windows Server 2019. Hyper-V is used for the Linux worker node's VM.
When the pod containing the algorithm container is started, not all data, which the algorithm will process, is available. Data will be created by another machine (medical device) in the network and should to be streamed into the container.
Mounting a volume into the pod seems to be not appropriate for this because of the performance loss. We do not want to start the pod only after all data is available. We want to start the pod right after the first data is available and then continuously send the new data to the pod.
Is there a method to send data streams or chunks of data to a pod?
Please let me know in case my description is not clear.
Thanks for your kind support!
如果你对这篇内容有疑问,欢迎到本站社区发帖提问 参与讨论,获取更多帮助,或者扫码二维码加入 Web 技术交流群。
绑定邮箱获取回复消息
由于您还没有绑定你的真实邮箱,如果其他用户或者作者回复了您的评论,将不能在第一时间通知您!
发布评论