udp 套接字内部实际上是如何工作的?

发布于 2025-01-02 18:25:11 字数 678 浏览 1 评论 0原文

我正在尝试将数据包操作减少到最低限度,以提高我正在处理的特定程序的效率,但我正在努力解决使用 sendto/recvfrom 通过 udp 套接字发送所需的时间。我正在使用 2 个非常基本的进程(应用程序),一个是发送,另一个是接收。

我愿意了解Linux在使用这些函数调用时内部是如何工作的...

以下是我的观察: 当以

  • 10Kbps发送数据包时,消息从一个应用程序到另一个应用程序所需的时间约为28us
  • 400Kbps,消息从一个应用程序到另一个应用程序所需的时间约为25us
  • 4Mbps,消息从一个应用程序发送到另一个应用程序所需的时间约为 20us
  • 40Mbps,消息从一个应用程序发送到另一个应用程序所需的时间约为 18us

当使用不同的CPU,时间明显不同,并且与这些观察结果一致。必须有某种设置可以根据套接字上的流量更快地完成某些队列读取......如何控制?

当仅使用节点作为转发节点时,使用400Kbps流量时进出大约需要8us,我希望尽可能收敛到这个值。 25us 是不可接受的并且被认为很慢(很明显,这比每个数据包之间的延迟要小得多......但重点是最终能够处理更多的数据包,因此,这一次需要缩短!)。有没有比 sendto/recvfrom 更快的东西(必须使用 2 个不同的应用程序(进程),我知道我不能使用整体块,因此我需要在套接字上发送信息)?

I am trying to reduce packets manipulation to its minimum in order to improve efficiency of a specific program i am working on but i am struggling with the time it takes to send through a udp socket using sendto/recvfrom. I am using 2 very basic processes (applications), one is sending, the other one receiving.

I am willing to understand how linux internally works when using these function calls...

Here are my observations:
when sending packets at:

  • 10Kbps, the time it takes for the messages to go from one application to the other is about 28us
  • 400Kbps, the time it takes for the messages to go from one application to the other is about 25us
  • 4Mbps, the time it takes for the messages to go from one application to the other is about 20us
  • 40Mbps, the time it takes for the messages to go from one application to the other is about 18us

When using different CPUs, time is obviously different and consistent with those observations. There must be some sort of setting that enables some queue readings to be done faster depending on the traffic flow on a socket... how can that be controlled?

When using a node as a forwarding node only, going in and out takes about 8us when using 400Kbps flow, i want to converge to this value as much as i can. 25us is not acceptable and deemed to slow (it is obvious that this is way less than the delay between each packet anyway... but the point is to be able to eventually have a greater deal of packets to be processed, hence, this time needs to be shortened!). Is there anything faster than sendto/recvfrom (must use 2 different applications (processes), i know i cannot use a monolitic block, thus i need info to be sent on a socket)?

如果你对这篇内容有疑问,欢迎到本站社区发帖提问 参与讨论,获取更多帮助,或者扫码二维码加入 Web 技术交流群。

扫码二维码加入Web技术交流群

发布评论

需要 登录 才能够评论, 你可以免费 注册 一个本站的账号。
列表为空,暂无数据
我们使用 Cookies 和其他技术来定制您的体验包括您的登录状态等。通过阅读我们的 隐私政策 了解更多相关信息。 单击 接受 或继续使用网站,即表示您同意使用 Cookies 和您的相关数据。
原文