gpt4 book ai didi

linux - 如何以编程方式增加 LInux 上 UDP 套接字的每个套接字缓冲区?

转载 作者:太空狗 更新时间:2023-10-29 11:22:54 27 4
gpt4 key购买 nike

我正在尝试了解在 Linux 上为我们的流式网络应用程序增加套接字缓冲区大小的正确方法。应用程序接收通过多个 UDP 套接字流向它的可变比特率数据。流开始时的数据量要高得多,我使用了:

# sar -n UDP 1 200

显示UDP栈正在丢弃数据包

# ss -un -pa

显示每个套接字 Recv-Q 长度在数据包被丢弃之前增长到接近限制(124928。来自 sysctl net.core.rmem_default)。这意味着应用程序根本无法跟上流的开始。丢弃足够多的初始数据包后,数据速率会减慢,应用程序会 catch 来。 Recv-Q 趋向于 0 并在持续时间内保持不变。

我能够通过显着增加 rmem_default 值来解决数据包丢失问题,这会增加套接字缓冲区大小并为应用程序提供时间从较大的初始突发中恢复。我的理解是,这会更改系统上所有套接字的默认分配。我宁愿只增加特定 UDP 套接字的分配,而不修改全局默认值。

我最初的策略是修改 rmem_max 并在每个单独的套接字上使用 setsockopt(SO_RCVBUF)。然而,这question让我担心禁用所有套接字的 Linux 自动调整,而不仅仅是 UDP。

udp(7)描述了 udp_mem 设置,但我很困惑这些值如何与 rmem_default 和 rmem_max 值交互。它使用的语言是“所有套接字”,所以我怀疑这些设置适用于完整的 UDP 堆栈,而不适用于单个 UDP 套接字。

udp_rmem_min 是我正在寻找的设置吗?它似乎适用于单个套接字,但适用于系统上的所有 UDP 套接字。

有没有一种方法可以在不修改任何全局设置的情况下安全地增加应用程序中使用的特定 UDP 端口的套接字缓冲区长度?

谢谢。

最佳答案

Jim Gettys 全副武装,为您而来。不要 sleep 。

网络数据包泛滥的解决方案几乎从不增加缓冲。为什么你的协议(protocol)的排队策略没有后退?如果您尝试在流中发送如此多的数据(这正是 TCP 的设计目的),为什么不能只使用 TCP。

关于linux - 如何以编程方式增加 LInux 上 UDP 套接字的每个套接字缓冲区?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/10377460/

27 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com