gpt4 book ai didi

c - Linux,了解用于网络扩展的 setsockopt() PACKET_FANOUT

转载 作者:可可西里 更新时间:2023-11-01 11:48:35 35 4
gpt4 key购买 nike

我已阅读 packet手册页和一些 blog | posts试图了解如何使用 PACKET_FANOUT 套接字选项来扩展接收数据的处理(我希望使用 SOCK_RAW 以高速捕获流量,> 10Gbps)。我已通读 this示例代码(复制在下面)但我不确定我是否完全理解它。

让我们想象一个场景;网卡上已经设置了RSS,入口流量在RX队列之间平均分配,有一个8核CPU和8个NIC RX队列,每个RX队列[0-7]分别向CPU[0-7]发送一个中断(关于 MMAP、零拷贝、poll() 等的进一步讨论在这里不在讨论范围内)。

这是我在示例代码中看到的事件顺序:

  1. 8 个工作线程 [0-7] 已启动,每个都固定到一个 CPU [0-7]。
  2. 每个线程使用 setup_socket() 创建一个套接字(同样我们会说 0-7),绑定(bind)到同一个物理 NIC,处于混杂模式,并且所有部分都属于同一个 FANOUT 组。
  3. 现在我们有(例如)工作线程 0 绑定(bind)到创建套接字 0 的 CPU 0。该线程进入一个无限循环,仅针对套接字 0 调用 read()。
  4. 当一个数据包进入 NIC RX 队列 0 时,一个中断被发送到 CPU 0。CPU 0 将数据包 DMA 到内核接收缓冲区空间。 PACKET_FANOUT 套接字选项与标志 PACKET_FANOUT_CPU 一起应用,因此只有与数据包进入的相同 CPU 核心(核心 0)上的套接字才会在 read() 调用时显示可用数据该套接字(因此套接字 0 仅由线程 0 创建),然后由于此标志,数据仅被复制到该线程的用户空间接收缓冲区。

第4点是我理解这个过程的主要疑点。 我是否正确理解了在这种情况下缩放如何与 PACKET_FANOUT 一起工作以及我们如何将工作线程锁定到处理中断的同一核心?

void start_af_packet_capture(std::string interface_name, int fanout_group_id) {

// setup_socket() calls socket() (using SOCK_RAW) to created the socketFD,
// setsockopt() to enable promisc mode on the NIC,
// bind() to bind the socketFD to NIC,
// and setsockopt() again to set PACKET_FANOUT + PACKET_FANOUT_CPU
int packet_socket = setup_socket(interface_name, fanout_group_id);

if (packet_socket == -1) {
printf("Can't create socket\n");
return;
}

unsigned int capture_length = 1500;
char buffer[capture_length];

while (true) {
received_packets++;

int readed_bytes = read(packet_socket, buffer, capture_length);

// printf("Got %d bytes from interface\n", readed_bytes);

consume_pkt((u_char*)buffer, readed_bytes);

if (readed_bytes < 0) {
break;
}
}
}

...

bool use_multiple_fanout_processes = true;

// Could get some speed up on NUMA servers
bool execute_strict_cpu_affinity = false;

int main() {
boost::thread speed_printer_thread( speed_printer );

int fanout_group_id = getpid() & 0xffff;

if (use_multiple_fanout_processes) {
boost::thread_group packet_receiver_thread_group;

unsigned int num_cpus = 8;
for (int cpu = 0; cpu < num_cpus; cpu++) {
boost::thread::attributes thread_attrs;

if (execute_strict_cpu_affinity) {
cpu_set_t current_cpu_set;

int cpu_to_bind = cpu % num_cpus;
CPU_ZERO(&current_cpu_set);
// We count cpus from zero
CPU_SET(cpu_to_bind, &current_cpu_set);

int set_affinity_result = pthread_attr_setaffinity_np(thread_attrs.native_handle(), sizeof(cpu_set_t), &current_cpu_set);

if (set_affinity_result != 0) {
printf("Can't set CPU affinity for thread\n");
}
}

packet_receiver_thread_group.add_thread(
new boost::thread(thread_attrs, boost::bind(start_af_packet_capture, "eth6", fanout_group_id))
);
}

// Wait all processes for finish
packet_receiver_thread_group.join_all();
} else {
start_af_packet_capture("eth6", 0);
}

speed_printer_thread.join();
}

编辑:奖励问题

这可能太无关了,在这种情况下请告知,我将开始单独的 SO 帖子。这里的目标不仅是跨多个内核扩展数据包处理,而且还将数据包处理代码放在接收该数据包的同一内核上(稍后将探讨 MMAP 和 RX_RING),以便减少上下文切换和缓存未命中中央处理器。我的理解是这里正在实现这个目标,有人可以确认还是否认?

最佳答案

据我所知,不,不完全是。 fanout_demux_cpu使用 cpu 和扇出组中的套接字数计算一个“散列”,恰好是 smp_processor_id() % numpacket_rcv_fanout然后使用它作为扇出组中套接字数组的索引,以确定哪个套接字获得它。

一旦您看到扇出组的整个设计是基于根据接收到的数据包的属性创建某种哈希,而不是基于尝试读取套接字的线程的属性,您可能应该只是让调度程序解决问题而不是固定线程。

或者,您可以进一步深入研究代码以对数组中套接字的顺序进行逆向工程,但这很脆弱,您可能想要使用 systemtap 验证您是否已正确完成此操作.然后,您可以按确定的顺序创建套接字(希望在数组中产生确定的顺序)并将监听给定套接字的线程固定到适当的 cpu。

关于c - Linux,了解用于网络扩展的 setsockopt() PACKET_FANOUT,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/41660747/

35 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com