| |
|
开发:
C++知识库
Java知识库
JavaScript
Python
PHP知识库
人工智能
区块链
大数据
移动开发
嵌入式
开发工具
数据结构与算法
开发测试
游戏开发
网络协议
系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程 数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁 |
-> 系统运维 -> NXP CPU 网卡性能优化的一次分析 -> 正文阅读 |
|
[系统运维]NXP CPU 网卡性能优化的一次分析 |
硬件环境:
内核版本:
测试方法:使用 BigTao 220 网络流量测试仪测试,设备上跑一个数据转发程序 testrawsocket ,将eth0网卡收到的数据,从eth1发出去,将eth1收到的数据,从eth0发出去。基本上双向透传。然后流量仪分别以 不同的速度打流,观察丢包率。 测试前分析:分析丢包原因 和 优化网卡性能是两个不同的问题,因为网卡丢包有很多种原因,硬件原因(时序 时钟 信号)? MAC PHY驱动原因?中断原因?还是CPU原因处理不过来?要特别注意 CPU均衡 和 中断均衡 两个概念。 一般处理丢包问题的思路是这样的 ping 丢包吗 --> 小流量打流丢包吗 --> 大流量打流丢包吗 ? 确定是哪个阶段发生的丢包,可以根据打流时的丢包规律来推断,所以打流的时候速率尽量从 0 - 100 慢慢打流观察,看看丢包的规律是怎样的。而且打流的时候,一定要注意观察 CPU的占用率,中断的情况,看看性能的瓶颈是什么,丢包的原因是什么。?(观察CPU占用 情况,x% idle, 哪个核上跑,软中断) 由于网卡一旦协商成功,1000M , 时钟速率都是固定的, 如果小流量不丢包,一般硬件的时序,什么的应该没问题。 初次打流测试,分析原因NXP CPU 网卡会有4个QMan , 下面的命令是启用一个QMan , 默认是跑在CPU0
打流的结果如下:? ?可以看出来,速度越大,丢包越多。观察下 速度跑在29%时的CPU情况 打流速度在29% 时的 CPU0 已经跑满了,其它几个核都是空闲的。 可以看到所有的网卡中断都在0核处理的。 应用程序testrawsocket ,因为是单线程,默认掩码F, 按时间片轮回在4个核上运行。 也就是说,testrawsocket 也会在0核上跑,中断一直在0核上处理, CPU0的负载真的是太TM大了,累死了要!而CPU1-3 闲的蛋疼!! 说明这是CPU 和中断 没有均衡。 第一次优化策略:启用4QMan, 中断 和 CPU均衡启用4个QMan, 中断均衡到4个核,单线程程序无法CPU均衡,按时间片轮回在4个核上运行 去掉 参数 网卡绑核的参数,改用4个QMan,一个QMan 默认在一个核上
去掉之后,跑28%,看下CPU 和 中断都是均衡的 ?启用4个QMan, 而且4个核中断均衡后,发现性能从29%提升到 36%左右 ?继续观察CPU的情况,下面两张图是速度跑到38% 的情况, 因为网卡转发的程序进程是单进程,默认掩码是F, 调度的时候是分别在4个核上单独跑一会儿,根据top可以看到 网卡转发程序 + 1/4的网卡中断,已经将单核跑满了。 第二次优化:网卡中断绑CPU3核,进程绑到CPU1核注意:网卡的数据在一直变化,所以CACHE不命中对性能的影响不大,中断IRQ 和 程序不在一个核上,关系不大。
应用程序在CPU1上跑,中断在CPU3上跑,下图是跑到47%的时候 ?性能从 38%提升到 47% 第三次优化:去掉内核中无用debug信息将内核的kernel hacking? 能关闭的去掉,比如 debug信息,debugfs, 检测spinklock等功能 关闭cgroup? namespace cpu freq等功能 跑79.5%时: 优化后跑到 79.5% 第四次优化, testrawsocket 转发程序 优化
1、如果是CPU利用率是瓶颈,又是多核CPU,那么就需要改为多线程,分别跑在不同的核上来分担压力;或者 slect epoll 实现 减小cpu利用率 ? ? ?->代码待实现 2、要保证UDP接收缓冲区足够大,?否则这样缓存太小,不能及时接收数据会造成丢包。 由于UDP没有连接是不可靠的,较快的发送端可以很容易淹没较慢的接收端,导致接收端的UDP丢弃数据报。如果UDP包过大,或者UDP包发送的速率过快,突发大数据流量超过了缓冲区上限,就会造成丢包。UDP是没有流量控制的:UDP套接字的缓冲区是以一个个报文为单位进行排队的,调用一次recvfrom表示提取一个报文,和TCP基于字节流的方式是不同的。因此,如果socket接收缓存设置过小,就会因为UDP包过大或者发包速率过快而丢包。 调整UDP接收缓冲区有两种方法,一种是通过系统socket套接字接口,另一种是通过 修改内核的参数来实现。 重新设置系统缓冲区最大值,再调整UDP缓冲区大小:
UDP接收缓冲区默认值:cat /proc/sys/net/core/rmem_default 本系统:net.ipv4.udp_rmem_min = 4096 = 2K,由内核的宏决定 本系统:212992 = 208K 3、接收数据后 处理数据的过程太慢,也可能造成丢包。 4、优化 接收buffer , 改为多buffer 循环缓冲区,接收线程为 生产者,发送线程为消费者,也是0拷贝 ----> 代码待实现, 此种优化,适合 CPU 资源有很大余量,性能瓶颈在? 网卡收包速度大于网卡发包速度,因为收到数据包之后,很可能需要数据处理渲染,才能发出去。这样能最大限度的保证 发送线程不闲着,一直发送! |
|
|
上一篇文章 下一篇文章 查看所有文章 |
|
开发:
C++知识库
Java知识库
JavaScript
Python
PHP知识库
人工智能
区块链
大数据
移动开发
嵌入式
开发工具
数据结构与算法
开发测试
游戏开发
网络协议
系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程 数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁 |
360图书馆 购物 三丰科技 阅读网 日历 万年历 2024年11日历 | -2024/11/16 0:43:29- |
|
网站联系: qq:121756557 email:121756557@qq.com IT数码 |