本帖最后由 glk17 于 2017-3-9 16:43 编辑 x86平台家庭网络中心折腾系列:【第一篇】抛砖引玉--x86 mini主机虚拟NAS,下载机,软路由带宽叠加7层流控家庭网络中心需求分析,虚拟化一机多用实现方案,硬件选型,软路由系统选型
【第二篇】x86平台DSM群晖、ESXi虚拟化网络性能对比 本文,未完,测试补齐中物理机跑软路由,ESXi虚拟机跑软路由(含网卡直通),DSM群晖下phpVirtualBox虚拟机跑软路由,性能、效率对比测试
【第三篇】2017路由器、网络该怎么玩——ESXi多条宽带接入多线策略路由ESXi虚拟机网卡直通跑软路由,网络功能实现及设置参考
x86平台软路由的用法有很多
譬如最简单的直接物理机做软路由
或者跑DSM黑群晖,再跑虚拟机运行软路由
或者跑ESXi再跑虚拟机运行软路由
或者跑Hyper-V Server再跑虚拟机运行软路由
等等
软路由家用,只要性能够用的前提下
当然最好是功耗能多小就多小,体积能多小就多小
功耗低了发热量小就可以用被动散热,适合放在弱电箱等狭小空间里
能10W解决的话就不要用20W的机器,能5W解决的就不要用10W的机器
所以,本帖想探究这几个问题:
1,物理机跑软路由,什么样的硬件配置能跑满千兆NAT
2,虚拟化后虚拟机跑软路由,什么样的硬件配置能跑满千兆NAT
3,虚拟化后虚拟机跑黑群晖,什么样的硬件配置能跑满千兆samba共享
平台1:DELL OptiPlex 380
CPU:Intel® Pentium® Processor E5400
2M Cache, 2.70 GHz, 800 MHz FSB 双核 45nm TDP 65W 内存 支持 双通道 DDR3 不支持VT-d
http://ark.intel.com/zh-cn/products/40478/Intel-Pentium-Processor-E5400-2M-Cache-2_70-GHz-800-MHz-FSB内存:DDR3 4G *1(内存插槽两个)
存储:SATA 120G SSD*1
网卡:BCM5721*1,Intel
平台2:CPU:Intel® Celeron® Processor J1900
2M Cache, 2 GHz up to 2.42 GHz 4核4线程 22nm TDP 10W 内存 支持 双通道 最大8G DDR3 支持VT-x(不支持VT-d)
http://ark.intel.com/zh-cn/products/78867/Intel-Celeron-Processor-J1900-2M-Cache-up-to-2_42-GHz内存:DDR3L 4G *1(内存插槽一个)
存储:mini SATA SSD 32G *1,eMMc4.5 32G *1(仅支持EFI启动,暂未使用),SATA 2.5寸硬盘接口*1
网卡:Intel® Ethernet Controller I211-AT *4
平台3:Intel® Celeron® Processor 3215U
2M Cache, 1.70 GHz 2核2线程 14nm TDP 15W(支持TDP-down 10W) 内存 支持 双通道 最大16G DDR3L 支持VT-x和VT-d
http://ark.intel.com/products/84810/Intel-Celeron-Processor-3215U-2M-Cache-1_70-GHz内存:DDR3L 8G *1(内存插槽一个)
存储:mSATA SSD 24G *1,SATA 硬盘接口*1(含数据、供电二合一线)
网卡:Intel® Ethernet Controller I211-AT *4
测试环境:PC1: CLEVO W150ER
Windows 10 Pro x64
I5 3320M/8G DDR3 1600MHz/GT650M 1G DDR5/128G PM830/Realtek PCIe GBE Family Controller/BCM94360HMB
PC2: FUJITSU FMVA15MJ
Windows 7 Ultimate x64
I3 3110M/4G DDR3 1600MHz/20G SSD/Realtek PCIe GBE Family Controller/Atheros AR946X
IxChariot Console 6.70
IxChariot Endpoint 7.10
Ultra_High_Performance_Throughput.scr
LAN<->LAN:PC1->PC2 1 pair
PC1->PC2 10 pair
PC1<-PC2 1 pair
PC1<-PC2 10 pair
平台2 物理机 WAN<->LAN:LAN->WAN,PC1->PC2 1 pair
LAN->WAN,PC1->PC2 10 pair
LAN<-WAN,PC1<-PC2 1 pair
LAN<-WAN,PC1<-PC2 10 pair
平台2 ESXi6.5a WAN虚拟网卡<->LAN虚拟网卡:LAN->WAN,PC1->PC2 1 pair
LAN->WAN,PC1->PC2 10 pair
LAN<-WAN,PC1<-PC2 1 pair
LAN<-WAN,PC1<-PC2 10 pair
平台3 物理机 WAN<->LAN:LAN->WAN,PC1->PC2 1 pair
LAN->WAN,PC1->PC2 10 pair
LAN<-WAN,PC1<-PC2 1 pair
LAN<-WAN,PC1<-PC2 10 pair
平台3 ESXi6.5a WAN虚拟网卡<->LAN虚拟网卡:LAN->WAN,PC1->PC2 1 pair
LAN->WAN,PC1->PC2 10 pair
LAN<-WAN,PC1<-PC2 1 pair
LAN<-WAN,PC1<-PC2 10 pair
平台3 ESXi6.5a WAN直通物理网卡<->LAN直通物理网卡:LAN->WAN,PC1->PC2 1 pair
LAN->WAN,PC1->PC2 10 pair
LAN<-WAN,PC1<-PC2 1 pair
LAN<-WAN,PC1<-PC2 10 pair
数据汇总:注:前台CPU占用率为iKuai WEB界面系统状态显示的数值曲线
因为显示的不是瞬时CPU占用率,而是某段时间内的平均CPU占用率,以及显示刷新率等等原因
显示的值本身只能作为一个参考,这里取值的话也只能大概的选取某一点作为结果,可能会有一定误差
从上图可以看出:
1,虽然是跑TCP大包的情况,显然CPU还有足够的余量(这也是让它跑ESXi兼任其他功能的理论依据)
但跑满千兆3215U这台只用了大概15%以内的CPU,J1900用了30%左右的CPU
(这个可能是iKuai对J1900 支持和和优化不足的问题,后续可能会跑其他软路由譬如碧海威、LEDE、ROS等来验证)
2,ESXi下,虚拟网卡和网卡直通对于CPU的占用,差别非常明显
如果要跑ESXi一机多用,显然应该尽量节省CPU留给其他应用,所以CPU是否支持VT-d硬件直通的意义在这里