查看: 266|回复: 10

[vSphere 6] esxi6.5最佳网卡冗余设置讨论

  [复制链接]
发表于 9-12-2017 21:31:03 | 显示全部楼层 |阅读模式
本帖最后由 o〤ψǒ幺 于 9-12-2017 22:08 编辑

环境为两块千兆物理网卡做管理和vMotion
第一种做法:
将管理和vMotion物理做主备,即管理用第一块网卡vMotion用第二块网卡,两块网卡互为主备
无标题.jpg
2.jpg
第二种做法:
将管理和vMotion物理做eth-trunk组,管理和vMotion做双活
3.jpg
4.jpg
问题:
这两种方法哪一种做法最优
分享到:
发表于 7 天前 | 显示全部楼层
我习惯用方法1

点评

我觉得方法2比较好,一共就2块千兆网卡如果用方法1带宽只能用1G如果三层vMotion有可能失败,方法2带宽x2然后再把流量的优先级调一下做负载分担岂不更好  详情 回复 发表于 7 天前
 楼主| 发表于 7 天前 | 显示全部楼层
Zach 发表于 9-13-2017 09:23
我习惯用方法1

我觉得方法2比较好,一共就2块千兆网卡如果用方法1带宽只能用1G如果三层vMotion有可能失败,方法2带宽x2然后再把流量的优先级调一下做负载分担岂不更好

点评

嗯 是有些场景需要10GbE的vMotion链路 与其千兆做Eth-Trunk,还不如直接升级万兆,毕竟绑8条1Gbps做multi lacp,真实速率也不可能达到8Gbps  详情 回复 发表于 7 天前
发表于 7 天前 | 显示全部楼层
o〤ψǒ幺 发表于 9-13-2017 10:06
我觉得方法2比较好,一共就2块千兆网卡如果用方法1带宽只能用1G如果三层vMotion有可能失败,方法2带宽x2 ...

嗯 是有些场景需要10GbE的vMotion链路
与其千兆做Eth-Trunk,还不如直接升级万兆,毕竟绑8条1Gbps做multi lacp,真实速率也不可能达到8Gbps

点评

就单说这两个千兆网卡做配置,第一种方法是物理进行流量隔离并且是主备关系;第二种是通过逻辑方式进行隔离且做双活。这样第二种优点大于第一种  详情 回复 发表于 7 天前
发表于 7 天前 | 显示全部楼层
eth-trunk 还需要交换机配合,太麻烦,而且也容易引起故障。

点评

咱就单拿这两种做对比,双活总比主备有点多呀  详情 回复 发表于 7 天前
 楼主| 发表于 7 天前 | 显示全部楼层
dxl812334885 发表于 9-13-2017 13:42
eth-trunk 还需要交换机配合,太麻烦,而且也容易引起故障。

咱就单拿这两种做对比,双活总比主备有点多呀
 楼主| 发表于 7 天前 | 显示全部楼层
Zach 发表于 9-13-2017 12:31
嗯 是有些场景需要10GbE的vMotion链路
与其千兆做Eth-Trunk,还不如直接升级万兆,毕竟绑8条1Gbps做multi ...

就单说这两个千兆网卡做配置,第一种方法是物理进行流量隔离并且是主备关系;第二种是通过逻辑方式进行隔离且做双活。这样第二种优点大于第一种
发表于 6 天前 | 显示全部楼层
o〤ψǒ幺 发表于 9-13-2017 15:43
咱就单拿这两种做对比,双活总比主备有点多呀

我说的是生产环境。比如一台服务器用4个网卡,10台就40个口了,做eth-trunk如果后期维护的时候其他人给你线序搞错了那就网都不通了。规模越大因为类似问题导致的可能性就越高。

点评

1.一台服务器就用两个千兆网口 2.抛除维护和网络配置的问题 3.单拿这两种方法在标准式交换机配置内哪种方法最优  详情 回复 发表于 6 天前
 楼主| 发表于 6 天前 | 显示全部楼层
dxl812334885 发表于 9-14-2017 10:36
我说的是生产环境。比如一台服务器用4个网卡,10台就40个口了,做eth-trunk如果后期维护的时候其他人给你 ...

1.一台服务器就用两个千兆网口
2.抛除维护和网络配置的问题
3.单拿这两种方法在标准式交换机配置内哪种方法最优
发表于 前天 12:08 | 显示全部楼层
如果从可靠性上讲1和2基本没区别!从速率上讲,聚合后单链接速率也是一样的,增加的只是逻辑带宽!个人倾向第一种!不用去管交换机!
发表于 昨天 10:50 | 显示全部楼层
个人喜欢把所有网卡放在一个vds里面,然后用端口组隔离,然后各端口组设置网卡的优先顺序。
虽然管理网络放VDS容易出现配置不当,导致管理不了,但服务器有远程管理,熟悉几条命令就可以很容易恢复。
您需要登录后才可以回帖 登录 | 我要注册 一键登录: 更多»

本版积分规则

快速回复 返回顶部 返回列表