在生产中,我们往往用nginx或ha-proxy做网络层负载均衡, 但是当后台服务器数量猛涨的时候,这种负载均衡就捉襟见肘了,是否有什么开源的工具,可以把网络层的负载均衡和后端服务器的cpu消耗结合起来,或者有什么算法可以体现这个关系。
网络负载均衡是由多台 服务器以对称的方式组成一个服务器集合,每台服务器都具有等价的地位,都可以单独对外提供服务而无须其他服务器的辅助。通过某种负载分担技术,将外部发送来的请求均匀分配到对称结构中的某一台服务器上,而接收到请求的服务器独立地回应客户的请求。均衡负载能够平均分配客户请求到服务器列阵,借此提供快速获取重要数据,解决大量并发访问服务问题。 安装硬件负载均衡设备效果会更好一些。
收起本身业务的CPU消耗产生的原因就很多。并不完全是用户访问的增长造成的,当一个架构变得复杂的时候。任何一个环节的影响可能都会对整个架构产生影响,
nginx或ha-proxy做网络层负载均衡 一般来说是可以通过横向的资源扩展来降低单节点上的压力的,但是当架构庞大到一定程度的时候就要考虑更详细的划分。比如做缓存加速,或者分离不同的业务内容,架构调整,负载均衡调整,服务器性能提升。还有应用业务和数据库的优化结合才能让整个系统运转正常
推荐采用LVS来实现网络层的负载均衡。LVS有三种工作模式和十种调度算法。
LVS的工作模式:
1. 基于NAT的LVS模式负载均衡
2. 基于TUN的LVS负载均衡
3. 基于DR的LVS负载均衡
LVS的调度算法:
1. 轮询调度
2. 加权轮询调度
3. 最小连接调度
4. 加权最小连接调度
5. 基于局部的最少连接
6. 带复制的基于局部性的最少连接
7. 目标地址散列调度
8. 源地址散列调度
9. 最短的期望的延迟
10. 最少队列调度
具体的原理可以参考以下链接:https://blog.csdn.net/weixin_40470303/article/details/80541639