云服务器负载均衡是什么?
负载均衡(Load Balancer)是将网络流量分发到多台后端服务器的关键技术,通过分散请求压力,实现高可用、高并发、易扩展的架构。它是现代 Web 应用不可或缺的基础设施。
2026 年,云服务商提供多种负载均衡类型:CLB(传统型)、ALB(应用型)、NLB(网络型)。本文将从类型对比、配置步骤、健康检查、成本优化四个维度,帮你构建高可用架构。
负载均衡类型详解
CLB - 传统型负载均衡
工作层级:四层(TCP/UDP)+ 七层(HTTP/HTTPS)
优势:性能稳定、兼容性好、价格低
劣势:功能相对基础、扩展性一般
适用场景:一般 Web 应用、传统架构迁移
ALB - 应用型负载均衡
工作层级:七层(HTTP/HTTPS)
优势:支持内容路由、域名转发、SSL 卸载
劣势:价格较高、配置复杂
适用场景:微服务架构、多域名网站、API 网关
NLB - 网络型负载均衡
工作层级:四层(TCP/UDP)
优势:超低延迟、超高并发、百万级 QPS
劣势:仅支持四层、功能单一
适用场景:游戏服务器、直播推流、大数据传输
负载均衡核心功能
流量分发算法
轮询(Round Robin):依次分发到各服务器
加权轮询:根据服务器权重分配
最少连接:分发到连接数最少的服务器
源 IP 哈希:同一 IP 始终访问同一服务器(会话保持)
健康检查
作用:自动检测后端服务器状态,剔除故障节点
检查方式:TCP 连接检查、HTTP 状态码检查
检查频率:通常 5-30 秒一次
判定阈值:连续 2-3 次失败判定为不健康
会话保持
作用:确保同一用户请求始终访问同一服务器
实现方式:源 IP 哈希、Cookie 插入、Cookie 重写
适用场景:有状态应用、购物车、登录会话
SSL 卸载
作用:在负载均衡层解密 HTTPS,后端服务器处理 HTTP
优势:减轻后端服务器 CPU 负担、集中管理证书
适用场景:HTTPS 网站、API 服务

主流云服务商负载均衡对比
| 功能 | 阿里云 | 腾讯云 | 华为云 | 百度智能云 |
|---|---|---|---|---|
| CLB | 支持 | 支持 | 支持 | 支持 |
| ALB | 支持 | 支持 | 支持 | 支持 |
| NLB | 支持 | 支持 | 支持 | 部分支持 |
| 实例费 | 0.5 元/小时 | 0.5 元/小时 | 0.45 元/小时 | 0.4 元/小时 |
| LCU 费 | 0.016 元/LCU | 0.015 元/LCU | 0.015 元/LCU | 0.014 元/LCU |
| 免费额度 | 每月 15 个 LCU | 每月 10 个 LCU | 每月 10 个 LCU | 每月 8 个 LCU |
负载均衡配置步骤(以阿里云为例)
步骤 1:创建负载均衡实例
登录阿里云控制台 → 负载均衡 SLB
点击"创建实例",选择地域
选择实例类型(CLB/ALB/NLB)
选择网络类型(专有网络/经典网络)
设置实例规格(性能保障型/性能共享型)
点击"立即购买",完成支付
步骤 2:配置监听规则
进入实例详情页 → "监听"标签
点击"添加监听",选择协议(HTTP/HTTPS/TCP)
设置监听端口(如 80/443)
配置健康检查参数
点击"下一步"
步骤 3:添加后端服务器
选择后端服务器组(默认服务器组或新建)
添加云服务器实例,设置权重
配置会话保持(如需要)
点击"添加",完成配置
步骤 4:配置域名转发(ALB)
进入"转发规则"页面
点击"添加规则",设置域名条件
配置路径转发(如/api 转发到 API 服务器组)
设置优先级,保存规则
不同场景负载均衡方案
场景 1:小型网站(1-2 台服务器)
推荐:CLB 性能共享型
理由:成本低、配置简单、满足需求
月成本:约 50-100 元
场景 2:中型电商(3-10 台服务器)
推荐:ALB 标准型 + 多可用区
理由:支持域名转发、高可用、易扩展
月成本:约 300-800 元
场景 3:大型平台(10+ 台服务器)
推荐:ALB 强性能型 + CLB 组合
理由:七层 + 四层组合、百万级并发
月成本:约 1000-5000 元
场景 4:游戏/直播服务器
推荐:NLB 网络型

理由:超低延迟、UDP 支持、高并发
月成本:约 500-2000 元
健康检查配置最佳实践
HTTP 健康检查
检查路径:/health 或 /status
期望状态码:200
检查间隔:5-10 秒
超时时间:3-5 秒
健康阈值:2 次连续成功
不健康阈值:3 次连续失败
TCP 健康检查
检查端口:应用监听端口
检查间隔:5-10 秒
超时时间:3 秒
健康阈值:2 次连续成功
不健康阈值:3 次连续失败
常见问题 FAQ
Q1:负载均衡会影响网站速度吗?
影响极小。现代负载均衡器延迟通常<1ms,且可通过就近接入、多可用区部署进一步优化。相比单服务器瓶颈,负载均衡整体性能更优。
Q2:负载均衡器本身会故障吗?
云服务商负载均衡采用集群部署,单点故障自动切换。建议跨可用区部署,进一步提升可用性(99.99% → 99.995%)。
Q3:会话保持必须配置吗?
无状态应用(如 RESTful API)不需要。有状态应用(如购物车、登录会话)需要配置,否则用户可能频繁掉线。
Q4:如何降低负载均衡成本?
① 选择合适的实例规格;② 利用免费 LCU 额度;③ 非核心业务用共享型;④ 定期优化后端服务器数量。
Q5:负载均衡可以跨地域吗?
标准负载均衡不支持跨地域。需要跨地域流量分发,可使用全局负载均衡(GSLB)或 DNS 智能解析。
总结
配置云服务器负载均衡时,核心原则是:根据业务类型、并发量、成本预算综合决策。
关键建议:
一般 Web 应用选 CLB 或 ALB
微服务架构选 ALB,支持内容路由
游戏/直播选 NLB,低延迟高并发
生产环境至少跨 2 可用区部署
配置健康检查,自动剔除故障节点
定期评估 LCU 用量,优化实例规格
2026 年,负载均衡成为云原生架构的标准组件。建议根据业务发展阶段,选择合适的负载均衡类型,构建高可用、易扩展的系统架构。