几个厂商不同做法:
- pptv keepalived+nginx+squid+ts 节点灵活性比较高
- 迅雷 lvs+keepalived+ts+squid
- 京东 lvs+keepalived+haproxy+squid
- 新浪 lvs+keepalived+nginx+ts
- 淘宝 lvs+keepalived+haproxy+ts
准备采用的CDN整体结构及内部结构
- gslb:全局负载均衡使用第三方只能DNS解析,控制用户到CDN节点的调度
- lslb:本地负载
1) 4层使用lvs+keepalived,7层使用nginx,这样就可以保证4层到7层的高可用性和扩展性
但节点最少需要5个公网ip,4太机器
2) 4层使用keepalived,7层使用nginx,但节点最少需要4个公网ip,2太机器。
不能实现4层或7层的监测
Cache系统使用apache traffic server(对比squid,响应更快,性能更强)。
- CDN节点到源站回源使用bind+lvs
- 源站构建在双线核心机房,用来保证网通和电信各自的回源资粮
- 在cdn节点和源站直接构建2cache(测试阶段电信,网通各一个)来缓解源站压力
js,jpg,swf,gif等缓存时间比较长的,object size比较大的文件类型通过ats缓存
使用ats的raw来优化io。