很多人都熟悉Twitter访问故障时候那条白色的鲸鱼。今年新推出的Twitter Engineering Blog讲述了Twitter白鲸技术故障的原因及解决思路。这是到目前为止Twitter公开的最底层的一篇技术资料。
http://engineering.twitter.com/2010/02/anatomy-of-whale.html
当Web Server发生503错误后,Twitter配置了一个前端鲸鱼的显示页面。Twitter对鲸鱼页面有监控体系,当每秒超过100个鲸鱼就会引起报警。
为什么在单位时间内会有大量的”fail whale”呢?Twitter成立了一个小组来专门分析此原因。
1. 分析背景资料
“分析性能问题不是一门科学,而是一门艺术”。
鲸鱼页面实际上是对HTTP 503错误的前端展示,503错误通常是调用后台请求超时产生,为了避免用户长时间等待,Twitter的前端(Tim: 也可能是HTTP反向代理)给请求加了超时,避免用户无限制的等待。超时通常是由于单位时间内访问的用户数过大,也有可能是后台某个服务突然变慢造成。
由于Twitter网站每个时刻都有海量的数据流过,因此要简单的定位并解决此问题并不容易。
2. Web page请求分解
Twitter的页面请求后端分成2个阶段,在Twitter内部称为IO phase及CPU phase。IO phase指通过网络服务获取用户的关注关系及相关的Tweets。第2阶段为CPU phase,指将数据聚合、排序及按用户请求的条件输出。IO及CPU各自在1天内消耗的时间如下。
从图上看到,latency增大时IO是主要瓶颈。IO对应于Network service,因此可以判断是某个网络服务性能降级造成。
3. 深度分析
理想情况是网络服务在应答相同参数的请求消耗时间应该基本相同。但实际情况并非如此,我们大胆假设某一网络服务性能下降厉害,于是我们就从统计分析中去寻找这个服务,我们看到Memcached的统计图表如下
4. Memcached 竟然是鲸鱼故障的直接原因
可提高的空间及解决思路
- 从上图看,Memcached在 latency高峰的性能比低谷相差一倍,因此最简单的判断是增加硬件即可提高50%的性能。
- 另外一种思路就是优化Memcached程序,判断程序热点和瓶颈并进行优化。
分析
- 通过 Google perf-tools project 工具来分析, http://code.google.com/p/google-perftools/ http://github.com/tmm1/perftools.rb
- 通过自己些的一段分析代码来监控 http://github.com/eaceaser/ruby-call-graph
- 通过上面工具的call graph来分析热点和瓶颈
最后分析数据Memcached请求分布比例如下
get 0.003s get_multi 0.008s add 0.003s delete 0.003s set 0.003s incr 0.003s prepend 0.002s get 71.44% get_multi 8.98% set 8.69% delete 5.26% incr 3.71% add 1.62% prepend 0.30%
结论:从上面数据来看,调用热点和瓶颈主要集中在Get操作
因此回头取看Twitter页面执行流程代码,找出优化方法见注释。
get(["User:auth:missionhipster", # 将昵称转换成uid get(["User:15460619", # 获取user object(用于检查密码) get(["limit:count:login_attempts:...", # 防止密码字典攻击 set(["limit:count:login_attempts:...", # 大部分情况不需要, bug set(["limit:timestamp:login_attempts:...", # 大部分情况不需要, bug get(["limit:timestamp:login_attempts:...", get(["limit:count:login_attempts:...", # 重复调用,可记住 get(["limit:count:login_attempts:...", # 重复调用 get(["user:basicauth:...", # 防止解密的优化 get(["limit:count:api:...", # 请求数限制 set(["limit:count:api:...", # 设置请求数,大部分情况不需要,为什么? set(["limit:timestamp:api:...", # 大部分情况不需要, bug get(["limit:timestamp:api:...", get(["limit:count:api:...", # 重复调用 get(["home_timeline:15460619", # home_timeline业务调用 get(["favorites_timeline:15460619", # favorites_timeline业务调用 get_multi([["Status:fragment:json:74736693", # multi_get所有tweets内容
上面这段代码将17个请求优化成10个,部分重复调用通过本地cache避免,另外一些没必要的调用直接删除。通过一个简单的优化性能就提高了42%。
结论
- 在前文2010年的技术架构建议中提过Cache已经是Web 2.0系统核心元素。从Twitter的故障案例来看Memcached竟然成为了瓶颈并导致了Twitter服务的不稳定。由于在social应用中cache核心化的设计,“RAM is the new disk”,在cache广泛使用后也变得调用成本增加,需要考虑进行系统的规划减少不必要的调用。避免开发人员在代码中随意使用cache
- 如何定位瓶颈,可以借鉴Google perf-tools项目及上面其他分析工具的思路。
- Twitter页面执行流程值得参考
- 整个故障流程分析图如下
非常感谢,消化中
从friendfeed上看到
不错
虽然看不懂,依然支持
呵呵
thanks~
hi..请问下..你的这些图是用什么工具整出来的..能给我回封邮件吗??谢谢..
看到Twitter页面执行流程代码,觉得挺有意思:大家都觉得ram是新的disk,这是很对的,使用key_value数据库替代关系型数据库也是非常好的,但是从这个调用流程来看,完全是使用key_value的方式来直译关系数据库,对数据完全没有分析和重新整理,如果是这个理念,相信这个系统还将有更多类似的问题出现
Ƭhis is a really gookd tiⲣ especіally to tһose new to the blogosphere.
Simple but very accurate information… Many tһanks for sharingg thіs one.
Ꭺ must read article!
Nice