8 月 3 日《天空之城》在日本的热播创下每秒新增 143119 条推文的 Twitter 峰值记录,是 Twitter 平均每秒发推数(TPS)5700 条的 25 倍。
值得注意的是,在这次毫无征兆的“洪峰”到来时,Twitter 全新的系统平台并没有被潮水般涌来的推文堵塞而产生任何延迟甚至宕机。
Twitter 旧架构与新架构的性能对比
仅仅三年前,在 2010 年世界杯上,一个点球和一张红牌产生的“推文风暴”都可能导致 Twitter 服务暂时失去响应,号称地球脉搏的 Twitter 经常“心肌梗塞”。过去三年 Twitter 的工程师们夜以继日的工作,试图用“缝缝补补”的方式完善 Twitter 系统,但最终随着 Twitter 的快速发展,这些方法的收效转瞬即逝。
最终,Twitter 痛下决心重新架构为人诟病的 IT 系统,新平台上线运行后在性能和可靠性上都取得的翻天覆地的进步。无论是《天空之城》热播还是超级碗决赛都没能卡住 Twitter,而且新的架构也为 Twitter 推出多媒体推文卡片,跨设备消息同步等新功能的推出提供了有力的支撑。
最近,Twitter 平台工程副总裁 Raffi Krikorian(@raffi)在 Twitter 官方博客撰文分享了 Twitter 新架构的方法和经验,摘要如下:
重新架构的缘由与问题症结
2010 年世界杯多次卡壳后,我们重新审视了系统,有以下几点发现:
我们运行着全球最大的 Ruby on Rails 应用,200 名工程师负责开发运维这个系统,但随着用户规模和服务数量的快速增长,系统所有的数据库管理、Memcache 链接以及公共 API 的代码属于同一个代码库。这给工程师的学习、管理和并行开发都带来巨大困难。
我们的 MySQL 存储系统已经遇到性能瓶颈。整个数据库中到处都是读写热点。
通过添置硬件已经无法解决根本的系统问题——我们的前端 Ruby 服务器每秒处理交易的数量大大低于我们的预期,也与其硬件性能不成比例。
从软件的角度看,我们陷入了“优化的陷阱”。我们是在牺牲代码库的可读性和灵活性来换取性能和效率。
重新检视系统,并设定三大目标/挑战
一、新架构必须在性能、效率和可靠性上表现优异,减少延迟大幅提升客户体验;同时将服务器数量减少到原来的十分之一;新系统能够隔离硬件问题防止其演变为大规模宕机。
二、解决单一代码库的种种弊端,尝试松耦合的面向服务模型。我们的目标是鼓励封装与模块化的最佳实践,但这次是在系统层面,而不是类库、模块和数据包的层面。
三、最重要的是能够支持新功能的快速发布。我们希望能够由一些充分授权的小团队能做出自主决策,并独立发布一些用户功能。
我们在动手前部分开发了一些概念验证模型,最终我们确定了重建的原则、工具和架构。
系统重建的关键措施
一、前端服务:用 JVM 取代 Ruby VM。通过重写代码库将 Ruby VM 服务移植到 JVM,性能提高了 10 倍,如今性能达到 10-20k 请求/秒/主机。
二、编程模型:按服务类型对系统进行结构,建立一个统一的客户端服务器库并与负载均衡、故障转移策略等绑定,从而让工程师们能更加专注于应用和服务界面。
三、采用 SOA 面向服务架构,使并行开发成为可能。
四、推文的分布式存储。即使将整块单一应用分解成不同的“服务”,存储依然是个巨大的瓶颈。过去 Twitter 采用的单一 MySQL 主数据库只能线性写入推文,Twitter 决定在推文的存储上采用全新的分区策略,用 Gizzard 框架创建容错的分片分布式数据库存储推文,但这样一来就没有办法使用 MySQL 的唯一 ID 生成功能。Twitter 用 Snowflake 解决了这个问题。
五、监测与统计。将单一应用转化为复杂的 SOA 应用后,需要购买匹配的工具才能够驾驭。Twitter 的服务推出速度很快,同时还需要实现数据化的决策支持,Twitter 的 Runtime 系统团队为工程师开发了两个工具 Viz 和 Zipkin。