英文原文:MixRadio Architecture - Playing With An Eclectic Mix Of Services
在“著名的推特论战:Microservices vs. Monolithic”一文中,我们曾分享过 Netflix、ThougtWorks 及 Etsy 工程师在 Microservices 上的辩论。在看完整个辩论过程后,或许会有一大部分人认同面向服务这个架构体系。然而事实上,Microservices 的执行却并不简单。那么究竟如何才能打造一个高效的面向服务架构?这里我们不妨看向 MixRadio 首席架构师 Steve Robbins 的分享。
以下为译文
MixRadio 提供了一个免费的音乐流服务,通过学习用户的收听习惯以交付一个定制化的电台,而用户需要做的只是去点击一些简单的按钮。通过极其简易的交互,MixRadio 通过“移动优先”的方式提供了一个难以置信的定制化等级。它适用于任何人去发现新的音乐,不只是狂热的音乐发烧友。使用 MixRadio 就像打开一台收音机,但一切都在你的掌握之中——轻点 Play Me,你的私人广播电台随之开启。基于地域流派和风格,MixRadio 包括了数以百计的手工歌单、创建歌单功能,当然不能缺少保存喜爱的歌单并离线播放,这样即使没有互联网,美妙的音乐仍然可以继续。
当下服务已经在 Windows Phone、Windows 8、Nokia Asha 以及 Web 上可用,而支撑这些应用的后端系统则经过了数年的打磨,下面我们一起看看系统的架构概括。
架构综述
在 2009 年,我们如愿获得了重构后端系统的机会。而衍变到现在,后端系统已经由一系列 RESTful 服务组成,也就是大家经常说的“Microservices”。这些系统的功能、大小、开发语言、数据存储都各不相同,然而有一些共性是必不可少的,比如一些良好定义的 RESTful API、独立扩展、监视能力。围绕这些核心服务,系统还拥有两个相似的代理服务,通过配置以提供 RESTful 资源的子集,它们被用于不同功能。“Internal Tooling API”代理服务器拥有内部 API 以提供客户服务、内容管理、歌单发布、监视以及其他场景使用的工具,客户端应用及第三方开发者使用的 RESTful API 通过“External API auth layer”开放,这个服务同样负责执行适当的许可权限以及授权方案,比如 OAuth2。
对于终端用户,通过 API 服务的应用程序范围非常广。我们提供了独立的 HTML5 网站、以及适用于 Nokia 电话和搭载 Windows 8 系统的设备应用,同时我们还开放部分相同的 API 给第三方开发者。下面我们不会公布过多的系统架构细节,如果想有更多详细了解可以查看我同事 Nathan 之前发布的文章。我们将对系统主要部分进行高度综述,下图显示了系统中由 50 多个 Microservices 构成的组件:
使用的技术
基于开源,我们务实地选择合适的工具以完成任务,下面一起看系统中重度使用的技术堆栈:
语言
存储
基础设施
监视
架构原则
为了保持 50 多个 Microservices API 的一致性,我们在 URL、结构、分页、排序、包装、语言代码等处理上都制定了标准;但是在一个开放的文化下,我们通常使用原则而非硬性规定来保持一致性。我们的服务需要遵循以下的条款:
遵循这些内部原则,对于外部公开 API,我们有一些附加标准:
使用视图 API 的一个例子就是应用中艺术家详情分页,数据从多个源中抽取——艺术家个人简介、图片、推特、gigs(混合了风格、热门歌曲、朋友听过的歌曲、相似的艺术家)。通过将这些集合到“view”中,应用每次都可以获得 5 千字节左右的数据。
让 Microservices 更快
近年内,我们一直进行 Microservices 从 Java 到 Clojure 的重写。Cloujure 是个静态语言,仍然运行在 Java Virtual Machine(JVM)之上,允许访问 Java 框架。后端团队之所以会选择 Cloujure,大部分原因是速度——不管是开发还是运行时。Cloujure 比 Java 来的更为简洁,举个例子,有一个使用 Java 编写的 Microservices 在使用 Cloujure 重编写后,代码量从 44000 减少到 4000 行(包括所有配置、测试及组件)。我们使用 Leiningen 来加速开发,Leiningen 提供的一个特性就是自定义项目模板来加速开发,我们拥有一个被称为“cljskel”的模板作为所有服务的框架模板。在后续文章中我们将详细介绍这个模板,而在使用方面,我们可以运行下面的命令,并获得一个功能 RESTful 服务,它将具备监视 API:
lein new cljskel <project name>
如果你感兴趣我们为什么会深入 Clojure,你可能会对 2013 年两个工程师在 London 的演讲感兴趣。
数据
我们有两个最大的数据源,分别是 3200 万+音轨的内容元数据(包括相关的艺术家、专辑、混合等)和来自应用程序的分析数据(比如回放、顶/踩以及浏览事件)。
Catalogue 服务为消费者体验提供了内容元数据和搜索能力,Master Catalogue 则存储来自多个数据源中的元数据,比如唱片公司、公司内部内容团队、以及类似维基百科这样的互联网资源。一个配置驱动的数据模型指定如何合并资源(比如基于内容团队在其他源中的更改对指定字段进行更新),这里的字段都可以被搜索并返回调用者。针对不同的用例,我们可以返回不同的字段。比如,有时候在搜索结果中我们并不需要一个节目列表清单,但是在显示曲目列表详情时我们则需要这个字段。Master Catalogue 服务不会直接支撑用户流量,取而代之,“Search and Query”API 则是其余后端系统的接口。Search and Query 服务基于 Apache Solr 建立,Index Daemon 则会抓取 Master Catalogue 用以修改并推送给 Solr 搜索索引。
在定制化体验、进行A/B测试、CRM、计算业务指标过程中,收集常用和分析数据至关重要。随着连续不断的数据从各种应用中传到后端,许多服务都需要对相同的数据同时访问。举个例子,当某个用户踩某首歌曲时,这对当下播放的曲目列表有着重要的意义,有助于对一个用户品位的把握,再三的重复踩这个动作意味着这个艺术家可能并不为用户喜欢。为了能处理预期的数据,我们确定了预期中订阅/发布系统所具备的特性:
我们选择了 LinkedIn 出品的 Apache Kafka,因为它近乎完美地迎合了我们的需求。作为一个稳定的消息系统,它被设计用于支撑不同状态(比如读取数据的位置)的用户,而不是所有用户都是一尘不变的存在,并且以同样速度消费数据。
监视
系统的目标是主要用例延时不超过 0.8 秒,以及在 90 天周期内 4 个 9 的可用性,相当于每个月停机 4.3 分钟。因此当错误发生时,我们要快速的发现并处理问题。在这里,我们使用了多个监视层来提醒开发和运维工程师。
最底层,我们使用 Nagios 来检查虚拟机的健康状况,并通过 PagerDuty 来提醒运维工程师。系统中,每个 Microservices 都会实现健康检查 API,让 AWS 负载均衡器来确定某个主机是否需要被重启(在之前的报告中,你可以了解更多关于 AWS 负载均衡器的配置信息)。Graphite 被使用以收集操作系统级度量,比如 CPU 使用率、磁盘空间等。同时,每个 Microservices 都会根据工程师需求记录对应度量。服务度量会在不同等级上进行,比如低等级的 HTTP 500 错误计数,以及高等级的抽象(被激活订阅数量),我们测量一切需要的信息。下面是 Graphite 可视化界面的一个截图:
在 Graphite 之上我们使用了 Tasseo,它会提供一个更友好的数据总结视图;同时,在阈值变化时,我们使用 Seyren 进行提醒。Tasseo 最早是由几个工程师引进,它曾被用于 2012 年奥巴马再次竞选时的系统。
在最高等级中,我们通过 Keynote 测量用例和全世界范围内的响应时间:
最终,为了做更详细的监测,我们避免必须通过日志传输来连接到特定服务器的情况。通过 Logstash 集中收集系统、请求、错误和应用程序特有日志,并且使用 Kibana 配合定制仪表盘来追踪特殊错误或者趋势。下面这个例子是我们几年前定制的仪表盘,目的是减少应用程序错误噪声:
持续交付
持续交付是自动部署和测试的一个实践,主要关注软件是否可以被快速并以重复的途径发布。多年来,我们一直致力这方面的提升,当下已经过渡到 Netflix 基于 AWS 的“red / black”模式。在今年6 月份的 London Continuous Delivery Meetup 上,我们工程师 Joe 分享了这方面的内容。
你可以通过观察我们在过去 5 年发布的软件数量来查看架构提升: