双11技术大考:一分钟内超千万人齐点天猫_最新动态_新闻资讯_程序员俱乐部

中国优秀的程序员网站程序员频道CXYCLUB技术地图
热搜:
更多>>
 
您所在的位置: 程序员俱乐部 > 新闻资讯 > 最新动态 > 双11技术大考:一分钟内超千万人齐点天猫

双11技术大考:一分钟内超千万人齐点天猫

 2014/11/11 12:58:18    程序员俱乐部  我要评论(0)
  • 摘要:作者:第一财经日报赵陈婷也许是早几年各大购物狂欢期间电商网站几近崩溃的经历太过惨痛,每年双11大多数网购者都有着这样一个担心,这次抢购时网站是不是又得卡上一阵子。尽管这样的几率已经越来越罕见,但买家对这方面的容忍度也已经越发苛刻。今年11月11日零时,相比在购物车塞满了各式物品忙于下单的消费者,随着交易量的节节攀升,各家电商企业的IT团队正面临着一年一度的技术大考。必不可少的技术演习电商网站的IT能力有多重要?不少企业已经为此交足了学费。2012年8月的那一轮电商大战中
  • 标签:技术 天猫
class="topic_img" alt=""/>

  作者: 第一财经日报赵陈婷

  也许是早几年各大购物狂欢期间电商网站几近崩溃的经历太过惨痛,每年双 11 大多数网购者都有着这样一个担心,这次抢购时网站是不是又得卡上一阵子。

  尽管这样的几率已经越来越罕见,但买家对这方面的容忍度也已经越发苛刻。

  今年 11 月 11 日零时,相比在购物车塞满了各式物品忙于下单的消费者,随着交易量的节节攀升,各家电商企业的 IT 团队正面临着一年一度的技术大考。

  必不可少的技术演习

  电商网站的 IT 能力有多重要?不少企业已经为此交足了学费。

  2012 年 8 月的那一轮电商大战中,因服务器拖后腿导致苏宁易购网页缓慢,作为对手的京东商城 CEO 刘强东曾在微博上放风凉话,“晕啊!苏宁怎么打不开网页了?京东已经内部测试云计算很久了,价格战期间,我们可以免费让你们使用京东云计算资源!”

  这一次的双 11,喜欢一边督战一边点评的刘强东在纳斯达克敲钟后已经在微博上销声匿迹。但作为电商企业,这样的购物节,备战的人依然不会少。

  今年京东商城研发部跟往年一样成立了商城双 11 指挥中心。

  据京东集团副总裁、京东 11·11 总指挥马松透露,备战期间需要协同横跨京东商城集团、金融集团、微信手Q事业部、成都研究院等相关的事业部,一同参与到技术备战和演练中。

  与此同时,京东 15 个一级部门,121 个备战小组从 11 月 1 日开始正式进入 24 小时值守的备战状态,并先后进行了 100 多场系统演习。

  而面临更大流量挑战压力的是阿里。

  按照去年的数据,2013 年 11 月 11 日凌晨,一分钟内有 1370 万人涌入天猫,相当于大半个北京城的人都出来逛街。其中,34 万“剁手党”在这一分钟内抢到了心仪的宝贝,成交 1.17 亿元。

  同样的,在今年 11 月 11 日之前,针对天猫双 11 的技术演练早已在紧锣密鼓地进行。

  阿里巴巴技术保障部高级专家潘健透露,目前,阿里巴巴技术团队已经为双 11 的流量峰值进行了 8 次压力测试,均平稳应对。

  据了解,为保障海外买家和卖家的用户访问体验,阿里技术团队进行了一系列部署:今年 6 月新交付一个大型数据中心,用于保障海外业务;海外服务器数量翻倍,国际专线网络带宽提升 10 倍;海外 CDN 网络节点和年初相比增加了一倍;目前,海外 CDN 节点带宽能力已经达到数百G,可以充分保障海外用户访问速度和体验。

  比拼技术的时代

  2012 年 11 月 11 日,双 11 交易额 191 亿元“奇迹”诞生前,正当许多买家正在享受购物狂欢时,突然一条这样的提示信息出现在眼前:我们的系统检测到您所在的网络对淘宝网的访问请求过于频繁,很抱歉,现在暂时无法处理您的请求,请您过一段时间后再来访问。

  这是当时的淘宝不得不做出的决定,必须关掉一部分流量。因为按照当时的评估,如果不做限流,不让一部分人先等等,可能会导致全盘系统的瘫痪。

  而如今这样的情况在阿里的技术团队看来似乎已经变得遥远。

  据阿里方面相关负责人的表述,在历经五年双 11 考验后,阿里巴巴技术团队已具备能力,将黑客攻击、局部爆发性流量增长、机房空调故障等种种“不确定因素”变为可预估的风险,并将 2013 年 2000 多套技术应急方案缩减至 500 套以内。

  “应急方案数骤降 80% 的背后,是阿里技术的逐渐成熟,这就像读书由薄变厚再由厚变薄一样。”潘健表示,希望今后我们的应急预案能越来越少,将资源投向更有意义的项目和创新中。

  而这背后,从最初的一台普通的服务器到 2008 年几千台服务器加 IOE 解决方案(IBM 的小型机、Oracle 的数据库、EMC 的存储),这样的架构曾经支撑了淘宝最初 5 年的发展。

  但是到了 2008 年前后,有些问题无法找到现成解决方案的淘宝开始尝试着去做分布式存储、数据库、中间件、负载均衡这样一套电子商务操作系统,而淘宝技术也开始走向开放。在这几年间,淘宝已经从一个技术不被谈及的公司走向了技术型公司。

  移动端技术战

  兵家必争之地的移动互联网市场,各大电商绝对不会缺席,而技术的重要性同样不可小觑。

  如今在移动购物市场占据最大市场份额的手机淘宝曾经在去年双 11 单日活跃用户达 1.27 亿,成交笔数达 3590 万笔,交易笔数占整体的 21%。

  这意味着,仅在第一分钟,就有 200 万人(相当于斯洛文尼亚全国人口)打开手机淘宝一阵狂点。

  区别于传统的互联网,移动互联网被理解为:秒级的状态转化,秒级的延迟,简而言之:不稳定。而无论传统还是移动互动网,唯快不破。

  今年农历新年开始,手机淘宝的技术团队开始进行客户端容器化的改造,逐步完成从集中式研发到大规模并行开发、灵活集成模式的转换,并完成一系列专项优化项目,覆盖包大小、网络、性能、耗电量、操作模式等。

  按照淘宝方面提供的数据,优化后的手机淘宝实现了 2G 首包 1 秒,3G1 秒建立连接,WiFi1 秒加载完毕这样的一个初步目标。

  此外,为了适应 Android 手机中众多低端机和低系统版本机器,目前手淘的基准要求是覆盖 80% 用户的机型,换算为手机数多达 200 多款(垒起来一层楼高)。

  “为了解决低端机型的问题,我们启动了瘦身计划、按需加载、内存精简等项目,确保在架构一致的情况下满足低端机型的要求。”阿里无线事业部技术总监庄卓然补充道。

发表评论
用户名: 匿名