标王 热搜: 3D打印  互联网  制造  塑胶  深圳  加盟  诺基亚3310  诺基亚  各路资本频繁入局   
 
当前位置: 首页 » 资讯 » 行业资讯 » 正文

这个双十一 之际考验的不仅仅是支付宝们

放大字体  缩小字体 发布日期:2018-11-09  浏览次数:485

本周日,2018年“双十一”将拉开帷幕。作为国民级的支付工具,支付宝走到今天做出了颠覆性的变革。


今年,支付宝开始了霸道总裁人设,继“中国锦鲤”后,11月1日至10日豪掷11.11亿元开展“码上双11”抢红包活动。


这次我们想得到红包,不用像去年的“捉猫猫”活动那样,大冷天满街跑找红包,今年只需要在支付宝上“养养鸡、种种树”,线下扫码消费,便可获得抽奖资格。



与支付宝活动同样备受关注的还有11日午夜支付速度问题,毕竟支付速度能够决定关注了两周的东西能不能到手。


我想网友们应该可以感觉到,2017年和2016年双十一凌晨支付排队的状况已经有了明显的好转,为此阿里的技术团队付出了七年的汗水。


而今年,由于“断直连”政策的实施,支付速度又成了未知数……(不介意的话点开这里了解下“断直连”与宝宝们的关系吧~)



被倒逼的支付速度


十年“双十一”,不仅造就了中国无与伦比的电商环境,更推动支付宝搭建了一个运行能力近乎变态的云架构。


2010年是支付宝技术革新的关键年。


当时支付宝已经完成二代架构升级,而且2010年“双十一”前,技术人员已经规划出100%的系统余量,大家都觉得能够从容应对。而当“双十一”当天零点刚过,交易量便骤增至平时的三倍,并且到7点还有下降,整个技术团队意识到危机将至,立刻“搬资源,砍业务”。


大家在极度紧张的气氛中坚守着这一天,眼看胜利在望。就在最后一分钟,支付宝核心账务系统突然报警,“嘀嘀嘀的警报声让每个人发急,负责数据库的同事冲过来喊‘资源马上耗尽!赶紧杀掉非关键应用!’”在去年支付宝的技术交流会上,一位支付宝技术人员回忆说。


经历了这次危机,技术团队深知,如果不作出调整,未来是不可能支撑支付宝如此庞大的业务增量的。而在分析了整个业界架构后,支付宝发现“双十一”面临的问题任何当时业界现有的技术都无法解决,必须靠自己。


当时阿里采用的一直是Oracle数据库,而以“双十一”每年井喷式的数据增长量,再使用下去运营成本将高出天际。


在这两方面的压力下,阿里给了技术部门绝对的支持,研发自己的云计算架构。


阿里自2009年就开始云计算的研究,2010年分布式数据库Oceanbase的开发与其并行。


终于


2014年“双十一”,支付宝将10%的交易数据链搬到了Oceanbase上。


2015年“双十一”,Oceanbase替换了支付宝支付系统中的Oracle数据库,同年,支付宝第四代架构升级,全面采用蚂蚁金融云架构。


2016年“双十一”,整个账务库都搬了过来。


2017年,蚂蚁金服全面去IOE,即去掉IBM的小型机、Oracle数据库、EMC存储设备,以自己在开源软件基础上开发的系统代之。



这一步步的突破,支撑支付宝一次次打破纪录,成就了支付宝这个超级APP。


“网联”能否跟上节奏?


网联后的第一个“双十一”能否扛住压力是业界十分关注的话题。


11月2日,央行发文通知加强“双十一”支付清算保障工作,并强调网联清算有限公司负责牵头保障工作,积极协调各单位,制定详细的保障方案和应急预案。可见网联压力之大。


目前,就发卡侧而言,网联已经接入了支付宝90%的交易量和财付通87%的快捷交易量。


去年“双十一”仅支付宝一家的支付峰值达每秒25.6万笔。


而今年4月时,网联技术负责人强群力曾表示,在三地六中心满配情况下,估算可以达到18万笔/秒的性能指标。


对此有消息人士表示,支付宝和银行为用户体验考虑打算采取两手准备:“先走网联,如果网联的系统撑不住,不排除回切直连网络系统的可能”。


“网联”能否喜提自己的第一个“双十一”,3天后便可揭晓。


不晓得又要有多少程序员通宵加班啦。



 
[ 资讯搜索 ]  [ 加入收藏 ]  [ 告诉好友 ]  [ 打印本文 ]  [ 违规举报 ]  [ 关闭窗口 ]

 
0条 [查看全部]  相关评论

 
推荐图文
推荐资讯
点击排行

 
网站首页 | 关于我们 | 联系方式 | 使用协议 | 版权隐私 | 网站地图 | 排名推广 | 广告服务 | 积分换礼 | 网站留言 | RSS订阅
Powered by 湖南企商网