新闻中心

春晚红包:腾讯、阿里连续宕机3年!百度没宕机应用商店却“瘫痪”了

  原标题:春晚红包:腾讯、阿里连续宕机3年!百度没宕机,应用商店却“瘫痪”了

  猪年春晚,无数中国家庭都围坐在一起边看春晚边抢红包。随着春晚主持人通过口播让上亿观众使用百度APP抢红包之后,百度APP没有宕机,但是却“因为大量用户下载百度APP”,一些第三方应用商店“瘫痪”了。苹果手机自带的应用下载工具也一度无法正常使用。

  作为央视2019年春晚独家网络互动平台,百度在2月4日除夕夜发出4轮9亿红包。根据最新公布的活动数据,今年春晚的红包活动,全球观众参与互动活动次数达208亿次。在互联网公司和春晚合作的互动史上,百度成为第一个扛住春晚红包冲击的互联网公司。

  这背后,是百度云凭借稳健的服务和过硬的技术,经受住 “史上最大红包流量”的考验。今年百度APP春晚红包互动活动涉及百度数十个产品、百余种用户场景,加上春晚的超高收视率,给百度云带来压力不小的“三大挑战”:临时用户登录量极大,瞬间出现巨大流量峰值,短期资源需求量巨大。稍有支持不力,都可能导致用户打开百度APP缓慢、无法登录自己的账号、点击界面无反应,甚至出现白屏,更别说参与抢红包大战。

  为此,百度技术部门全体动员,从多个方面着手,进行了周密的规划准备工作。在从项目启动到上线天内,展开实施产品运营优化、数据库优化、智能调度、技术设施运维等全方位应对方案,打了一场多线并行、内外协同的高效技术服务保障战役。

  面对临时用户登录量极大的难题,百度云20天内将短信承接能力提升至少数十倍,还与运营商合作,在云上布局一键登录功能,简化登录流程、减轻服务器压力;对于红包福利活动中出现的小度商城,百度云也提供了先进的存储、计算等技术支持。

  不止于“摇一摇”“扫一扫”,今年春晚互动新增更多AI玩法,相应也带来了一波又一波“高并发、大流量”的惊险时刻。在瞬间可能出现的巨大流量峰值面前,百度工程师对用户刚登录APP时的内容加载进行优化,并通过智能调度系统,依据用户行为的不同,层层计算,调度早已准备好的冗余资源,增加系统容量,合理分配带宽,通过这些措施保证亿级用户可以流畅体验不同的抢红包任务。

  另外,为了应对短期资源需求量巨大的难题,百度系统部作为资源供应、技术保障团队,在关键设施资源供应及运营保障方面发挥了极其关键作用:在全国各个地区提前规划和布局了多个数据中心集群,确保机架位资源充足供应,机房动力环境100%安全稳定运行;弹性供应链可以应对业务陡增的刚性需求,保障服务器资源及时、高效交付;敏捷高效的自动化处理平台,灵活调整并发限制;业界领先的百度自研整机柜技术,为春晚项目提供高可信的计算、存储能力;提前规划布局和建设的网络资源,通过智能调度系统,分钟感知不同地区资源紧张程度,进行相应的资源调度和补给。比如,北京顺义华威机房在8小时内完成了10000台服务器的物理上架,16小时完成自动化上线交付业务使用,创造了业界服务器交付速度的新纪录;IDC网络和CDN资源建设则在3周内完成了相当于2018年全年的建设量。

  猪年的春晚红包互动,对于百度云既是一次挑战,也是一块试金石。面对高于平日千百倍的数据吞吐量,百度云用自身充足的准备和先进的技术能力,保障了用户的顺畅体验和活动的顺利进行,经受住了春晚流量洪峰的考验。

  成功应对“春晚挑战”的百度云,展现了自己对大型项目的出色技术保障能力,这将使自己在市场竞争中占据有利地位。2019年在风起云涌的云服务商竞争格局中,也许会发生新的变化。

  中国互联网说大流量,一般我们会说双十一晚上零时全民网购,全国人民一起抢购突发流量是大流量,还有就是春运12306抢票的流量。而实际上,春晚抢红包的流量才是终极BOSS。

  我们看下数据。微信是装机量最大的APP了,日活高峰是9.5亿,支付宝这种日活不过2.3亿,而春晚是在短短几分钟内,有10多亿用户同时发出需求。这个强度非常之高。

  2015年除夕当天,微信红包收发总量达10.1亿次,春晚全程(2月18日20:00-2月19日00:48)微信春晚摇一摇互动次数达110亿次,出现在除夕夜当天22:34出现峰值8.1亿次/分。腾讯宕机1小时。

  2018年春晚,淘宝提前推导了各种极端情况,在2017年双十一基础上再扩容3倍。结果春晚当晚登录的实际峰值超过了2017年双十一的15倍,尤其新用户的瞬时登录更是完全超出预料,经受过双十一洗礼的阿里服务器还是宕机了。

  事实上,当晚第一轮摇一摇红包活动结束后,截至21:00,全球观众参与百度APP红包互动就已经达到了92亿次,而这才刚刚开始。史无前例的9亿红包数额、还有2019年智能机进一步普及,互联网加速下沉县城、乡镇、农村的趋势,果然都让2019人们的红包热情爆发得更加汹涌。

  任何红包类、抽奖类活动还会有一个灰色的影子参与其中,这就是中国互联网的黑产用户,中国薅羊毛党手里掌握大量虚拟资源,拼多多号称一夜损失200亿就是它们干的,它们可以在短时间内产生巨大流量,这部分流量叠加正常流量,也进一步加大了服务器的压力。

  另外,因为抢红包这个东西,是有一个流程的,涉及很多外部服务,百度自己的服务器只是其中一个环节。

  没下载的用户下载百度APP,没注册的注册,注册的收短信要通过电信运营商,所有网络需求都要通过硬件。APP市场的服务器,电信运营商的网络,机房、光纤等硬件,有一个环节容量不够,都可能导致宕机。

  事实上,春晚当天百度的第一轮红包互动之后,苹果应用商店、华为、三星几大应用商店全部挂掉,其中苹果应用商店长达12分钟不能访问,今年的流量显然远超预期。在春晚直播期间,全球观众参与百度APP红包互动活动次数达208亿次!

  而且,相对往年,百度今年多了很多新玩法。语音搜索、视频红包的需求消耗的资源要高于传统的抢红包并发需求。百度这次使用个性化信息流和视频技术,为每个用户定制内容,千人千面,也让流量压力倍数增长。

  但面对今年如此的超级需求,百度居然能顶住,全程没有出现明显故障,不得不说,业界公认的“百度技术强”,不是一句空话,经过春晚这个流量王者的洗礼和证明,更稳了。

  在确定拿下春晚红包互动权后,百度成立了一个近千人的项目组,包括产品、研发、运营、客服以及风控,应对爆发数量的需求。

  在技术方面,百度很早就落实了服务流量隔离、系统升级、专线新增以及服务器扩容等工作,提前进行了多轮全链路压力测试和多轮的方案预演。

  在硬件资源上,除了常规的扩容,百度还使用专有硬件计算(特定CPU,或者GPU、FPGA等硬件),处理大规模AI计算需求;准备最大规模硬件资源,处理十亿级别并发需求。据说整个系统在内部都是全自动扩容缩容,数万台机器,相应每秒数千万的请求,并支持快速扩展支持更多请求处理。

  百度的技术并不是天上掉下来的,而是百度大数据、云计算、人工智能技术多年发展积累出来的。百度在硬件上能够提供专用硬件计算,是因为百度云服务本身就提供的GPU和FPGA专用服务器,百度能有全自动扩容缩容技术,是因为百度云本身就提供弹性伸缩功能。百度云的积累是百度能够应对春晚红包的数据爆发的技术技术。

  值得一提的是百度并不只是靠计算能力硬抗,百度有小程序的技术优势。百度这次的摇一摇红包和视频红包等都采用小程序开发,用小程序技术支持更灵活的开发和预加载机制,不仅能够应对更大流量更大并发,降低硬件资源消耗,提升效率,还有更好的用户体验。

  在用户比往年多,玩法比往年多、AI玩法增加计算压力的地狱级别的高压环境下,百度的春晚红包没宕机,果然是闷声搞技术的公司。

      申博,申博平台,申博官网




网站地图