双十一技术

双十一技术口号大全

  1、团结奋战“双十一”,顺丰!还是顺丰!

    2、万众一心,迎战高峰!

    3、攻守并重,全员发动;集结顺丰,赢战高峰!

    4、有甜一起享,有苦一起担,风雨同舟,我们在一起!

    5、万众一心,永不言苦,相信团队,飞跃巅峰!

    6、齐利断金,决战双十一!

    7、众志成城,决战高峰,保质保量,赢战双十一!

    8、用服务擦亮我们的品牌,服务没有最好,只有更好!

    9、奋战双十一,高效率,零滞留,零错发,我能行!

    10、双十一,我们准备好了!

    11、收发并重,全员实动,保质保量,决战高峰!

    12、抢客户,创收入,提升客户满意度;保质量,人心齐,携手共战高峰期!

    13、全员出击,迎战高峰,提升服务,刷亮品牌!

    14、困难面前,我们依然微笑!

    15、双十一必胜,保驾护航有顺丰,保质保量保太平!

    16、拼服务,保质量,全力以赴,奋战“双十一”!

    17、微笑挂脸上,服务记心里。

    18、为自己代言,为顺丰扬威,迎战高峰,众志成城,干一周,创造奇迹!

    唱响双十一口号票选结果出炉啦!本次投票参与人数1842人,有效投票数量3346票。小编非常感谢各位大力支持与热情参与!

    获得支持率最高的前五个口号是! 是! 是!

    NO.1:齐利断金,决战双十一!

    NO.2:为自己代言,为顺丰扬威,迎战高峰,众志成城,干一周,创造奇迹!

    NO.3:双十一,我们准备好了!

    NO.4:攻守并重,全员实动,保质保量,决战高峰。

    NO.5:攻守并重,全员发动;集结顺丰,赢战高峰。

展开阅读全文

双十一技术保障

20秒,天猫交易额破1亿;

52秒,交易额超过10亿;

6分58秒,天猫交易额超过了100亿;

1小时,交易额超362亿元,已超过2013年双十一,无线交易额占比84.3%;

2小时30分,交易额破500亿;

14点33分36秒, 菜鸟单日物流订单量超过4.67亿,超过去年双11全天,创历史新高。

15点19分19秒,天猫交易额达到912亿,超过2015年双11全天。

18点55分36秒,2016天猫双11全球狂欢节交易额冲破1000亿元。

……

最终,2016年天猫双十一的交易额停止在1207亿上,同比增长32.3%,成功突破单日交易额千亿元关卡。其实每年的"双十一"不仅是购物狂欢节,同时也是一场技术盛宴。因为当产品、市场、运营都准备完毕,最后还是要靠技术才能创造奇迹。到底是什么样的技术创新,支撑起这一世界级经济现象呢?今天阿凡就带你一起窥探双十一奇迹背后的技术力量。

1.异地多活:在1000公里外给飞机换引擎

阿里首创交易系统"异地双活"并在去年以及前年的双十一中应用,现在更是取得重大突破:在支付宝这样高度复杂与严谨的金融系统中,实现1000公里以上的"异地多活"能力。

"异地多活"已经超越两地三中心等传统灾备概念,可实现多地数据中心像一个数据中心一样工作,即使某一处数据中心出现故障,双十一在线业务仍然能够快速恢复正常运转。

"数据中心的切换,要在用户毫无感知的情况下进行,这就像为正在飞行的波音747飞机更换引擎。不仅不能影响飞行,飞机上的乘客也不能有感觉"。阿里目前支撑双十一的多地数据中心,最远距离已超过1000公里。

2.OceanBase:中国自研数据库

双十一的核心交易流量,由金融级海量数据库OceanBase100%承载。OceanBase由阿里自主研发,是中国首个具有自主知识产权的数据库,也是全球首个应用在金融业务的分布式关系数据库。

OceanBase的系统维护与传统数据库相比,不需要昂贵的共享存储设备和高性能服务器,还能节省数据库软件的许可费,成本不到常用的商业数据库的一班。同时,分布式的系统,可以更好地应对双十一此类的大流量冲击:弹性能力可保证大促之前完成一键扩容、大促之后实现一键缩容。

3.一键建站:淘宝天猫90分钟再造黑科技

每年双十一,阿里都需要新建淘宝和天猫的交易单元应对巨大的流量冲击,与原有系统"协同作战",分散流量,减轻系统负担。

以往,重新部署一套交易单元至少需要提前1个月的准备时间。现在阿里采用"一键建站"技术,在90分钟内自动完成该项费时费力的巨大工程。 一键建站,是指在基础设施具备的条件下,通过阿里自研的自动化软件,将中间件、数据库、商品交易系统、商品展示系统等上百个电商核心系统,像搭积木一样部署完成。整个过程一键完成,基本无需人工干预,所需时间不到90分钟。

4.全站Https加密保全球用户访问安全

今年天猫双十一主打牌即是全球化,超过4700万用户购买了国际品牌商品。作为阿里未来的核心战略之一,如何保障全球化的用户体验呢?

为了给全球用户提供更安全快速的访问体验,阿里云部署CDN的国家和地区增加到30多个,可从容应对日益增多的海外用户同时访问。在国内,阿里云拥有近500个CDN节点,单节点带宽达到40G以上,轻松实现实现毫秒级响应。

不仅要快,还要安全,阿里云CDN为保障双十一狂欢节,帮助淘宝、天猫、聚划算等阿里电商平台全面实现了HTT 加密访问,能有效防止资源被劫持,使用户端与服务器之间收发的信息传输更加安全。据悉,这也是全球首家大型电商网站实现全站Https加密访问。

5.VR购物产品Buy+惊艳亮相

淘宝、天猫手机客户端在11月1日开启了Buy+购物入口,支持无需VR设备的全景模式和VR眼镜模式。Buy+利用Virtual Reality(虚拟现实)技术,借助计算机图形系统和辅助传感器,使得用户置身于可交互的三维购物环境中。术突破了时间和空间的限制,真正实现了各地商场随便逛,各类商品随便试。

虽然双十一主要是拼手速和网速,需要"瞪眼三秒"方才确定菜单选项的Buy+购物在这次购物盛宴中贡献不多,但它出现的意义却非同一般:VR技术的应用范围将遍布生活中的各个场景,阿凡觉得有理由相信阿里推出VR产品Buy+仅仅是布局新产品生态圈的第一步,这之后还会有一系列令人期待的新产品。同时,相信Buy+带来的不仅是败家,还是一个全新的购物时代。

是不是觉得这些技术都牛B闪闪却又难以接触得到?其实,这里面的大部分技术在 每月两次的技术沙龙上都已做过深刻解析。比如早在今年6月4日的技术沙龙里就有技术大咖做了关于现今互联网安全形势和下一代网络安全方案的分享、8月27日的技术沙龙里邀请领域专家畅谈关于数据双活的前世今生等等。

展开阅读全文

双十一技术复盘是什么

今年淘宝直播已经促进了年度千亿级别的成交,阿里巴巴副总裁平畴表示“淘宝直播的内容模式,将一直引领消费的生活方式和消费重点,成为未来商业模式的主流”

2019 年双 11 直播已成为淘宝内容生态里程碑式的节点,其意义可对标 2015 年的淘宝无线化,所有的业务板块都在利用网红主播的巨大粉丝效应来放大品牌影响力,同时利用个性化的实时互动创造了新的内容运营模式。双11当天,直播最高在线突破,淘宝直播作为电商生态中新媒体、新内容、新生态的典型产品,不仅是承接链接用户和品牌的人货场,更多的是代表一种面向未来聚焦用户的新运营业态。

直播业务系统架构

直播体验的关键在于观看,但传统直播在弱网下、移动场景均存在固有缺陷导致画质不佳、频繁卡顿,同时传统直播中心化的分发模式成本也难以降低,多级分发的机制更是对优化时延提出挑战,均对用户体验带来诸多不利影响。淘宝直播基于以上问题,自研了全新的音视频实时通信引擎,去中心化设计,支持横向级联,实现了大规模低延时直播,时延从原先 5-7 秒降低至 1 秒内,并在弱网下有更好的表现。数据显示,使用低时延直播后,直播间的 GMV 提升了 ,核心技术点包括:边缘接入、最佳路由、下行网络保障。

✦ 直播开放体系

直播生态存在多种参与角色,包括达人、商家、机构、平台、用户;需要针对不同的角色来设计差异化的商业变现手段,2019 年淘宝直播全面升级开放体系,目前已支持微博、UC、优酷等多端通过开放体系接入淘宝直播,实现了内容在多平台随时开播的能力。

其次,直播核心是粉丝经济,需要设计一套从新粉、铁粉、钻粉、挚爱会员亲密度体系来提升用户粘性,进而给主播提供更细粒度会员营销能力。今年双11基于淘宝直播的开放体系提供了多种灵活的营销玩法,并打通了招商系统、权益互动体系,提供了一站式的实时用户互动平台,赋能业务赋能商家。

✦ 智能直播商品识别

在内容 AI 领域,利用端侧算法识别主播讲解的商品,将直播内容结构化,进而将实时内容转为离线的带有商品语义的视频切片,提升了直播在长尾分发的效果和规模,促进了用户的进店率、购买转化率。技术上来看,直播商品识别,本质上是一个视频到图像的小库跨域实时检索问题,从query信息比较明显的服饰场景切入,通过目标检测,逐渐细化可能的query目标主体,并对主体进行检索,主要的任务先检测人、检测衣服,然后检测视频帧主体到商品图像检索。目前已经实现了淘宝天猫服饰场景的全覆盖。

智能 Push 技术

面对用户不断差异化的购物需求,手淘不断进行了全面升级,打造了个性化的用户购物体验。

依赖端智能的计算能力,我们在业界首次打造了云/端联动的全链路智能化营销投放(Push)平台,全面支持端侧实时场景化决策、用户状态实时感知和商品营销个性化投放。通过人、货、场全方面一体化的智能化链路改造,提升营销内容和通知消息的有用性和及时性,使推送更加懂你所想。

双11当天,端侧实时智能 Push 覆盖了手淘主要用户,通过对用户的实时个性化推送引导,相比去年双11,大促会场的引导打开量提升了105%。通过云端一体化的全链路智能营销架构的技术创新,我们成功的帮助用户在大促中更容易的找到自己心仪的商品,也帮助商家和平台实现了精准化和个性化的营销,实现了用户,商家和平台的三赢。

手淘智能Push平台

✦ 端侧  

建立了全域标准化用户行为中心,使得手淘可以在第一时间感知用户的实时行为,并且在端上直接加工成为标准化的特征。依赖于端侧机器学习推理框架,我们在端上部署了智能意图预测系统,通过情景计算框架可以准确实时感知用户的场景需求和预测各种购买意图,将这些场景需求和购买意图输入到端上的智能决策模块后,由决策模块决定是否向云端发起对用户的消息提醒和触达,实现亿级用户的全域秒级精准触达能力。

✦ 云侧  

用户全生命周期管理平台作为服务端的大脑,主要起两个作用。首先,它会获取用户的各种数据和状态,并且实时下发给端侧,帮助端侧进行智能决策;其次,它还会监听端侧发起的触达请求,结合用户的生命周期状态,来决定触达的方式。策略任务调度平台负责整个消息发送的触发和调度,并且具备实时人群过滤的能力,过滤不必要的消息发送。最后的个性化算法平台,通过整合全链路的场景化信息,结合用户状态进行个性化匹配,判断用户当前应该推荐的最佳内容。

经过多个系统的流转,合适的内容可以在合适的时机推送给合适的用户,通过收集用户的实时反馈,进一步优化后续的消息内容。整体上,我们希望通过从端侧到云侧的全链路平台化架构,能够做到真正的场景化、智能化、个性化的推送体验。

自适应限流技术

2019年阿里巴巴的第11个双11,随着业务的不断发展,应用数量、拓扑依赖与复杂性都在持续增长;流量模型的有效预测会更加困难。系统与流量的不确定性都会导致系统处理容量评估疏漏或评估过时(如明星官宣结婚带来热点流量暴涨),这些情况在双11等大型复杂活动中上会更加突显。

面对上述稳定性问题,诺亚(Noah) 自适应限流系统采用不同于业界传统的针对 QPS 限制的静态限流方法,首次以自动控制算法为核心手段,提供自适应限流方案,解决了限流过时的痛点,大幅提升应用抵抗流量冲击的能力,极度简化了限流配置工作,同时在系统资源利用率、用户体验、运维效率等方面均有大幅优化效果。

诺亚(Noah)

诺亚目前已上线超过9个月,已有大量容器规模部署运行了诺亚。在线上实战和全链路压测中,诺亚保护了大促会场、直播、导购等等核心业务场景;应用在出现容量缺失30%或近20倍大流量脉冲不预期场景下保持稳定运行。

诺亚(Noah)自适应限流的数据效果:

压垮 QPS 上限最高可提升 20 倍于业务负载流量;

在负载压力减少后1秒快速恢复服务,大流量下仅需直接扩容机器一步即可;

对于用户体验的优化,应用在负载情况下,服务成功率最高可提升 2.7 倍,同时响应时间维持正常水平不劣化;

对于成本的优化,资源利用率最高可提升 100%(去除为了稳定性/不确定性而留的资源冗余);

对于应用稳定性运维效率的优化,应用过载时直接扩容即可、使全链路压测更顺畅,无需人工设置,避免人工评估错误导致系统被压垮后需要大量调整时间。

诺亚(Noah)在双11大促过程中,保障大量业务应用系统,提升稳定性、提升资源利用率、优化体验与效率,提升淘系(及更多BU)的稳定性底盘,成为应用稳定性保障的核心能力,推动了业界在大型分布式在线业务系统的高可用/稳定性保障的进展。

自适应限流控制效果:在流量飙升/大流量压力时,CPU稳定控制在阈值,且服务RT正常

诺亚(Noah)的后续发展:

自适应能力由限流拓展到隔离/熔断等更多稳定性能力上。
如自适应线程资源隔离、自适应服务比例、自适应服务熔断等等。

由单机的自适应限流拓展到链路级,尤其是客户端流量入口接入层。
与接入层协同,可以让接入层通过的流量即应用收到流量 与 应用的处理容量 自适应匹配,确定性地保障应用稳定性。

自适应控制处理流量拓展到自适应伸缩容,即流量控制与处理资源控制/伸缩容协同。
无论是流量的控制还是资源的控制,都是为了让处理容量与资源容量匹配,保证系统不过载稳定性与业务请求的成功率。

展开阅读全文
最新文章 热门文章