[关闭]
@hanting003 2016-06-02T18:02:43.000000Z 字数 2690 阅读 732

6月2日京东群访笔记

2016年6月2日下午我参加了京东群访,现场有速记,所以只是简略记了一下,供大家参考。由于时间关系,很多问题京东都没有细讲,尤其是技术相关的,所以后续可以深挖。

京东集团CTO 张晨

1.介绍618的背景

618和双11是京东每年的两场考试;618从6月1日开始一直到6月19日,一共19天。流量准备是平时流量的20倍,秒杀、促销、红包等都是技术挑战。

2.简单说了技术保障

3.强调此次活动都是数据驱动

京东大脑,根据用户画像来筛选商品,定制用户的主页面。年货节时曾做过测试,在京东大脑的支持下,转换率可以提高100%。这可以使得用户感受到商品与自己的距离很近。推荐搜索等功能早已个性化,本次活动依旧。

4.介绍了一些尝试

无人机、无人仓、智能体系的建设。

近日,京东将试飞无人机,努力在618期间通过无人机送500个包裹,主要是在偏远山区实现。路线是从配送站到乡村推广员家中。

5.强调技术体系

技术体系现在已经成为京东的一大块业务。

京东的三大版块:电商、金融、技术(云、大数据、智能平台等)Docker世界领先。

京东现在依靠数据驱动,提高效率,减低成本。京东会拿出经验和大家分享,提供相关服务,包括物流云、开放库存和仓储,厂家只需要注重做好产品即可。

基于大数据,做了移动商店,根据小区用户的习惯,实行未买先送(如iPhone首发时可以达到从下单到收货7分钟完成)。只有准确的预测才能够降低成本。

保证用户数据安全(其实后面也有暴漏廊坊和北京机房离太近,如果有不可抗因素可能会导致用户数据丢失)。

6.今年618和去年最大的不同

移动端所有的活动及PC端大部分活动都是由京东大脑来支持,之前有很多都是依靠人工选择。

7.技术大脑的技术进展

没有详细说,只说转化率一直在提高,没有详细数据。

智能卖场:商倩兰/刘光月/刘寅飞

主要是产品的人讲的,介绍了一些理念,如在用户逛的过程中更快更直接地满足其需求,而不是设置障碍,帮助用户增加辨识能力。在这些理念的基础上设置系统和客户端的功能。

简单说了一下怎样刺激用户购买,如对购物车商品降价。针对不同场景推荐商品。

京东云平台首席架构师:何小锋

1.背景

14年开始建设,容器规模国内最大,今年达15万容器,预计到年底20万。

2.此次618核心:弹性云备战

基于容器建设弹性云,具体分了两层来讲(说太快没记住)。要做到资源压力大时怎样快速伸缩,交互时怎样快速响应,确保对用户请求快速处理。

由于规模越来越大,所以做了拆分,否则效率不高。

有开源+自主研发的调度方案,有面向容器级别的监控体系,可以检测到机器和应用是否有问题,双机房的负载是否均衡,做到快速转移和容灾处理。

3.挑战

今年最大的挑战:100%的用户流量都在弹性云上,去年还有物理机房,现在物理机房已经下线了。国内应该还没有这样的。
其他挑战:快速切换,容灾。

4.未来

未来会面向更大的全局的流量调度,自动预测未来的活动所需要的资源情况,实现自动化运维和精细化管理。现在还有很多需要人工处理的调配,以后会自动化。

未来将私有云向公有云输出,除了弹性云还有缓存云和一些中间件,未来都会输出到公有云上。

多中心:肖飞

1.目的

异地数据中心建设,用户就近访问交易服务,避免跨机房访问。(其实现在两个数据中心很近,一个在廊坊,是主要的数据中心,另外一个在北京。由于太近,所以目前的意义不大,用户也难以直接体会到,今后会在南方建设一个。)

2.发展

多中心是去年618之后开始实施的,双11之前已经实现了面向用户的读流量全部实现多中心,小部分实现写流量多中心。

到今年618,多中心交易的架构范围得到了扩大,写流量也多中心,几乎所有的写流量都实现了多中心架构。

做了一个多中心中间件,京东**什么(没听清)。

流量可视化、故障切换等功能,现在都在一个统一的平台来实施了,做到了标准化和快速实施。

现在做切换,要看系统情况,是人工参与的,是半自动化的操作方式。

移动端:陈保安、刘居上

1.京东移动端团队的发展

10年组建团队开始试水,iOS+Android+塞班都有,都是10人以内的小团队。

(1)发展前期

11年初发布第一版,是跟进PC端完成各种服务,架构也很简单,只有一个sever段,后面直接接DB。可以完成快速变更和部署。

(2)第一次架构升级

背景:12年下半年到13年上半年快速发展期,系统开始变得臃肿,有了瓶颈,团队变大,各种冲突出现。

升级方向:主要是初期服务化的改版。分为垂直和水平两个方向。垂直:做了网关方面的拆分,后端服务转向Java,集中式的缓存也做了切分;水平:促销和频道;导购类服务;交易类;支付类等模块。

(3)第二次架构升级

背景:14年开始,无线的增长陡峭,15年超越PC。此时变为精细化阶段,公司各个层面对移动端错误的容忍度越来越低。在14年底又做了架构升级。
努力:

总得来说发展很快,越来越精细化,不管是业务还是架构都做了很多改变。以前只需要跟PC,现在很多功能都是无线先上,所以需要AB测试和灰度测试。

2.无线段现在的占比

移动端+微信等已达72%

3.此次618中有哪些挑战,做了哪些工作?

减少强依赖,整个购物过程都有各自细致的预案。大促前会进行各种演习。

根据手机端网速,不同网络的切换,在不同网络环境下做优化:2G 保证能用,3G、4G情况下图片质量和WIFI情况下也不同。 链接一次网络成本高,所以尽可能将数据打包好一次发送。

对性能、可用性等都会监控,有监控平台。网关层面有一个可以针对运营商维度等去监控。后端SOA服务有比较快速的调度能力。甚至于系统里面的每个类每个方法的健康度都有体现。

4.每年大促时,都有各种的系统降级预案,在这么密集的降级预案下,如何能够同时保证用户购物体验?

对体验分类:包括主流部分(购物等)和增值部分(个性化服务等)。

在特殊场景下,如0点抢购,降级增值部分,保证主流部分系统稳定性最基本、业务驱动指标(但也不是随便可以降级的)。
会提前拿线上的流量情况来模拟用户场景。

减少用户流量使用,例如打开视频时会给予明确的告知。

5. 个性化的思路

由后端来更多地来承担适配和个性化工作,以此达到系统更加灵活的目的。

添加新批注
在作者公开此批注前,只有你和作者可见。
回复批注