图:架构实践论坛现场座无虚席
下午13:30,架构实践论坛在前百姓网联合创始人、CTO 潘晓良的主持下连续进行,来自小米网、途牛旅游网、快的打车、58赶集的资深架构师深度分享了各自产品的架构变迁与优化实践履历。
小米网研发部卖力人、架构师 张涛:小米网架构变迁实践
张涛详解小米网架构如何办理秒杀、拦截黄牛、库存等用户硬需问题。第一代小米网快速、大略、能用,包括官网、订单处理、仓储物流、售后等所有系统都共同一个Database,随着系统间调用的增多形成了网状构造,耦合也越来越严重,由此演化成星状构造,到调度层、业务层、数据层的三层构造。

图:小米网研发部卖力人、架构师 张涛
技能和业务膨胀为小米网的架构构建带来了双重寻衅,如何管理才能达到本钱最优效率最高?小米网以“业务纵切,平台横切”采取Go、MCC、Nginx、PHP、LVS开拓。其通用缓存采取Twemproxy+redis构建,速率快(单节点14万QPS)、可扩展(自动分片)、稳定,异步做事支持大量通信、分钟级投递、自定义索引和协议、许可无限堆积。同时,通过虚拟化技能降落本钱,提高打算资源利用率,同时匆匆使业务系统设计更具伸缩性。
途牛旅游网研发总监 高建:途牛网站无线架构的变迁
途牛旅游网研发总监 高建从做事化推进、南北京机房之痛、性能提升实践、App客户端技能演进四个方面详解了途牛网站无线架构的变迁。
图:途牛旅游网研发总监 高建
以价格打算做事为例,四种架构比拟如下:
同步——通过接口进行交互:其他系统通过调用接口关照价格中央发起运算,价格中央通过接口获取其他系统价格依赖的所有资源; 异步——通过MQ交互,价格中央通过依赖数据库获取其他系统的数据,将打算价格变成两段:先算资源本钱价(一个资源多供应商),再算产品最低价; 并发——价库自身的数据(资源的本钱价,产品团期起价)进行分库分表,根据产品的访问频度区分冷热数据的打算频率,三维(产品+团期,行程,资源); 分布式——打算过度依赖数据(检索数据量过大),变成内存数据库,利用Sharding MQ(本地访问,本地打算),Unix域通信(本地通信,提升通信效率)。图:途牛旅游App插件式开拓框架
从最初的主项目包含所有模块,同属一个仓库,代码之间耦合性较高,无公共库的抽象,不利于多个团队协同开拓,到不同插件属于不同团队的独立模块,并终极都集成到主工程中,途牛App客户端经历了插件式开拓的演化,并引入阿里巴巴开源的AndFix框架,办理在线热补丁修复问题。
快的资深架构师 王小雪:快的打车架构实践
快的资深架构师 王小雪详细阐发了快的从2012年上线到今年与滴滴合并前后的架构实践与演化。从V1的作坊式研发、基本功能可用,V2对核心链路进行优化,确保业务主流程正常进行,到V3阶段的体系化架构改造,在业务量快速增长的背景下,快的建立了研发流程、代码规范、故障问责机制,实行严格的Code Review,梳理链路上的单点、性能瓶颈,建立做事降级机制,并进行小规模的迭代重构,对工程架构进行了分布式改造。
图:快的资深架构师 王小雪
以RPC选型为例,在大规模做事化之前,运用可能通过RPC工具大略暴露和引用远程做事,通过配置做事的地址进行调用,然而只是大略的RPC还不足,除了网络通信和数据序列化,大型分布式RPC还应具备做事注册与创造、降级与容量管理、资源管理等其他要素。对此,基于实际运用处景,快的引入了开源的分布式RPC框架——Dubbo,并现场分享了快的利用Dubbo踩过的一些坑:
client->A(timeout:3s),A->B(timeout:3s),A->C(timeout:3s)。B是非关键做事,C是关键做事。B不可用时,A傻等3s终极超时,业务不可用;B变慢,高峰期间A线程耗光,业务不可用。
Provider A供应了关键做事A1,非关键做事A2,高峰时A2耗时高导致线程池满,导致A1不能供应做事。
图:Dubbo架构
Provider内存利用不当导致频繁fullgc,触发了Zookeeper的超时被下线,Provider fullgc完成后又向zk注书籍身,过一会又fullgc。
用zookeeper做注册中央,配置的注册中央地址只写ip和端口,没有配置注册中央协议,导致用默认的Dubbo协议。
调用某做事时涌现该非常,缘故原由是该做事的所有实例都下线了。
配置的log4j不是debug级别,但运用大量涌现debug日志,zookeeper 3.4.3的日志系统是slf4j,运用里还依赖聊logback。StaticLoggerBinder.getSingleton加载了logback配置,默认是debug级别,log4j没有生效。
图:快的实时数据中央架构
同时,快的对数据层进行了改造,以分库分表办理了前台运用的性能问题,以数据同步办理了多库多表归一的问题。但随着韶光的推移,后台单库的问题越来越严重。为此,快的基于HBase和数据同步设计了实时数据中央,支持二级索引,并设计一个SQL解析模块,减少后台运用层的改动。
58赶团体体系统架构师、技能卖力人 孙玄:58同城高性能移动PUSH推送平台架构演进之路
58赶团体体系统架构师、技能卖力人 孙玄以“为什么须要移动PUSH推送”、“单平台、多平台、公司级统一高性能三个阶段架构如何设计优化”等系列问题,开启了《58同城高性能移动PUSH推送平台架构演进之路》的主题分享。移动环境下的弱网络问题、App无法触达让PUSH成为硬需,但iOS的平台分外性不许可Service后台常驻,统一下发APSN(Apple Push Notification Service),而Android平台方案有着开源、自主研发、第三方推送等特性,综合考量下,58同城研发出以基于第三方PUSH推送平台、自主研发高性能Provider相结合的移动PUSH推送方案。
图:58赶团体体系统架构师、技能卖力人 孙玄
在经由单平台、多平台的演进,移动PUSH推送第三阶段架构和协议应如何设计和优化?孙玄以58同城的移动PUSH系统架构为例进行了深度讲解,包含分层架构体系、push entry/transfer、Android/iOS Provider等。
图:58同城移动PUSH系统架构
那么,如何办理移动PUSH推送的性能问题?孙玄以Android Provider并发低为例,其缘故原由是HTTPS线程不屈安,采取每个HTTPS要求加锁,需对线上问题快速临时办理,然后对问题定位剖析,找到终极办理方案,并借助libcurl HTTPS,降落锁粒度。
腾讯SNG增值产品部高等工程师、QQ会员AMS运营平台技能卖力人 徐汉彬:QQ会员活动运营平台的架构设计演化
徐汉彬表示,活动运营存在上线周期短、个性化强、功能需求繁芜、后端接口浩瀚等特色,通过对不同业务活动模式的剖析和抽象,绝大部分活动都可以逐一组条件和动作的办法进行抽象和封装,进而形成通用的条件和动作活动组件,其余更主要的是通过平台化和框架驱动开拓的办法,为通用活动组件的运行供应了高可靠、高性能,具备过载保护和水平扩展能力的框架支撑环境,活动组件只须要封装自身业务逻辑,核心功能框架自动支持,从而实现了高可靠高可用活动开拓的彻底自动化。
图:腾讯SNG增值产品部高等工程师、QQ会员AMS运营平台技能卖力人 徐汉彬
但是,这是一个俏丽的愿景,而实现这个目标便是最大的寻衅。在此之下,AMS须要办理的问题便是高效活动开拓模式、高可靠性和高可用性、担保活动运营业务的安全。AMS平台做事架构对外部供应不同维度的做事入口,TGW、手Q的SSO、内网通信等,AMS集群仍旧属于同一入口。但做了物理隔离的集群支配,减少集群之间的相互影响。
更多精彩内容,请关注新浪微博:@CSDN、图文直播专题:2015中国软件开拓者大会。