到达率99.9%:闲鱼消息在高速上换引擎(集大成)
背景
在2020年年初的时候接手了闲鱼的消息,当时的消息存在一些反馈:“闲鱼消息丢失”、“消息用户头像乱了”、“订单状态不对”。闲鱼消息的稳定性是个亟待解决的问题,我们调研了集团的一些解决方案,例如钉钉的IMPass。直接迁移的成本和风险都是比较大,包括服务端数据需要双写、新老版本兼容等。
那基于闲鱼现有的消息架构和体系,如何来保证它的稳定性?治理应该从哪里开始?现在闲鱼的稳定性是什么样的?如何衡量稳定性?希望这篇文章,能让大家看到一个不一样的闲鱼消息。
行业方案
消息的投递链路大致分为三步:发送者发送,服务端接收然后落库,服务端通知接收端。特别是移动端的网络环境比较复杂,可能你发着消息,网络突然断掉了;可能消息正在发送中,网络突然好了,需要重发。
在如此复杂的网络环境下,是如何稳定可靠的进行消息投递的?对发送者来说,它不知道消息是否有送达,要想做到确定送达,就需要加一个响应机制,类似下面的响应逻辑:
发送者发送了一条消息“Hello”,进入等待状态。
接收者收到这条消息“Hello”,然后告诉发送者说我已经收到这条消息了的确认信息。
发送者接收到确认信息后,这个流程就算完成了,否则会重试。
上面流程看似简单,关键是中间有个服务端转发过程,问题就在于谁来回这个确认信息,什么时候回这个确认信息。网上查到比较多的是如下一个必达模型,如下图所示:
[发送流程]
A向IM-server发送一个消息请求包,即msg:R1
IM-server在成功处理后,回复A一个消息响应包,即msg:A1
如果此时B在线,则IM-server主动向B发送一个消息通知包,即msg:N1(当然,如果B不在线,则消息会存储离线)
[接收流程]
B向IM-server发送一个ack请求包,即ack:R2
IM-server在成功处理后,回复B一个ack响应包,即ack:A2
则IM-server主动向A发送一个ack通知包,即ack:N2
一个可信的消息送达系统就是靠的6条报文来保证的,有这个投递模型来决定消息的必达,中间任何一个环节出错,都可以基于这个request-ack机制来判定是否出错并重试。看下在第4.2章中,也是参考了上面这个模型,客户端发送的逻辑是直接基于http的所以暂时不用做重试,主要是在服务端往客户端推送的时候,会加上重试的逻辑。
闲鱼消息的问题
刚接手闲鱼消息,没有稳定相关的数据,所以第一步还是要对闲鱼消息做一个系统的排查,首先对消息做了全链路埋点。
基于消息的整个链路,我们梳理出来了几个关键的指标:发送成功率、消息到达率、客户端落库率。整个数据的统计都是基于埋点来做的。在埋点的过程中,发现了一个很大的问题:闲鱼的消息没有一个全局唯一的ID,导致在全链路埋点的过程中,无法唯一确定这条消息的生命周期。
消息唯一性问题
之前闲鱼的消息是通过3个变量来唯一确定一个消息
•SessionID: 当前会话的ID
•SeqID:用户当前本地发送的消息序号,服务端是不关心此数据,完全是透传
•Version:这个比较重要,是消息在当前会话中的序号,以服务端为准,但是客户端也会生成一个假的version
以上图为例,当A和B同时发送消息的时候,都会在本地生成如上几个关键信息,当A发送的消息(黄色)首先到达服务端,因为前面没有其他version的消息,所以会将原数据返回给A,客户端A接收到消息的时候,再跟本地的消息做合并,只会保留一条消息。同时服务端也会将此消息发送给B,因为B本地也有一个version=1的消息,所以服务端过来的消息就会被过滤掉,这就出现消息丢失的问题。
当B发送消息到达服务端后,因为已经有version=1的消息,所以服务端会将B的消息version递增,此时消息的version=2。这条消息发送给A,和本地消息可以正常合并。但是当此消息返回给B的时候,和本地的消息合并,会出现2条一样的消息,出现消息重复,这也是为什么闲鱼之前总是出现消息丢失和消息重复最主要的原因。
消息推送逻辑问题
之前闲鱼的消息的推送逻辑也存在很大的问题,发送端使用http请求,发送消息内容,基本不会出问题,问题是出现在服务端给另外一端推送的时候。如下图所示,
服务端在给客户端推送的时候,会先判断此时客户端是否在线,如果在线才会推送,如果不在线就会推离线消息。这个做法就非常的简单粗暴。长连接的状态如果不稳定,导致客户端真实状态和服务端的存储状态不一致,就导致消息不会推送到端上。
客户端逻辑问题
除了以上跟服务端有关系外,还有一类问题是客户端本身设计的问题,可以归结为以下几种情况:
多线程问题 反馈消息列表页面会出现布局错乱,本地数据还没有完全初始化好,就开始渲染界面
未读数和小红点的计数不准确 本地的显示数据和数据库存储的不一致。
消息合并问题 本地在合并消息的时候,是分段合并的,不能保证消息的连续性和唯一性。
诸如以上的几种情况,我们首先是对客户端的代码做了梳理与重构,架构如下图所示:
我们的解法 - 引擎升级
进行治理的第一步就是,解决闲鱼消息的唯一性的问题。我们也调研了钉钉的方案,钉钉是服务端全局维护消息的唯一ID,考虑到闲鱼消息的历史包袱,我们这边采用UUID作为消息的唯一ID,这样就可以在消息链路埋点以及去重上得到很大的改善。
消息唯一性
在新版本的APP上面,客户端会生成一个uuid,对于老版本无法生成的情况,服务端也会补充上相关信息。
消息的ID类似a1a3ffa118834033ac7a8b8353b7c6d9
,客户端在接收到消息后,会先根据MessageID来去重,然后基于Timestamp排序就可以了,虽然客户端的时间可能不一样,但是重复的概率还是比较小。
- (void)combileMessages:(NSArray<PMessage*>*)messages {
...
// 1. 根据消息MessageId进行去重
NSMutableDictionary *messageMaps = [self containerMessageMap];
for (PMessage *message in msgs) {
[messageMaps setObject:message forKey:message.messageId];
}
// 2. 消息合并后排序
NSMutableArray *tempMsgs = [NSMutableArray array];
[tempMsgs addObjectsFromArray:messageMaps.allValues];
[tempMsgs sortUsingComparator:^NSComparisonResult(PMessage * _Nonnull obj1, PMessage * _Nonnull obj2) {
// 根据消息的timestamp进行排序
return obj1.timestamp > obj2.timestamp;
}];
...
}
重发重连
客户端会定时检测ACCS长连接是否联通
服务端会检测设备是否在线,如果在线会推送消息,并会有超时等待
客户端接收到消息之后,会返回一个Ack
数据同步
客户端模型
服务端存储模型
我们的解法 - 质量监控
全链路排查
对账系统
核心数据指标
未来规划
[参考资料]
PICK ME
闲鱼是阿里巴巴旗下品牌,是中国最大的闲置交易平台,于2014年成立至今,是继淘宝、天猫之后,阿里巴巴正在催生的第三个万亿级平台。
闲鱼技术部不断在驱动业务变革,通过创新追寻更多价值。从出版书籍、峰会发声,到开源专利、海外传播。闲不住,上闲鱼——技术团队对极致的探索与深耕是我们的底气。
立即加入
1、招项目经理PMO/客户端/服务端/前端/数据+算法/质量工程师
2、发简历给guicai.gxy@alibaba-inc.com
3、您还可以在头条、知乎、掘金、facebook、twitter找到我们