Categories
程式開發

优酷直播消息平台建设和双11猫晚高可用实践


消息平台在直播场景中承载着播控业务(开停播、智能档)、互动业务(聊天、打赏、红包雨),并广泛应用于直播内容对齐场景,是直播内容生产和消费的重要一环。

但是在大规模在线直播场景下,随着在线用户规模攀升,传统 “ 推模型 ” 会导致消息成本居高不下。而为了降成本所采用的时间换空间的合包、分批下行策略,又难以保证消息的下发性能。如何让成本与效率兼得? 本文整理自阿里文娱技术专家赵光男在InfoQ技术公开课的分享,主要以双11猫晚直播为例,详解在百万级直播场景下,优酷如何利用 “ 拉模型 ” 保证消息平台的低成本、高性能、高可用。

本次分享主要围绕以下五部分展开:

  1. 超级直播场景下消息平台的挑战
  2. 整体介绍优酷消息平台,包括平台能力和端到端的架构
  3. 重点介绍消息推拉链路实践,包括推模式设备分桶、链路去中心化、合包分批
  4. 针对超级直播,拉模式如何兼顾性能和成本
  5. 个人的技术思考

大家都知道,每年的双11和猫晚,对阿里技术同学来说都是一次大练兵,不仅要扛住瞬时的高并发,还要高清不卡顿,更要让观众边看边 买 ,秒开秒买。这其中直播消息起到至关重要的作用,比如主持人在台上说,倒计时5秒抢红包雨,消息下发就要实现线上线下 数 千万人的秒级一致。如果早1秒,红包雨还没开始,如果晚1秒,红包雨就快结束了 。

原文链接:【https://www.infoq.cn/article/W3daGhrhLVkG3KUgGJ9I】。未经作者许可,禁止转载。