BT

如何利用碎片时间提升技术认知与能力? 点击获取答案

构建Facebook Live直播流中的挑战

| 作者 Jan Stenberg 关注 34 他的粉丝 ,译者 Rays 关注 3 他的粉丝 发布于 2017年4月1日. 估计阅读时间: 3 分钟 | QCon上海2018 关注大数据平台技术选型、搭建、系统迁移和优化的经验。

Facebook Live直播项目启动于两年前的一次黑客马拉松(hackathon),八个月后就匆匆上线。在近期的QCon伦敦大会上,Facebook视频架构主管Sachin Kulkarni做了演讲并指出,如何处理同一直播流中数量变化无法预测的观看者是Facebook Live的一个挑战。在报告中,Kulkarni还介绍了构建Facebook Live直播流时所面对的架构上和设计上的挑战。

从较高层次上看Facebook Live架构,一旦一个观看者连接到最近的“接入点”(PoP,Point of Presence),就会启动一个Live直播流。PoP连接会被依次提交给数据中心,在数据中心中完成直播流的编码。之后,数据中心会将直播流发送给多个不同的PoP和回放客户端。据Kulkarni介绍,PoP负责视频的缓存、终止观看直播的客户连接,并通过Facebook自建网络将直播流传递给数据中心。自建网络传输更为可靠,并降低了往返时间。

针对在扩展性上的挑战,Kulkarni指出,并发直播流的数量和全部直播流的总计观看者数量都是可预测的,因此并不存在多少挑战性问题。真正的问题在于,单一直播流上的观看者数量不定,从寥寥数人到门庭若市。因为观看者是不可预测的,也就无法对其做出规划。为解决该问题,Facebook采用了缓存和直播流分配这两种方法。

Kulkarni指出了相比于常规视频而言,Live直播流中存在的其它一些挑战:

  • 因为直播内容是实时创建的,所以不可能预先建立缓存,任何形式的预缓存都是不可行的。
  • 对直播事件做预先规划并扩展资源,这一做法是存在问题的。
  • 难以预测由全球热点事件所导致的并发流和观看者的激增问题。

网络问题是直播流可靠性的主要挑战。为解决这些问题,Kulkarni提出了三个建议:

  • 通过使用自适应码率进行调整,降低视频质量以适应较低的带宽,虽然这项技术常用于回放端,但他们也正在将其用于采集端了。
  • 使用客户端的临时缓存处理暂时性连接丢失。
  • 最坏的情况是带宽不够,这时需要将广播和回放转换成只提供音频。Facebook Live认为,能听到要比能看到更重要。

Kulkarni还给出了一些从项目中得到的经验教训:

  • 不积跬步,无以至千里。任何大型服务都是从细微之处开始的。动手去编写代码远胜于无休止地纸上谈兵。
  • 可靠性和可扩展性是设计中必须要考虑的问题。无论运行故障是否有规划,都应做出相应的设计。
  • 为交付大型项目,需要做出妥协。
  • 考虑未来的特性,应保持架构的灵活性,使得团队的演进可以超越架构的变更。

查看英文原文: Challenges Building Facebook Live Streams


感谢冬雨对本文的审校。

给InfoQ中文站投稿或者参与内容翻译工作,请邮件至editors@cn.infoq.com。也欢迎大家通过新浪微博(@InfoQ@丁晓昀),微信(微信号:InfoQChina)关注我们。

评价本文

专业度
风格

您好,朋友!

您需要 注册一个InfoQ账号 或者 才能进行评论。在您完成注册后还需要进行一些设置。

获得来自InfoQ的更多体验。

告诉我们您的想法

允许的HTML标签: a,b,br,blockquote,i,li,pre,u,ul,p

当有人回复此评论时请E-mail通知我
社区评论

允许的HTML标签: a,b,br,blockquote,i,li,pre,u,ul,p

当有人回复此评论时请E-mail通知我

允许的HTML标签: a,b,br,blockquote,i,li,pre,u,ul,p

当有人回复此评论时请E-mail通知我

讨论

登陆InfoQ,与你最关心的话题互动。


找回密码....

Follow

关注你最喜爱的话题和作者

快速浏览网站内你所感兴趣话题的精选内容。

Like

内容自由定制

选择想要阅读的主题和喜爱的作者定制自己的新闻源。

Notifications

获取更新

设置通知机制以获取内容更新对您而言是否重要

BT