直播技术概况来说,可以分为 采集,前处理,编码,传输,解码,渲染 这几个环节
分步解析
音视频采集
- 音视频的采集是直播架构的第一个环节,也是直播的视频来源
- 采集的来源包括:
- PC端:屏幕摄像头(摄像头驱动适配)
- iOS端:摄像头采集(屏幕采集?)
- Android端:屏幕摄像头采集(硬件过多,适配一堆坑)
前处理
- 使用美颜相机&美图秀秀已经是网络发照片&发视频必备技能了
- 对视频进行美颜,已成标配
- 处理主要包括,美颜、模糊效果、水印等
- 各个平台处理方式
- PC端:美颜镜头、一些美颜软件
- iOS端:图像处理库是GPUImage,提供了丰富的预处理效果, 也可利用该库自定义设计
- Android端:Google开源的grafika,是一个非常强大的图形处理库
编码
- 不经编码的视频非常庞大,存储起来都麻烦,更何况网络传输
- 编码通过压缩音视频数据来减少数据体积,方便音视频数据的推流,拉流和存储,能大大提高存储传输效率
- 音视频必须经过压缩编码才能进行存储和传输
- 编码方式:
- 硬编码:使用非CPU进行编码,如显卡GPU、专用的DSP芯片等
- 软编码:使用CPU进行编码(手机容易发热)
- 各个平台处理:
- iOS端:硬件兼容性较好,可以直接进行硬编码
- Android端:硬编码较难,难找到统一的库兼容各个平台(推荐使用软编)
- 编码标准:
- 视频编码:H.265、H.264、VP8、VP9等
- 音频编码:AAC、Opus
传输
- 从推流端到服务端
- 数据经过推流端采集和预处理,编码之后推流到服务端
- 流传输就涉及到相应的传输协议,最常用的协议是RTMP、RTSP、HLS
搭建nginx+rtmp服务器进行推流演示
流分发
- 音频流推到服务器后,为了适配各个平台端各种不同协议,需要在服务端做一些流处理工作,比如转码成不同格式支持不同协议如 RTMP、HLS 和 FLV,以适应各个平台
- 比如:iOS、Android、PC、网页
- 甚至,为了配合一些运营需求,比如一些监管部门的要求,我们在服务端也提供了内容识别如鉴黄的功能
播放
- 拉流获取音视频数据后,需要通过解码器解码,渲染才能在播放器上播放
- 总体步骤概览:
- 解协议:取出网络传输过程中一些无用信息
- 解封装:获取到的是音频&视频放在一起的封装文件
- 音视频解码:音视频都是经过压缩编码的内容,解码后才能进行播放
- 音视频同步:视频&音频文件需要通过播放
- 音视频播放:声卡&显卡等对音视频进行播放