音视频同步主时钟枚举值:
enum {
AV_SYNC_AUDIO_MASTER, /* default choice 声音为准*/
AV_SYNC_VIDEO_MASTER, /*视频为准*/
AV_SYNC_EXTERNAL_CLOCK, /* synchronize to an external clock */
};
默认是以音乐的时间为主时钟,如果要以视频参考时钟为主,此时需要修改两个地方
位置一:
static int av_sync_type = AV_SYNC_VIDEO_MASTER;
位置二:
在函数ffp_reset_internal()中,修改av_sync_type属性。
ffp->av_sync_type =AV_SYNC_VIDEO_MASTER;
流程分析:
stream_open 方法中,会对 Frame_Queue、Packet_Queue 和 Clock 以及线程进行初始化, 然后启动read_thread 线程;
read_thread 线程会通过 stream_component_open 方法找到对应的解码器,启动解码线程(decoder_start)。
read_thread 中读取文件,将读出来的 AVPacket 根据不同的通道,压入对应的 Packet_Queue
else if (pkt->stream_index == is->video_stream
&& pkt_in_play_range
&& !(is->video_st
&& (is->video_st->disposition & AV_DISPOSITION_ATTACHED_PIC)){
packet_queue_put(&is->videoq, pkt);
}
stream_component_open 方法ffplay_video_thread启动的视频解码线程中执行的方法
下面是音视频同步的处理了,在音频播放的方法里,每播放一帧都会得到这一帧的播放时间,将其保存在 Video_State 这个结构体的 audio_clock 中,而音视频同步的计算是利用到此结构体,具体执行在 audio_decode_frame 方法中。
static int audio_decode_frame(FFPlayer *ffp) {
...
if (!(af = frame_queue_peek_readable(&is->sampq)))
return -1;
...
/* update the audio clock with the pts */
if (!isnan(af->pts))
is->audio_clock = af->pts + (double) af->frame->nb_samples / af->frame->sample_rate;
else
is->audio_clock = NAN;
}
然后在外部的方法将得到的 audio_clock 通过一系列处理,保存到 Clock 结构体里面,其中 set_clock_at 的第二个参数最后得到的结果是当前帧播放的秒数。
static void sdl_audio_callback(void *opaque, Uint8 *stream, int len) {
audio_size = audio_decode_frame(ffp);
if (!isnan(is->audio_clock)) {
set_clock_at(&is->audclk,
is->audio_clock - (double)(is->audio_write_buf_size) / is->audio_tgt.bytes_per_sec - SDL_AoutGetLatencySeconds(ffp->aout),
is->audio_clock_serial,
ffp->audio_callback_time / 1000000.0);
sync_clock_to_slave(&is->extclk, &is->audclk);
}
}
最后,就到了视频的渲染了,视频渲染的线程是 video_refresh_thread, remaining_time 是视频渲染线程需要sleep的时间也就是同步时间,单位是us。通过 video_refresh 方法计算出来。
if(time < is->frame_timer+ delay) {
*remaining_time =FFMIN(is->frame_timer+ delay - time, *remaining_time);
goto display;
}