1.AVPlayer
- AVPlayer是一个用来播放基于时间的视听媒体的控制器对象,支持播放从本地,分布下载或通过HTTP Live Streaming协议得到的流媒体.AVPlayer是一个不可见组件,要将视频资源导出到用户界面目标位置,需要用到AVPlayerLayer类.
- AVPlayer只管理一个单独资源的播放,AVQueuePlayer是AVPlayer的子类,可以管理一个资源队列.
- AVPlayer时间监听
//定期监听
//interval:一个用于指定通知周期间隔的CMTime值
//queue:通知发送的顺序调度队列,默认主队列.
//block:一个在指定的时间间隔中将会在队列上调用的回调块.这个块传递一个CMTime值用于指示播放器的当前时间.
-(id)addPeriodicTimeObserverForInterval:(CMTime)interval queue:(nullable dispatch_queue_t)queue usingBlock:(void (^)(CMTime time))block;
//边界时间监听
//times:CMTime值组成的一个NSArray数组定义了需要通知的边界点.
//queue:通知发送的顺序调度队列,指定null为主队列
//block:每当正常播放中跨越一个边界点时就会在队列中调用这个回调块.
-(id)addBoundaryTimeObserverForTimes:(NSArray<NSValue *> *)times queue:(nullable dispatch_queue_t)queue usingBlock:(void (^)(void))block;
- AVPlayer一些方法和属性
//是否允许启用Airplay功能,默认YES
@property (nonatomic) BOOL allowsExternalPlayback
//跳到什么时间播放
-(void)seekToTime:(CMTime)time;
//rate ==1.0,表示正在播放;rate == 0.0,暂停;rate == -1.0,播放失败
@property (nonatomic) float rate;
//播放
-(void)play;
//暂停
-(void)pause;
2.AVPlayerLayer
AVPlayerLayer是一个相对简单的类.创建AVPlayerLayer需要一个指向AVPlayer实例的指针,这就将图层和播放器绑定在一起,保证了当播放器基于时间的方法出现时使二者保持同步.
//videoGravity有三种值可选;
//1.AVLayerVideoGravityResizeAspect:保持视频的原始宽高比,
//2.AVLayerVideoGravityResizeAspectFill:通过缩放填满层的范围区域,通常会导致视频图片被部分裁剪
//3.AVLayerVideoGravityResize:将视频内容拉伸来匹配承载层的范围,会导致视频图片扭曲
@property(copy) NSString *videoGravity;
3.AVPlayerItem
- AVAsset模型只包含媒体资源的静态属性,这些不变的静态属性用来描述对象的静态状态.这意味着使用AVAsset对象是无法实现播放功能的.
- AVPlayerItem会建立媒体资源动态视角的数据模型并保存AVPlayer在播放资源时呈现状态.
- AVPlayerItem由一个或多个媒体曲目组成,由AVPlayerItemTrack类建立模型.
- AVPlayerItemTrack实例用于表示播放器条目中的类型统一的媒体流,比如音频或视频.
- AVPlayerItem中的曲目直接与基础AVAsset中的AVAssetTrack实例相对应.
- AVPlayerItem 播放完成时,会发送一个AVPlayerItemDidPlayToEndTimeNotification通知,可以监听此通知做些相应的处理.
//表示一个可能不是连续的一个可用的或已经下载的时间范围数组
@property (nonatomic, readonly) NSArray<NSValue *> *loadedTimeRanges;
//该状态表示当前媒体是否在播放队列中
@property (nonatomic, readonly) AVPlayerItemStatus status;
//创建AVPlayerItem实例时,自动载入资源的属性
+(AVPlayerItem *)playerItemWithAsset:(AVAsset *)asset automaticallyLoadedAssetKeys:(nullable NSArray<NSString *> *)automaticallyLoadedAssetKeys
//优化用户快进的时候程序性能的,如果前一个搜索请求没有完成,则避免出现搜索操作堆积情况的出现.
-(void)cancelPendingSeeks
-AVPlayerItem的status的AVPlayerItemStatus类型的属性,在对象创建之初,播放条目由AVPlayerItemStatusUnKnown状态开始,该状态表示当前媒体资源还未载入并且还不在播放队列中.将AVPlayerItem与AVPlayer对象进行关联就开始将媒体放入队列中,但是在具体内容可以播放前,需要等待对象的状态由AVPlayerItemStatusUnKnown变为AVPlayerItemStatusReadyToPlay.通常使用KVO机制来监视status属性的值的变化.
- 注意:在AVPlayerItem与AVPlayer对象进行关联之前就要给status属性设置观察者.
- 代码
static const NSString *PlayerItemStatusContext;
-(void)prepareToPlay {
NSArray *keys = @[
@"tracks",
@"duration",
@"commonMetadata",
@"availableMediaCharacteristicsWithMediaSelectionOptions"
];
self.playerItem = [AVPlayerItem playerItemWithAsset:self.asset
automaticallyLoadedAssetKeys:keys];
[self.playerItem addObserver:self
forKeyPath:@"status"
options:0
context:&PlayerItemStatusContext];
self.player = [AVPlayer playerWithPlayerItem:self.playerItem];
}
-(void)observeValueForKeyPath:(NSString *)keyPath
ofObject:(id)object
change:(NSDictionary *)change
context:(void *)context {
if (context == &PlayerItemStatusContext) {
dispatch_async(dispatch_get_main_queue(), ^{
[self.playerItem removeObserver:self forKeyPath:@"status"];
if (self.playerItem.status == AVPlayerItemStatusReadyToPlay) {
NSLog(@"%@",@"载入成功,可以播放”);
} else {
NSLog(@"%@",@"Failed to load video”);
}
});
}
}
4.CMTime
- CMTime为时间的正确表示给出了一种结构,即分数值得方式;
-如下
typedef struct
{
CMTimeValue value;
CMTimeScale timescale;
CMTimeFlags flags;
CMTimeEpoch epoch;
} CMTime;
这个结构最关键的两个值是value和timescale.value是一个64位整数值,timescale是一个32位整数值,在时间呈现样式中分别作为分子和分母.
//0.5秒
CMTime halfsecond=CMTimeMake(1, 2);
//5秒
CMTime fivesecond=CMTimeMake(5, 1);
5.AVAssetImageGenerator创建视频的时间缩略图
- AVAssetImageGenerator 用来从一个AVAsset视频曲目中提取图片.
- AVAssetImageGenerator从视频资源中检索图片的方法:
//配置生成图片的尺寸
@property (nonatomic) CGSize maximumSize;
//允许在指定时间点捕捉图片.如果捕捉一张图片,此方法最合适.
-(nullable CGImageRef)copyCGImageAtTime:(CMTime)requestedTime actualTime:(nullable CMTime *)actualTime error:(NSError * __nullable * __nullable)outError
//允许按照第一个参数所指定的时间段生成一个图片序列.handler块会执行(第一个参数的个数)次
//handler块中的参数
//requestedTime:请求的最初时间
//imageRef:生成的CGImageRef
//actualTime:图片实际生成的时间.
//result:AVAssetImageGeneratorResult用来表示图片是否生成成功,表状态.
-(void)generateCGImagesAsynchronouslyForTimes:(NSArray<NSValue *> *)requestedTimes completionHandler:(AVAssetImageGeneratorCompletionHandler)handler;
6.Airplay
- Airplay 用无线的方式将流媒体音频和视频内容在Apple TV等上播放.
- AVPlayer 有一个属性allowsExternalPlayback,允许启用或禁用Airplay功能,默认YES,启用.
- Media Player框架中的MPVolumeView类来实现Airplay功能.
UIImage *airplayImage = [UIImage imageNamed:@"airplay"];
MPVolumeView *volumeView = [[MPVolumeView alloc] initWithFrame:CGRectZero];
//隐藏音量条
volumeView.showsVolumeSlider = NO;
volumeView.showsRouteButton = YES;
[volumeView setRouteButtonImage:airplayImage forState:UIControlStateNormal];
[volumeView sizeToFit];
[self.view addsubview: volumeView];