首先这篇文章是出自里脊串的开发笔记
这是代码的github地址
二维码的生成
生成二维码的步骤
1.传入生成二维码的字符串
NSString *text=@"";
//官方建议使用 NSISOLatin1StringEncoding 来编码,但经测试这种编码对中文或表情无法生成,
//改用 NSUTF8StringEncoding 就可以了
NSData *stringData = [text dataUsingEncoding: NSUTF8StringEncoding];
2创建CIFilter
CIFilter. 滤镜类包含一个字典结构,对各种滤镜定义了属于他们各自的属性。滤镜有很多种,比如鲜艳程度滤镜,色彩反转滤镜,剪裁滤镜等等
生成二维码用到了 CIQRCodeGenerator 这种 CIFilter。它有两个字段可以设置,inputMessage 和 inputCorrectionLevel
CIFilter *qrFilter = [CIFilter filterWithName:@"CIQRCodeGenerator"];
设置内容和纠错级别
//inputMessage 是一个 NSData 对象,可以是字符串也可以是一个 URL。
[qrFilter setValue:stringData forKey:@"inputMessage"];
inputCorrectionLevel 是一个单字母(@"L", @"M", @"Q", @"H" 中的一个),表示不同级别的容错率,默认为 @"M"
QR码有容错能力,QR码图形如果有破损,仍然可以被机器读取内容,最高可以到7%~30%面积破损仍可被读取
相对而言,容错率愈高,QR码图形面积愈大。所以一般折衷使用15%容错能力。错误修正容量 L水平 7%的字码可被修正
M水平 15%的字码可被修正
Q水平 25%的字码可被修正
H水平 30%的字码可被修正
所以很多二维码的中间都有头像之类的图片但仍然可以识别出来就是这个原因。
[qrFilter setValue:@"M" forKey:@"inputCorrectionLevel"];
3上色
上色(当然这一步不是必须的 如果仅仅需要白底黑块的QRCode 可以跳过这一步)
UIColor *onColor = [UIColor redColor];
UIColor *offColor = [UIColor blueColor];
CIFilter *colorFilter = [CIFilter filterWithName:@"CIFalseColor"
keysAndValues:
@"inputImage",qrFilter.outputImage,
@"inputColor0",[CIColor colorWithCGColor:onColor.CGColor],
@"inputColor1",[CIColor colorWithCGColor:offColor.CGColor],
nil];
CIImage *qrImage = colorFilter.outputImage;
4绘制(首先你需要看看这个CGContext的基本认识)
CGSize size = CGSizeMake(300, 300);
CGImageRef cgImage = [[CIContext contextWithOptions:nil] createCGImage:qrImage fromRect:qrImage.extent];
//创建一个基于位图的上下文(context),并将其设置为当前上下文(context)。
UIGraphicsBeginImageContext(size);
//设置上下文
CGContextRef context = UIGraphicsGetCurrentContext();
//背景内置颜色质量等级
CGContextSetInterpolationQuality(context, kCGInterpolationNone);
//反转画布,翻转一下图片 不然生成的QRCode就是上下颠倒
CGContextScaleCTM(context, 1.0, -1.0);
//画图片
CGContextDrawImage(context, CGContextGetClipBoundingBox(context), cgImage);
//最后无损放大并绘制QRCode (上面两步生成的QRCode很小 大概是31*31 如果不放大 就会很模糊)
//对图片放大缩小的功能就是慢了点
UIImage *codeImage = UIGraphicsGetImageFromCurrentImageContext();
UIGraphicsEndImageContext();
//需要释放内存,不然会引发内存泄露
CGImageRelease(cgImage);
self.imageView.image = codeImage;
ps:IOS 自带coreImage CIFilter 共有100多种滤镜效果,官方只介绍了一种,找不到中文介绍,下面是其中一部分中文介绍CIFilter的种类
二维码的扫码
扫码是一个从摄像头(input)到 解析出字符串(output) 的过程,用AVCaptureSession 来协调。其中是通过 AVCaptureConnection 来连接各个 input 和 output,还可以用它来控制 input 和 output 的 数据流向
扫码的步骤
1.创建AVCaptureSession实例
AVCaptureSession是第一个要被创建的对象,所有的操作都要基于这一个session。创建它并没有什么特别的方法,使用init方法就可以。
//iOS提供的这一系列的类的功能实在强大,不过我还没有仔细研究过,就我目前已知道的功能,
//比如各种条码,声音录制,视频录制等。今天要说的扫描二维码就是AVCaptureSession中扫描条码的一个小功能
@property (strong, nonatomic) AVCaptureSession *session;
self.session = [[AVCaptureSession alloc]init];
2.添加输入源
输入源对应的类是AVCaptureInput,该类是一个抽象类,不能被直接实例化,在实际使用中,都是使用他的子类,比如AVCaptureDeviceInput,AVCaptureScreenInput(只能用于Mac),AVCaptureMetadataInput,一般情况下,我们是使用AVCaptureDeviceInput,比如从设备的摄像头或者麦克风输入。AVCaptureDeviceInput的实例化方法如下
+ (instancetype)deviceInputWithDevice:(AVCaptureDevice *)device error:(NSError **)outError;
- (instancetype)initWithDevice:(AVCaptureDevice *)device error:(NSError **)outError;
@property (strong, nonatomic) AVCaptureDeviceInput *input;
self.input = [AVCaptureDeviceInput deviceInputWithDevice:self.device error:nil];
所以在创建AVCaptureDeviceInput之前,我们需要创建一个AVCaptureDevice对象
MeditaType定义在AVMediaFormat.h头文件下,如下所示:
AVF_EXPORT NSString *const AVMediaTypeVideo NS_AVAILABLE(10_7, 4_0);
AVF_EXPORT NSString *const AVMediaTypeAudio NS_AVAILABLE(10_7, 4_0);
AVF_EXPORT NSString *const AVMediaTypeText NS_AVAILABLE(10_7, 4_0);
AVF_EXPORT NSString *const AVMediaTypeClosedCaption NS_AVAILABLE(10_7, 4_0);
AVF_EXPORT NSString *const AVMediaTypeSubtitle NS_AVAILABLE(10_7, 4_0);
AVF_EXPORT NSString *const AVMediaTypeTimecode NS_AVAILABLE(10_7, 4_0);
AVF_EXPORT NSString *const AVMediaTypeMetadata NS_AVAILABLE(10_8, 6_0);
AVF_EXPORT NSString *const AVMediaTypeMuxed NS_AVAILABLE(10_7, 4_0);
我们这里只讲明如何扫描二维码,自然输入是从摄像头输入,因此我们只需要传入AVMediaTypeVideo即可。然后再调用AVCaptureSession的addInput方法,将输入源添加到session当中即可
3.添加输出
输入的类是AVCaptureInput,那么输出的类相应的就应该是AVCaptureOutput,输出不需要和设备挂钩,因为一般情况下,我们的输出要么是音频或视频文件,要么是一些其他的数据,像二维码扫描一般是字符串类型。所以创建AVCaptureOutput实例就不需要AVCaptureDevice对象。
AVCaptureOutput也同样是一个抽象类,同样要使用其子类,在这里我们扫描二维码,使用的是AVCaptureMetadataOutput,设置代码如下所示:
@property (strong, nonatomic) AVCaptureMetadataOutput *output;
self.output = [[AVCaptureMetadataOutput alloc]init];
[self.output setMetadataObjectsDelegate:self queue:dispatch_get_main_queue()];
设置代理,当扫描到数据的时候就会调用代理方法。
4.将输入输出添加
[self.session setSessionPreset:([UIScreen mainScreen].bounds.size.height<500)?AVCaptureSessionPreset640x480:AVCaptureSessionPresetHigh];
[self.session addInput:self.input];
[self.session addOutput:self.output];
self.output.metadataObjectTypes=@[AVMetadataObjectTypeQRCode];
只有在框中的二维码才会被扫描到 不过其实改起来也很简单 AVCaptureMetadataOutput有个属性rectOfInterest就是做这个事情的
//取景框的大小
CGSize windowSize = [UIScreen mainScreen].bounds.size;
CGSize scanSize = CGSizeMake(windowSize.width*3/4, windowSize.width*3/4);
CGRect scanRect = CGRectMake((windowSize.width-scanSize.width)/2, (windowSize.height-scanSize.height)/2, scanSize.width, scanSize.height);
scanRect = CGRectMake(scanRect.origin.y/windowSize.height, scanRect.origin.x/windowSize.width, scanRect.size.height/windowSize.height,scanRect.size.width/windowSize.width);
self.output.rectOfInterest = scanRect;
//取景框
self.scanRectView = [UIView new];
[self.view addSubview:self.scanRectView];
self.scanRectView.frame = CGRectMake(0, 0, scanSize.width, scanSize.height);
self.scanRectView.center = CGPointMake(CGRectGetMidX([UIScreen mainScreen].bounds), CGRectGetMidY([UIScreen mainScreen].bounds));
self.scanRectView.layer.borderColor = [UIColor redColor].CGColor;
self.scanRectView.layer.borderWidth = 1;
5.添加预览图层
预览图层的主要功能就是将摄像头采集的数据及时的传输到预览图层,使得用户可以在预览图层实时的看到画面,主要类是AVCapturePreviewLayer,创建起来也非常容易,代码如下所示:
@property (strong, nonatomic) AVCaptureVideoPreviewLayer *preview;
self.preview = [AVCaptureVideoPreviewLayer layerWithSession:self.session]; self.preview.videoGravity = AVLayerVideoGravityResizeAspectFill;
self.preview.frame = [UIScreen mainScreen].bounds;
[self.view.layer insertSublayer:self.preview atIndex:0];
6.开始捕捉
如果这个时候你运行App,通过手机你可以看到其实是没有任何输出的,因为这里还少了一步,即开始捕捉,一切就绪之后用户调用AVCaptureSession的StartRunning方法来启动捕捉session,代码如下:
[self.session startRunning];
由于模拟器没有摄像头,用户必须以真机调试的方式才能看到实际情况。
7.结束捕捉
还记得吗?之前我们在创建输出源的时候设置了一个代理,当扫描到二维码的时候就会调用captureOutput:didOutputMetadataObjects:fromConnection这个代理方法,在这个方法中,我们就可以获取到扫描到的二维码的数据了,代码如下所示:
-(void)captureOutput:(AVCaptureOutput *)captureOutput didOutputMetadataObjects:(NSArray *)metadataObjects fromConnection:(AVCaptureConnection *)connection {
[captureSession stopRunning]; AVMetadataMachineReadableCodeObject* metaData = (AVMetadataMachineReadableCodeObject*)metadataObjects[0];
dispatch_async(dispatch_get_main_queue(), ^{ [[[UIAlertView alloc] initWithTitle:@"二维码内容" message:metaData.stringValue delegate:nil cancelButtonTitle:@"确定" otherButtonTitles: nil] show];
});
return ;}