Core Image的自动强图片效果,会分析图像的直方图,图像属性,脸部区域,然后通过一组滤镜来改善图片效果。
自动增强滤镜
下面这些滤镜可以修正照片中的大部分问题:
Filter | Purpose |
---|---|
CIRedEyeCorrection | Repairs red/amber/white eye due to camera flash |
CIFaceBalance | Adjusts the color of a face to give pleasing skin tones |
CIVibrance | Increases the saturation of an image without distorting the skin tones |
CIToneCurve | Adjusts image contrast |
CIHighlightShadowAdjust | Adjusts shadow details |
自动增强API仅有2个方法:autoAdjustmentFilters
和 autoAdjustmentFiltersWithOptions
: . 多数情况下,我们使用带参数的方法。
- 图像的方向 :对于CIRedEyeCorrection和CIFaceBalance滤镜,提供图像方向可以使Core Image 更精确的定位到脸的位置。
- 是否应用红眼校正把kCIImageAutoAdjustEnhance设置为false)
- 是否使用红眼校正以外的全部其他滤镜。(把kCIImageAutoAdjustRedEye设置为false)
1.通过autoAdjustmentFilters改善
// MARK: - 自动改善
@IBAction func autoAdjust(sender: AnyObject) {
var inputImage = CIImage(image: originalImage)
let filters = inputImage.autoAdjustmentFilters() as! [CIFilter]
for filter: CIFilter in filters {
filter.setValue(inputImage, forKey: kCIInputImageKey)
inputImage = filter.outputImage
}
let cgImage = context.createCGImage(inputImage, fromRect: inputImage.extent())
self.imageView.image = UIImage(CGImage: cgImage)
}
2.通过autoAdjustmentFiltersWithOptions我们会得到一个包含图像增强的所有的滤镜的数组。依次调用它们处理图像。
// MARK: - 自动改善
@IBAction func autoAdjust(sender: AnyObject) {
var inputImage = CIImage(image: originalImage)
var options:NSDictionary = [CIDetectorImageOrientation:1]
let filters = inputImage.autoAdjustmentFiltersWithOptions(options as [NSObject : AnyObject]) as! [CIFilter]
for filter: CIFilter in filters {
filter.setValue(inputImage, forKey: kCIInputImageKey)
inputImage = filter.outputImage
}
let cgImage = context.createCGImage(inputImage, fromRect: inputImage.extent())
self.imageView.image = UIImage(CGImage: cgImage)
}
上面的代码,图像在自动改善后变形了。
我把UIImageView的contentMode设置为Aspect Fit,就是不希望图片发生变形,而是按等比例缩放,如果把UIImageView的背景色设置为红色的话,在显示原图的时候可以看到上下均有红色,而改善之后的图片就没有红色。由于苹果表示UIImage是完全支持CIImage的,所以文档中并没有指出出现这个问题的原因,我参考了下面这个贴子:
http://stackoverflow.com/questions/15878060/setting-uiimageview-content-mode-after-applying-a-cifilter
负片滤镜
子类化CIFilter
有时可能会对一些图片应用同样的滤镜,我们可能会像上面那样把一连串的滤镜组合起来,以达到自己想要的效果,那么我们就可以把这些操作封装到一个CIFilter的子类中,然后在多个地方反复使用,就像使用Core Image预置的滤镜那样。
CICategoryColorEffect类别中有个CIColorInvert滤镜,这个滤镜提供反色功能,实现起来并不复杂,因为我们并不是做一个真正的自定义滤镜,而是在里面对Core Image已有滤镜的封装,我们可以为子类定义一些输入参数,参照苹果对CIFilter子类的命名约定,输入参数必须用input作前缀,如inputImage,然后再重写outputImage方法就行了。
现在我们回到Xcode中,做以下几件事:
- 新建一个Cocoa Touch Class,类名就叫CIColorInvert,继承自CIFilter。
- 添加一个inputImage参数,类型自然是CIImage,由外界赋值。
- 重写outputImage属性的getter。如果你之前写过Objective-C,应该对属性有这样一个印象:子类要重写父类的属性,只需要单独写个getter或setter方法就行了,但在Swift里,不能通过这种方式重写属性,必须连getter、setter(如果父类的属性支持setter的话)一起重写。在我们的例子中outputImage在CIFilter中只是一个getter属性,
- 在outputImage里通过CIColorMatrix滤镜对图像的各向量进行调整。
CIColorInvert类实现:
class CIColorInvert: CIFilter {
var inputImage: CIImage!
override var outputImage: CIImage! {
get {
return CIFilter(name: "CIColorMatrix", withInputParameters: [
kCIInputImageKey : inputImage,
"inputRVector" : CIVector(x: -1, y: 0, z: 0),
"inputGVector" : CIVector(x: 0, y: -1, z: 0),
"inputBVector" : CIVector(x: 0, y: 0, z: -1),
"inputBiasVector" : CIVector(x: 1, y: 1, z: 1),
]).outputImage
}
}
}
然后在Storyboard的VC上增加一个按钮“反色”,连接到VC的colorInvert方法上,colorInvert方法实现如下:
@IBAction func colorInvert() {
let colorInvertFilter = CIColorInvert()
colorInvertFilter.inputImage = CIImage(image: imageView.image)
let outputImage = colorInvertFilter.outputImage
let cgImage = context.createCGImage(outputImage, fromRect: outputImage.extent())
imageView.image = UIImage(CGImage: cgImage)
}
这样一下,一个对Core Image预置滤镜的简单封装就完成了,每一个滤镜的效果就像是一张配方,CIFilter就是装有配方的瓶子,所以子类化CIFilter并不算自定义滤镜,但是从iOS 8开始,Core Image是支持真正的自定义滤镜的,自定义的滤镜被称之为内核(CIKernel),在WWDC视频里对其有50分钟的介绍:https://developer.apple.com/videos/wwdc/2014/#515。