二、使用Core ML加载.mlmodel模型文件

本文将介绍如何在具体的iOS项目中使用 Core ML模型。

主要步骤

一、准备一个Core ML模型

Core ML模型文件一般以.mlmodel作为后缀,我们可以通过很多途径获得一个已经训练好的模型,最直接的方式,就是从苹果官网上直接下载。

点开链接,我们选择MobileNet下载,获得一个MobileNet.mlmodel文件。

我们可以看一下MobileNet的介绍:

MobileNets are based on a streamlined architecture that have depth-wise separable convolutions to build lightweight, deep neural networks. Detects the dominant objects present in an image from a set of 1000 categories such as trees, animals, food, vehicles, people, and more.

这是一个图片分类的模型,可以识别像树木、动物、食物、车辆、人物等。由此可见,我们需要事先准备一些包含这些物体的场景或者图片。

二、准备一个iOS项目

在开始之前,我们需要准备一个iOS项目,来获取图片,加载模型,最终完成图片分类。作为一个iOS工程师,这部分将不再赘述,你可以直接从我的GitHub获取一个已经构建好的项目:

git clone git@github.com:yangchenlarkin/CoreML.git

项目的首页是一个UITableViewController,点击第一个“物体识别”,即可进入到我们的Demo页面ORViewController,代码位于ObjectRecognition文件加下。
ORViewController可以通过后置摄像头的拍摄来获取图片。

查看ORViewController最后的TODO部分,这里就是我们处理图片的代码了:

#pragma mark - predict

- (void)predict:(UIImage *)image {
    //TODO
}

三、导入.mlmodel模型文件

我们将第一步获得的MobileNet.mlmodel文件,拖拽到项目中,勾选Copy items if needed。在项目中选中MobileNet.mlmodel,让我们来看一下这个模型。


MobileNet.mlmodel

可以看到该文件包含三个部分:

  • 模型描述;
  • 模型类MobileNet;
    Xcode帮我们创建了一个叫MobileNet的类,我们点击旁边的箭头可以查看它的头文件,我们也可以在代码中直接引用、使用这个类。
  • 模型参数;
    这里主要包含了模型输入和输出的描述,在MobileNet中,入参是一个224x224的图片,出参有两个,classLabelProbs一个字典,key是分类名,value是入参图片命中该分类的概率,classLabel是入参图片最有可能(概率值最大)的分类名。

从文件中可以看到,我们需要将图片转化成224x224的尺寸大小(如果你有一定的机器学习基础,就可以理解这里图片大小固定的原因)。而模型会告诉我们这张图片最有可能包含哪一样物体。

四、查看MobileNet类

在写代码之前,我们来看一下MobileNet类。

点击MobileNet.mlmodel文件中MobileNet旁边的箭头,我们可以查看该类的头文件。暂时无视掉其他代码,我们关注一下这个方法:

/**
    Make a prediction using the convenience interface
    @param image Input image to be classified as color (kCVPixelFormatType_32ARGB) image buffer, 224 pixels wide by 224 pixels high:
    @param error If an error occurs, upon return contains an NSError object that describes the problem. If you are not interested in possible errors, pass in NULL.
    @return the prediction as MobileNetOutput
*/
- (nullable MobileNetOutput *)predictionFromImage:(CVPixelBufferRef)image  error:(NSError * _Nullable * _Nullable)error;

  • 入参:
    从方法声明和注释中,我们发现,我们的输入图片需要是CVPixelBufferRef 类型的,格式需要是kCVPixelFormatType_32ARGB格式的。

  • 返回值:
    该函数返回了一个MobileNetOutput类对象。我们跟进此类中去(其实也在这个文件里)。我们发现,他包含两个属性:

/// Probability of each category as dictionary of strings to doubles
@property (readwrite, nonatomic, strong) NSDictionary<NSString *, NSNumber *> * classLabelProbs;

/// Most likely image category as string value
@property (readwrite, nonatomic, strong) NSString * classLabel;

这两个属性正好对应了MobileNet.mlmodel中的两个输出。

至此,我们脑海中大概有了一个使用模型的流程了:

1.将UIImage转化成CVPixelBufferRef,图片格式是kCVPixelFormatType_32ARGB,图片尺寸是224x224
2.创建模型对象,调用预测方法,获得MobileNetOutput
3.从MobileNetOutputclassLabel属性,就是我们需要的分类名
4.如果业务需要,我们也可以从classLabelProbs属性中,获得所有分类及其概率。

五、添加代码,实现图片分类

1.图片缩放

首先我们需要对图片做居中剪裁和缩放,将图片的中间的正方形部分,缩放到224x224大小。

我们定义一个缩放方法:


#pragma mark - predict

- (UIImage *)scaleImage:(UIImage *)image size:(CGFloat)size {
    UIGraphicsBeginImageContextWithOptions(CGSizeMake(size, size), YES, 1);
    
    CGFloat x, y, w, h;
    CGFloat imageW = image.size.width;
    CGFloat imageH = image.size.height;
    if (imageW > imageH) {
        w = imageW / imageH * size;
        h = size;
        x = (size - w) / 2;
        y = 0;
    } else {
        h = imageH / imageW * size;
        w = size;
        y = (size - h) / 2;
        x = 0;
    }
    
    [image drawInRect:CGRectMake(x, y, w, h)];
    UIImage * scaledImage = UIGraphicsGetImageFromCurrentImageContext();
    UIGraphicsEndImageContext();
    return scaledImage;
}

然后调用他:


#pragma mark - predict

- (UIImage *)scaleImage:(UIImage *)image size:(CGFloat)size {
//...
}

- (void)predict:(UIImage *)image {
    UIImage *scaledImage = [self scaleImage:image size:224];
    //TODO
}

2.格式转换
直接上代码吧:


#pragma mark - predict

- (UIImage *)scaleImage:(UIImage *)image size:(CGFloat)size {
//...
}

- (CVPixelBufferRef)pixelBufferFromCGImage:(CGImageRef)image {
    NSDictionary *options = @{
                              (NSString *)kCVPixelBufferCGImageCompatibilityKey : @YES,
                              (NSString *)kCVPixelBufferCGBitmapContextCompatibilityKey : @YES,
                              (NSString *)kCVPixelBufferIOSurfacePropertiesKey: [NSDictionary dictionary]
                              };
    CVPixelBufferRef pxbuffer = NULL;
    
    CGFloat frameWidth = CGImageGetWidth(image);
    CGFloat frameHeight = CGImageGetHeight(image);
    
    CVReturn status = CVPixelBufferCreate(kCFAllocatorDefault,
                                          frameWidth,
                                          frameHeight,
                                          kCVPixelFormatType_32ARGB,
                                          (__bridge CFDictionaryRef) options,
                                          &pxbuffer);
    
    NSParameterAssert(status == kCVReturnSuccess && pxbuffer != NULL);
    
    CVPixelBufferLockBaseAddress(pxbuffer, 0);
    void *pxdata = CVPixelBufferGetBaseAddress(pxbuffer);
    NSParameterAssert(pxdata != NULL);
    
    CGColorSpaceRef rgbColorSpace = CGColorSpaceCreateDeviceRGB();
    
    CGContextRef context = CGBitmapContextCreate(pxdata,
                                                 frameWidth,
                                                 frameHeight,
                                                 8,
                                                 CVPixelBufferGetBytesPerRow(pxbuffer),
                                                 rgbColorSpace,
                                                 (CGBitmapInfo)kCGImageAlphaNoneSkipFirst);
    NSParameterAssert(context);
    CGContextConcatCTM(context, CGAffineTransformIdentity);
    CGContextDrawImage(context, CGRectMake(0,
                                           0,
                                           frameWidth,
                                           frameHeight),
                       image);
    CGColorSpaceRelease(rgbColorSpace);
    CGContextRelease(context);
    
    CVPixelBufferUnlockBaseAddress(pxbuffer, 0);
    
    return pxbuffer;
}

- (void)predict:(UIImage *)image {
    UIImage *scaledImage = [self scaleImage:image size:224];
    CVPixelBufferRef buffer = [self pixelBufferFromCGImage:scaledImage.CGImage];
    //TODO
}

3.预测

我们需要生成MobileNet类对象,需要在文件开始处引入MobileNet.h

#import "MobileNet.h"

然后添加代码:


#pragma mark - predict

- (UIImage *)scaleImage:(UIImage *)image size:(CGFloat)size {
//...
}

- (CVPixelBufferRef)pixelBufferFromCGImage:(CGImageRef)image {
//...
}


- (void)predict:(UIImage *)image {
    UIImage *scaledImage = [self scaleImage:image size:224];
    CVPixelBufferRef buffer = [self pixelBufferFromCGImage:scaledImage.CGImage];
    
    NSError *error = nil;
    
    MobileNet *model = [[MobileNet alloc] init];//模型的创建和初始化,可以放在self属性中懒加载,这样不用每次重新创建
    MobileNetOutput *output = [model predictionFromImage:buffer error:&error];
    if (error) {
        NSLog(@"%@", error);
        return;
    }
    
    //TODO
}

4.显示预测

在ORViewController中有一个属性:

@property (nonatomic, copy) NSArray <NSArray <NSString *> *> *array;

我们可以通过设置这个数组来控制一个tableview的显示:


#pragma mark - predict

- (UIImage *)scaleImage:(UIImage *)image size:(CGFloat)size {
//...
}

- (CVPixelBufferRef)pixelBufferFromCGImage:(CGImageRef)image {
//...
}


- (void)predict:(UIImage *)image {
    UIImage *scaledImage = [self scaleImage:image size:224];
    CVPixelBufferRef buffer = [self pixelBufferFromCGImage:scaledImage.CGImage];
    
    NSError *error = nil;
    
    MobileNet *model = [[MobileNet alloc] init];//模型的创建和初始化,可以放在self属性中懒加载,这样不用每次重新创建
    MobileNetOutput *output = [model predictionFromImage:buffer error:&error];
    if (error) {
        NSLog(@"%@", error);
        return;
    }
    
    NSMutableArray *result = [NSMutableArray arrayWithCapacity:output.classLabelProbs.count + 1];
    [result addObject:@[@"这张图片可能包含:", output.classLabel]];
    [output.classLabelProbs enumerateKeysAndObjectsUsingBlock:^(NSString * _Nonnull key, NSNumber * _Nonnull obj, BOOL * _Nonnull stop) {
        NSString *title = [NSString stringWithFormat:@"%@的概率:", key];
        [result addObject:@[title, obj.stringValue]];
    }];
    self.array = result;
}

5.测试

至此我们的代码就算写完了,是不是很简单!让我们运行一下,到Google上搜索一些图片看看结果吧:


小奶猫
飞机
最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 204,921评论 6 478
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 87,635评论 2 381
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 151,393评论 0 338
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 54,836评论 1 277
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 63,833评论 5 368
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 48,685评论 1 281
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 38,043评论 3 399
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 36,694评论 0 258
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 42,671评论 1 300
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 35,670评论 2 321
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 37,779评论 1 332
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 33,424评论 4 321
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 39,027评论 3 307
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 29,984评论 0 19
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 31,214评论 1 260
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 45,108评论 2 351
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 42,517评论 2 343