使用 Core ML在苹果设备上运行 MXNet 模型
MXNet 支持在移动设备(Android、iOS)上运行基于深度学习的图像识别等任务
将 MXNet 模型导入 Apple 的 Core ML 格式中:
pip install mxnet-to-coreml
设置环境以将 Apache MXNet 模型转换为 Apple 的 Core ML
1 模型文件(*.json)
2 权重文件(*.params)
3 synset.txt
mxnet源码中给的例子很复杂,但看代码似乎两列就够了.用空格分割的两列,第一列似乎没什么用,第二列就是label names, 一行表示一类,比如对于mnist识别,synset.txt内容可以如下
0 0
1 1
2 2
3 3
4 4
5 5
6 6
7 7
8 8
9 9
Sample Usage
mxnet_coreml_converter.py --model-prefix='squeezenet_v1.1' \
--epoch=0 --input-shape='{"data":"3,227,227"}' \
--mode=classifier --pre-processing-arguments='{"image_input_names":"data"}' \
--class-labels synset.txt --output-file="squeezenetv11.mlmodel"