ncnn:
已实现 winograd 卷积加速,int8 压缩和推断,还有基于 vulkan 的 gpu 推断
同时也支持将Caffe模型转化为int8精度。
而ONNX模型的转化则是近半年来的实现成果,目前支持了大部分的运算(经过测试,我们平常使用的90%的模型都可以使用ONNX-TensorRT来进行转化)。唯一遗憾的是ONNX模型目前还不支持int8类型的转化。
ncnn:
已实现 winograd 卷积加速,int8 压缩和推断,还有基于 vulkan 的 gpu 推断
同时也支持将Caffe模型转化为int8精度。
而ONNX模型的转化则是近半年来的实现成果,目前支持了大部分的运算(经过测试,我们平常使用的90%的模型都可以使用ONNX-TensorRT来进行转化)。唯一遗憾的是ONNX模型目前还不支持int8类型的转化。