时间:2017-09-08 来源:互联网 浏览量:
Facebook和微软昨日在各自的博客文章中宣布ONNX,开放式神经网络交换格式。这种格式让机器学习开发人员更容易在PyTorch和Caffe2之间转换模型,以减少研究与产品化之间的滞后时间。
Facebook一直保持其FAIR和AML机器学习组的区别。 Facebook AI Research(FAIR)处理流行边缘研究,而应用机器学习(AML)为产品带来智慧。深入学习框架的选择是这一关键意识形态区分的基础。FAIR习惯于与PyTorch合作,这是一个为获得最先进的研究成果而进行优化的深入学习框架。
不幸的是,在现实世界中,我们大多数人都受到智能手机和电脑计算能力的限制。 当AML想要构建部署和扩展的东西时,它会选择Caffe2。 Caffe2也是一个深入的学习框架,但是针对资源效率进行了优化,特别是对于在资源不足的移动设备上运行机器学习模型而优化的Caffe2Go。
Facebook和微软的合作帮助人们轻松将PyTorch内置的模型转换为Caffe2模型。通过减少这两个框架之间的障碍,两家公司实际上可以改善研究的扩散,并有助于加快整个商业化进程。
不幸的是,并不是每个公司都使用相同的PyTorch和Caffe2配对。TensorFlow等重要框架仍然进行了大量的研究工作。在研究背景之外,其他人一直致力于将机器学习模型转换为针对特定设备优化的格式。
例如,Apple的CoreML帮助开发人员转换了非常有限的模型。在这一点上,CoreML甚至不支持TensorFlow,创建自定义转换器的过程似乎相当复杂,可能会以失望的方式结束。 由于Google和Apple等公司在定制硬件上获得对机器学习框架优化的更多控制权,因此继续监控互操作性将变得非常重要。
目前,该开放神经网络交换格式已经在Github上发布。