@xuemingdeng
2017-06-06T17:18:22.000000Z
字数 836
阅读 838
AI
苹果在WWDC 2017大会上发布了一个全新的机器学习API框架Core ML。与其他雄心勃勃的科技公司一样,苹果也不甘示弱,意欲让移动设备上的AI变得更快、更强大。
Core ML致力于提升在苹果移动设备上执行AI任务的速度,如iPhone、iPad和Apple Watch,包括文本分析和面部识别等任务,同时也会大范围地影响到各类应用程序。这意味着iPhone上的图像识别可能比Google的Pixel快上6倍。
Core ML包含在最新发布的iOS 11里,今年晚些时候就可以升级使用。Core ML将会支持各种主要的机器学习工具,包括全系列的神经网络技术,以及线性模型和组合树。出于对隐私的保护,Core ML运行在用户设备上,也就是说,用于改进用户体验的数据不会离开用户的设备。开发人员可以将训练过的模型加载到设备上,并将其用在应用程序上。
在设备上运行机器学习的好处显而易见,应用程序不再依赖网络连接,而且避免了在网络上来回传输相关信息,从而加快处理的速度。对于用户来说,他们的隐私得到了保护,因为他们的信息不需要传输到云端。
开发者需要将训练过的模型转成特殊的格式才能在Core ML上使用,转换过的模型被加载到Xcode里,然后部署到设备上。目前,苹果基于一些开源项目发布了4个内建的机器学习模型,并提供了一个转化器用于转换模型的格式。转换器兼容各种流行的框架,如Caffe、Keras、scikit-learn、XGBoost和LibSVM。除此以外,开发者还能自定义转换器。
Core ML专门为苹果的移动设备进行了优化,尽量减少内存的使用,并降低功耗,这些对于在设备上运行执行机器学习任务来说是非常关键的。
苹果不是唯一一家发力移动AI的公司,Core ML的发布只是顺应了行业的潮流。Google和Facebook之前就为移动设备发布过机器学习框架,高通也发布了神经网络处理引擎,用于提升移动设备的AI体验。