@lsmn
2017-06-19T06:02:13.000000Z
字数 1528
阅读 2181
苹果
AI
谷歌
iOS
随着谷歌、微软、Facebook、IBM甚至是亚马逊近几年在人工智能领域取得了新的突破,在2017年年度开发者大会上,苹果清楚地向大家表明,在硅谷其他地方随处可见的机器学习也是其软件的一个基础部分,他们将为开发人员提供工具,让他们可以在自己的iOS应用中使用AI。
本文来自Quartz对苹果开发者大会的报道。
随着谷歌、微软、Facebook、IBM甚至是亚马逊近几年在人工智能领域取得了新的突破,苹果看上去像个局外人。他们关闭了在他们的软件中对AI进行有意义的集成的大门——这不是苹果研究社区的一部分,他们没有提供可以让其他人将AI引入其系统的开发工具。
可现在不同了。通过年度开发者大会上的一系列更新和公告,苹果清楚地向大家表明,在硅谷其他地方随处可见的机器学习也是其软件的一个基础部分,他们将为开发人员提供工具,让他们可以在自己的iOS应用中使用AI。
开发人员
对于希望将AI构建到自己的iOS应用的开发人员而言,有一个以前很少在台上提及的大新闻,就是苹果新构建了一套机器学习模型和应用程序协议接口(API),名为Core ML。开发人员可以使用这些工具将图像识别构建到照片应用中,或者引入一个使用自然语言处理技术的聊天机器人,可以理解你说的内容。苹果首先发布了其中四个图像识别模型以及一个面向计算机视觉和自然语言处理的API。这些工具在用户设备本地运行,也就是说,数据仍然是私有的,永远不需要在云上进行处理。这不是个新主意——即使是像谷歌这样的数据囤积者也意识到让用户在自己的设备上保存和处理数据的价值。
此外,苹果还让AI开发人员可以很容易地将他们自己喜欢的AI引入苹果设备。某些种类的深度神经网络可以直接转换为Core ML。苹果现在提供了Caffe和Keras支持,前者是由加州大学伯克利分校开发的一款用于构建和训练神经网络的开源软件,后者是一个可以简化那个过程的工具。值得注意的是,它不支持谷歌的开源AI框架TensorFlow,那是目前为止AI社区中最大的AI框架。不过,有一个空子,创建者可以构建自己的转换器。(我个人希望在几天内就出现这样的TensorFlow转换器,而不是几周之后。)
在苹果提供的预训练模型中,有一部分是开源的谷歌代码,主要面向图像识别。
AI on iOS
苹果在主题演讲中清楚地向大家表明,发生在手机上的每个动作都会被记录,然后由操作系统的一系列机器学习算法进行分析,判断那是否预示着你希望要做一个日历预约、拨打一个朋友的电话,或者制作更好的动态照片。
从Siri的声音就可以看出苹果切换到了机器学习。他们不再使用预先录制好的标准答案,现在,Siri的声音完全是由AI生成的。这样更灵活(苹果在大会上示范了四种不同的音调),随着技术的发展,它听上去会越来越像真人(苹果的竞争对手离这个目标已经不远了)。
苹果还一口气介绍了其他许多基于ML的微调整,比如,iPad区分Apple Pencil的笔尖和用户的手掌,或者通过了解哪个应用需要消耗电量而动态地延长电池寿命。
研究
好了,的确,苹果只发表了一篇论文。但是一篇好论文!苹果AI研究负责人Ruslan Salakhutdinov一直在做巡回演讲。举例来说,近日,他在Nvidia的GPU技术大会上了发表了演讲,稍后他还会在纽约发表演讲。此外,去年年底,在Salakhutdinov上任后不久,苹果在一个重大的AI会议上和他们的竞争对手举行了一场闭门会议。Quartz获得了其中一部分幻灯片并发布在了这里。
苹果是AI的领跑者吗?从大多数指标看都不是。但是,许多人认为,开放研究是招聘到AI顶尖人才的最好方式,因此,我们将来可能会看到更多的论文和演讲。