@lsmn
2017-06-19T06:13:23.000000Z
字数 1610
阅读 2088
苹果
AI
机器学习
长期以来,苹果都对其在加州库比蒂诺实验室的研究保密。但是,苹果似乎开始开放他们的工作,至少在人工智能领域是如此。
本文来自Quartz对苹果开发者大会的报道。
长期以来,苹果都对其在加州库比蒂诺实验室的研究保密。这很容易理解。即使是从最良性的研究论文或医学期刊投稿中也可以推测出他们的工作,尤其是当他们试图成为这个星球上最有价值的公司时。
但是,苹果似乎开始开放他们的工作,至少在人工智能领域是如此。根据Quartz获得的九张演示文稿幻灯片,2016年12月6日,在一个行业AI大会上仅面向受邀者的午餐中,苹果公司新晋机器学习负责人Russ Salakhutdinov和其他苹果员工进行了议题宽泛的讨论,详细介绍了他们公司使用AI解决的问题。
毫不奇怪,苹果致力于解决的问题和其他正在探究机器学习的公司一样:识别和处理图像、预测物理世界的用户行为和事件、用于个人助理软件的建模语言、设法理解当算法无法做出高度可信的决策时如何处理不确定性。
一张幻灯片上有两张非常有特色的汽车图片,该幻灯片汇总了苹果公司的研究,说明了“LiDAR的体积检测”和“结构化输出预测”。对于现如今的无人驾驶汽车技术而言,LiDAR或者光感测距(和雷达类似,但借助激光)以及物理事件预测都是非常重要的组成部分。不过,鉴于所介绍的内容比较敏感,两名不愿透露姓名的与会者强调,苹果公司并没有提及他们的汽车理想。
苹果制造无人驾驶汽车传闻已久,他们甚至给美国国家公路交通安全管理局(NHTSA)发邮件,希望他们能同等对待无人驾驶汽车的测试行为,而不管该公司是这个领域的新手,还是像谷歌和Uber这样更成熟的无人驾驶工场。
另一张幻灯片着重介绍了苹果构建神经网络的能力。他们构建的神经网络比原始神经网络小4.5倍,而且没有精度损失,速度还快两倍。在AI研究领域,众所周知,这项技术使用更大更健壮的神经网络训练另一个网络,使其知道在各种情况下做什么决策。然后,该“学生”网络就会具备“老师”网络知识的简化版本。本质上,对于给定的照片或音频样本,它会预测更大网络的预测。
对于苹果这家制造移动设备的硬件公司而言,此类工作至关重要。通过精简神经网络,iPhones和iPads可以识别照片中的人脸和位置,或者了解用户的心率变化,而不需要依赖远程服务器。将这些处理过程限制在手机上可以让这项功能随处可用,而且,这还使得数据无需加密,也无需通过无线网络传输。
对于他们的算法在图形处理单元或GPU(常用于服务器端加速深度学习的处理速度)上的运行效率,苹果还是非常自豪的。一张幻灯片指出,苹果的图像识别算法每秒钟处理的照片是谷歌的两倍(pdf),谷歌每秒处理1500张,而他们每秒可以处理3000张,而且大体上只需要1/3的GPU。这种比较是基于在Amazon Web Services(一个云计算的标准)上运行算法做出的。
虽然其他公司正开始基于专用芯片来加速AI工作,如谷歌的张量处理单元和微软的FPGA,值得注意的是,苹果是基于标准的GPU。不过,我们并不知道,苹果是否为了匹配其客制化客户硬件而构建了自己的客制化GPU,或者是从像Nvidia这样的大型制造商购买。Nvidia向如此多的互联网公司出售过自己的产品,以至于人们将此说成是“在机器学习淘金潮里买铲子”。
另外,苹果用来训练其神经网络识别图像的图片似乎是专有的,其规模是标准ImageNet数据库的将近两倍。
长期以来,机器学习科学家一直批评苹果不愿向研究社区做贡献。按照与会者的说法,在面向精心挑选的一个了解苹果相关工作的研究人员小组演示时,Salakhutdinov——一名来自卡内基梅隆大学的知名AI研究人员——表示,苹果将开始发布其研究,并尽更大的努力和研究社区合作。
还不清楚苹果的发布承诺是只适用于机器学习研究,还是也适用于其他计算机科学研究,如安全。
苹果并没有对此作出回应。