[关闭]
@sambodhi 2018-04-18T11:33:14.000000Z 字数 1825 阅读 1713

深度神经网络开发者的福音:IBM新推出AI工具箱

作者|TRISTAN GREENE
译者|Liu Zhiyong
编辑|Debra Chen

AI前线导读:深度神经网络有一个很大的弱点:轻微变动图像、文本或语音数据就可以欺骗这些系统,造成感知误判。为解决这一问题,IBM日前推出了工具箱,给深度神经网络的开发者带来了福音。

IBM日前宣布推出面向AI开发人员的对抗式健壮性工具箱。开源工具包包含了机器学习程序员需要攻击他们自己的深度学习神经网络(deep learning neural networks,DNN)以确保它们能够经受住现实世界考验的所有内容。

该工具箱以代码库的形式出现,其中包括攻击代理、防御应用程序和基准测试工具,这些工具允许开发人员将固有弹性(baked-in resilience)集成到对抗性攻击的能力中。该公司表示这是第一次。

根据IBM安全系统首席技术官Sridhar Muppidi的说法:

其中一个最大的挑战是,一些抵御对抗攻击的AI现有模型,它们非常具有平台相关性。为此,IBM团队设计了对抗式健壮性工具箱,以实现平台无关性。无论开发人员是在Keras还是TensorFlow进行编码、开发,都可以应用相同的库来构建防御系统。

它就像AI的一名综合武术教练,评估DNN的恢复能力,教它定制的防御技术,并提供一种内部抗毒层(anti-virus layer)。最后一个可能不是拳击场的常规做法,但它对DNN而言绝对是至关重要的。

对抗性攻击是由危险分子对DNN发动的攻击,希望破坏、重新使用或欺骗AI。这些攻击以多种方式进行,从物理混淆,再到以机器学习攻击对抗DNN的形式来实现反AI。

如果说AI必须保护自己免受能够学习的对手攻击的想法还不够恐怖的话,那么,对人类造成的潜在危险绝对是可怕的。

在中国,面部识别软件是该国执法技术的一个重要组成部分,其中包括配备了AI的闭路电视摄像头,能够在6万多人中挑出一张脸。随着AI变得更有能力,西方世界可能会效仿中国。

TNW在今年早些时候报告了上图所示的语音系统漏洞,解释说,能够欺骗语音到文本系统对语音助理而言是一个坏消息。骇客并不一定要依靠你从收藏的播放列表中选择一首歌曲,他们可以简单地在公共交通工具上或者在办公室里坐在你对面,假装自己在听音乐,或者只是对嵌入的违规信号保持静音。

AI前线注:TNX(The Next Web)是全球知名科技媒体,专注国际科技、财经和文化方面的资讯报道,已经已经成为越来越重要的科技新闻来源。据第三方统计网站Techmeme数据显示,TNW内容分享率已超过纽约时报、路透社、彭博社等知名媒体网站。

这些威胁还包括欺骗GPS误导船只、攻击舰载系统、伪装船只ID来欺骗AI驱动的人造卫星。随着越来越多的全球AI系统上线,国家发起针对军舰的攻击行动的可能性也日益成为现实。去年,美国海军领导人发现自己正在回答有关海上一系列神秘碰撞的问题,而对抗式系统攻击的想法不止一次出现。

AI前线:关于美国海军的碰撞请参见新闻:Fourth US Navy collision this year raises suspicion of cyber-attacks(https://thenextweb.com/insider/2017/08/22/the-us-navy-is-investigating-possibility-of-cyber-attack-in-latest-collision/

AI系统容易受到攻击的其他领域,包括无人驾驶汽车和军用无人机,如果它们的安全受到威胁,这两者都可能成为骇客的武器。实际上,所有的DNN都需要具备抵御攻击的能力,或者它们与没有防毒保护的计算机一样有用。

要了解更多关于IBM新出的对抗式健壮性工具箱的信息,你可以查看该公司的博客文章:https://www.ibm.com/blogs/research/2018/04/ai-adversarial-robustness-toolbox/

原文链接:
IBM’s new AI toolbox puts your deep learning network to the test
https://thenextweb.com/artificial-intelligence/2018/04/17/ibm-launches-open-source-adversarial-robustness-toolbox-for-ai-developers/

添加新批注
在作者公开此批注前,只有你和作者可见。
回复批注