[关闭]
@tinadu 2017-06-06T09:18:49.000000Z 字数 2907 阅读 1904

从移动端机器学习框架Core ML的发布,反观苹果的AI之路

未分类


Core ML

苹果全球开发者大会周一低调宣布将推出的Core ML,移动设备上的机器学习编程框架,可应用于Apple的如Siri,Camera和QuickType等产品上。它允许开发人员将训练好的机器学习模型加载到iPhone或iPad上,具有轻松集成机器学习模型的能力,使开发者能够使用几行代码构建具有智能新功能的应用程序,可以涵盖从文本分析到面部识别的一切,同时苹果表示,iPhone上的图像识别速度将比Google Pixel快六倍。

Core ML有一个重要的特性是在本地处理机器学习数据,而不会将用户信息发送到云端。在本地处理数据也会带来不少好处,如不需要网络连接,无需等待网络来回传递消息;因为数据不必离开设备,用户也因此能更好的获得隐私权益。但是这对内存和功耗的要求也就更高了。Core ML 建立在像Metal和Accelerate底层技术上的,所以能无缝利用CPU和GPU来提供最高的性能和效率。

苹果不是唯一一家致力于将机器学习带入移动设备的公司。 Google在几周前的I / O开发者大会上宣布推出新的TensorFlow Lite编程框架,让开发人员更轻松地构建运行在低功耗的Android设备模型。

开发人员必须将训练好的模型转换为兼容Core ML的特殊格式。完成后就可以将模型加载到Apple的Xcode开发环境中,并部署到iOS设备上。Apple发布了基于流行开源项目的四个预建机器学习模型,并且还提供了一个转换器,以便开发人员自己移植。该转换器可用于Caffe,Keras,scikit-learning,XGBoost和LibSVM等框架。

Machine learning

这次WWDC年度开发者大会上,苹果一再提及机器学习(machine learning)以及相关AI术语。

苹果技术主管Kevin Lynch说,通过机器学习,个人助理软件Siri会更积极主动。

软件技术主管
Craig Federighi强调Safari使用机器学习来智能阻止浏览器跟踪,还谈到先进的卷积神经网络改善了照片中的面部识别,并使Siri更加智能化,深度学习使Siri的声音更加自然。

硬件工程师John Ternus讲解了Radeon Vega GPU有助于机器学习功能,提高了苹果即将推出的iMac Pro的计算能力。

这次大会中,苹果的高管反复强调他们应用了机器学习,是想告诉我们什么?

Siri:苹果的人工智能之路

早在2011年,苹果作为首批面对消费者的人工智能公司,由联合创始人史蒂夫·乔布斯(Steve Jobs)宣布在iPhone上推出语音助手Siri。直到现在,苹果才再次在AI领域上占据一席之地。这八年来发生了一些什么事情?

苹果自2011年以来一直在培养Siri,但直到去年10月才聘请卡内基·梅隆大学教授Ruslan Salakhutdinov为其首席AI研究主管。

苹果一度以严格的保密制度闻名,苹果的安全政策甚至延伸到博客、演讲安排甚至与配偶的对话等。一直以来,苹果都不对外公布自己的人工智能发展情况,“保密”的文化传统让苹果的人工智能研究进展变得神秘,但同时也给自己带来了麻烦:难以从学术圈招到人才。想要在学术圈获得知名度和认可,公开研究成果是关键。在人工智能的浪潮下,一些巨头公司如 Google、Facebook 都有自己机器学习研究小组,并可发布论文。这些造成了苹果在人工智能等方面的专利申请数量已被其主要竞争对手超越。

去年NIPS 大会上,苹果新聘请的这位首席AI研究主管Russ Salakhutdinov 才宣布允许其人工智能和机器学习研究员公开发布和分享他们的最新研究成果。并在12月,发布了第一篇人工智能研究论文:模拟+无监督方法改善合成图像质量(《Learning from Simulated and Unsupervised Images through Adversarial Training》)。

众所周知,AI的发展需要收集和挖掘大量的数据,但苹果隐私保护文化让他们花费了相当多的资源在建立额外的隐私层级保护上。苹果一度高调宣称他们不像其他公司那样收集大量用户数据来进行用户画像。比如优化Siri,必须收集和解读应用程序的数据,例如日历,餐厅预订,以及浏览。这个立场无疑使苹果在人工智能的赛跑中处于落后地位。

去年的WWDC大会上,苹果还特地讲解了他们的差异隐私项目(differential privacy)。软件技术主管Craig Federighi:“需要明确的是,对于这些照片本身,其架构集以加密方式存储在云端,而元数据——包括用户创建的元数据以及我们深度学习后分类得出的元数据——同样经过加密,苹果无法进行读取“。

基本思路是,如果大量用户输入某个实际上并不存在的单词,那么我们将不再将其视为拼写错误,甚至可能将其纳入拼写补全推荐。在这种情况下,我们希望全部客户都能够理解该单词,但我们又不希望知晓具体是哪位用户输入了该词。我们刻意回避这种将习惯与个人挂钩的信息。

但只要样本量充足,这种不相符的问题将自行得到解决。因此如果我们希望学习新出现的单词,我们会对其进行哈希处理,并从哈希中提取单一bit,例如将其称为1。与此同时,手机设备会对数据内容进行混淆,意味着即使其读取到的数据为1,其也可能通过随机算法将其表达为0。

苹果公司获得的数据正是这类混淆处理后的结果。但由于拥有充足的数据量,苹果方面仍然能够建立起宏观视角,并了解大规模群体表现出的真实倾向。具体来讲,苹果公司能够借此了解广泛用户的思维方式,但却无法具体将其与个人联系起来。

涉及个性化信息时,苹果公司的政策限制要求其只能在设备内部进行模型训练。数据匮乏问题也限制了基于个人的深度学习。根据Jeff Dean的说法,整套神经网络是由成千上万的参数构成,而非单纯参考设备内运行的信息。这种个性化能力的缺失是否致命?至少对谷歌而言是如此。谷歌在2016年I/O大会上发布了全面普及机器学习的战略,其中的典型方案就是Google Assistant个人AI服务。谷歌公司似乎希望将深度学习本身作为主要目标,而苹果则更倾向于利用这项技术打造更出色的产品。每支人工智能团队都需要决定其是否需要构建深度学习系统。这不仅是一项技术方案,更会带来道德层面的拷问。直到现在,苹果公司的思路显然提供了不同的实现模式。

今年的Siri

这次WWDC大会发布11款硬件升级,智能音箱Homepod作为库克隆重介绍的最后一款压轴产品,当为最大看点。除了播放音乐,Homepod还是一个很好的家庭助理,可播报交通信息、新闻、天气、股票、发送信息等。而且,HomePod与HomeKit高度集成,可以语音操控Siri控制整个智能家居设备。Siri还会识别用户声音是否与ID相符,严格的保密隐私。

同时新版的 Siri 利用语音合成,听起来更自然。Siri现在有了翻译功能,可以将对话直接进行翻译(口译),目前支持英语翻译中文、法语、德语、意大利语和西班牙语。 看起来苹果想将Siri放到所有的设备中,并希望Siri 能更好的理解用户习惯,带来智能体验。

添加新批注
在作者公开此批注前,只有你和作者可见。
回复批注