苹果A12仿生芯片运行核心ML应用的速度快了9倍

导读 苹果在人工智能(AI)上投入巨资。这一点从今天在加州库比蒂诺举行的iPhone和Apple Watch大会上就能明显看出。新款iPhone Xs和iPhone

苹果在人工智能(AI)上投入巨资。这一点从今天在加州库比蒂诺举行的iPhone和Apple Watch大会上就能明显看出。

新款iPhone Xs和iPhone Xs Max搭载了A12Bionic,这是一款7纳米芯片,苹果称之为“有史以来最强大的”。它包含六个内核(两个性能内核和四个高功率内核)、一个四核GPU和一个神经引擎——一个用于八核的特殊机器学习处理器,而不是A11中的双核处理器——它每秒可以执行5万亿次运算(相比之下,上一代神经引擎的计算量为5000亿次)。还有一个智能计算系统,自动决定是在处理器、GPU、神经引擎还是三者的组合上运行算法。

苹果机器学习框架Core ML2创建的应用程序,在A12仿生硅上运行速度快9倍,功耗只有十分之一。这些应用程序的发布速度也快了30%,这是因为随着时间的推移,学习使用习惯的算法。

新硬件启用的实时机器学习功能包括Siri快捷方式,允许用户通过定制Siri短语来创建和运行应用宏;MEmoji,新版表情符号,可以定制成你的样子;FaceID;还有苹果的增强现实工具包ARKit2.0。

这个消息是在苹果今年夏天发布了core ML2的消息之后发布的。

苹果在6月份的全球开发者大会上表示,由于一项名为批量预测的技术,核心ML2的速度提高了30%。此外,苹果还表示,该工具包将允许开发人员通过量化将经过训练的机器学习模型的大小减少75%。

苹果在2017年6月推出了核心ML,iOS11。它允许开发人员将设备上的机器学习模型加载到iPhone或iPad上,或者转换来自脸书的XGBoost、Keras、LibSVM、Scikit-Learning和Caffe和Caffe2的模型。核心ML旨在优化能效模型,不需要互联网连接就能获得机器学习模型的好处。

核心ML更新的消息紧随MLKit之后,MLKit是一款针对安卓和IOS的机器学习软件开发套件,由谷歌在5月份的I/O2018开发者大会上公布。2017年12月,谷歌发布了一款工具,将TensorFlowLite(其机器学习框架)生产的AI模型转换为与苹果核心ML兼容的文件类型。

Core ML有望在苹果未来的硬件产品中扮演关键角色。

为了暗示公司的野心,苹果聘请了前谷歌工程师约翰詹南德里亚(John Giannandrea),负责监督Gmail、谷歌搜索和谷歌助手中人工智能功能的实施,并负责其机器学习和人工智能战略。它还想雇佣150多人为其Siri团队工作。

免责声明:本文由用户上传,如有侵权请联系删除!