查看原文
其他

苹果不甘人后,大力研发的AI技术用来做什么?

2016-12-13 TechNews科技新报


日前苹果的资料科学家于一场会议曾首次指出,他们将会公布自家的 AI 研究成果,同时允许旗下学者自由参与学术活动。不过,苹果目前苦心投入的 AI 技术,究竟会拿来做什么?




会议中,苹果大概透露了他们制作的机器学习有几个方向:图像与人脸辨识,预测使用者的行为,智能助理的语言能力,同时设法强化演算法的可靠性。

其中,稍微引人注意的,是苹果也再次“证实”他们已经在开发自驾技术,指出自家机器学习技术将会用在光学雷达(LiDAR)与量体建模── 一项当前业界用于让自驾车“理解”现实障碍物的主流技术。


不过据外媒表示,与会的苹果学者仅愿意就“AI”的部分提出说明,不打算透露产品的内容。

另一项则是类神经网络的研发。据苹果所述,他们的技术可以在维持同样精准度的前提下,增加两倍的演算速度,却同时比原型小了 4.5 倍。


一般来说,类神经网络主要是用来模拟生物神经元的反应,在不需要主动输入资料的前提下,让一个“学生”类神经网络,获得另一个“教师”类神经网络的技能。


目前,苹果主要希望把这种技术用到 iOS,让设备不需要服务器就能自主运算,处理像是图片与脸孔辨识之类的事。这种技术也能帮助苹果不需要另外费工加密资料,再上传到自己的云端。

为了顺应图像处理,苹果也强化了 GPU 的运算效能。苹果自称,假如都在亚马逊的云端平台跑的话,他们的机器学习在扫描图像的效能,比 Google 快了两倍。确切来说,是每秒能扫 3,000 张,而 Google 只能跑 1,500 张。


实际上也有消息指出,苹果目前也已经大幅接手了 iOS 设备的 GPU 设计,距离完全自主仅有一步之遥。不过,苹果并没有公开如何训练类神经网络来辨识图片的技术,而且还申请了专利。

目前,苹果尽管宣誓会开放自家的 AI 与机器学习团队,同时让合作学者能继续与学术机构互动,但并没有透露详细的规定与界线。至于下一代 iOS 的重大变化,依目前的资讯除了底层的档案格式将置换成统一的 Apple File System,也可能会首次加入 AR,推出与 Google Daydream 类似的平台。


*本文由 科技新报 David.H 编译,转载请注明来源


延伸阅读:

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存