Apple加快脚步布局AI版图

2018-09-14 14:33:10爱云资讯

自2018年4月Apple挖走Google搜索技术和人工智能(AI)部门工程副总裁John Giannandrea,看得出来这半年Apple在AI领域积极出招,并将Core ML和Siri团队合并为AI/ML团队,由John Giannandrea担任机器学习和AI策略主管,其中核心ML是机器学习API于2017年推出,协助第三方开发者运行本地AI任务和AI集中应用程序与服务在iOS设备上更有效率,以期在AI版图上占有一席之地。

尽管2011年Apple推出iOS系统中的人工智能助理软件Siri,抢下AI头香,但却没赶上深度学习浪潮,随着Google、Microsoft、Facebook等科技大厂竞相投入,Apple影响力却不同以往。不过,这半年来Apple在AI领域有一系列大动作,不论在AI硬件、软件、开发工具到应用生态,Apple皆急起直追,积极结合其在行动终端和生态系统上优势以迅速追赶。

Apple透过并购与挖角,积极投入AI领域

Apple近年积极投入AI领域,透过收购语音和图像厂商,提高自身产品价值,强调使用者体验最佳化。自2015年并购语音业者VocalIQ和Perceptio,VocalIQ提升使用者在与电脑语音交流更加顺畅,并转型为当地Siri研发中心;Perceptio则改善Siri功能。2016年另收购Emotient,以装置追踪、识别及分析脸部表情,直接用于iPhone上,并收购Turi提高Apple产品与服务运算能力,为Apple布局AI版图更上一层楼。

2017年WWDC(The Apple Worldwide Developers Conference)活动期间,Apple推出首款Core ML(Apple机器学习框架),2018年6月推出Core ML 2,其速度提高30%,量化使框架能够将模型缩小75%,并为CreateML工具及其Core ML框架延续,即Core ML(旨在简化AI模式建置)让开发者更方便训练机器学习模型并封装进App,而Create ML则实现在行动设备上AI运算,其强调Apple保护用户隐私初衷,将所有资料储存在手机中,相关运算皆在本地完成,有助于降低资料泄露风险。

应用程序开发人员透过Apple的Core ML使用神经引擎,透过Core ML即插即用技术,加上AI算法(如图像识别等)。由于核心ML功能可透过神经引擎以更快地处理相关任务,大幅降低发送至云端数据进行图像处理等,进而提高性能,降低耗电。

Apple强化AI应用生态圈,打造专属硬件、软件和平台

2017年Apple推出iPhone X采用脸部识别技术,实现流畅用户体验,透过AI功能,让智能型手机执行各种任务,提供实时翻译,处理自然语言,协助用户透过智慧识别拍摄更好照片,透过分析用户行为模式,装置做出决策并执行任务,其中语音助理将分析和学习用户行为,从而提供用户不同需求,提升和装置间互动。

Apple A11仿生(Bionic)芯片于2017年9月发表,首先搭载于iPhone 8、iPhone 8 Plus及iPhone X三款智能型手机,A11 Bionic芯片强调用于使用机器学习和深度学习任务,包括AR物体侦测、脸部辨识、Animoji脸部追踪等任务都依赖于AI芯片,该芯片采用双核设计,每秒可实现高达6,000亿次操作之即时操作处理,专为特定机器学习算法而设计。随着新款Apple将在2018年9月正式发表,A12芯片功率将比A11更高效。
相关文章
热门文章
头条文章
重点文章
推荐文章
热点文章
关于我们|联系我们|免责声明|会展频道
冀ICP备2022007386号-1 冀公网安备 13108202000871号 爱云资讯 Copyright©2018-2023