在这部分演示中,苹果着重强调的是在GPU性能方面的提升,Apple为展示GPU性能的提升,在现场演示了使用iMac进行VR处理。接着Apple提到了即将在今年年末发布的工作站级别的iMac Pro一体机,将会具备超强的性能,核心为了支持Machine Learning和VR。
Core ML
前面提到,面向开发者的Metal 2也能用于机器学习。后面的演讲中,Craig Federighi就宣布了苹果一系列新的面向开发者的机器学习API,包括面部识别的视觉API、自然语言处理API,这些API集成了苹果所谓的Core ML框架。
Core ML的特性:支持深度神经网络、循环神经网络、卷积神经网络、支持向量机、树集成、线性模型
Federighi 介绍说,Core ML的核心是加速在iPhone、iPad、Apple Watch上的人工智能任务,包括面部识别、文本分析等。他表示,Core ML 在 iPhone上每分钟图像识别的速度是谷歌Pixel上的6倍。
Siri Intelligence与智能音箱 HomePod
谷歌的Google Assistant、亚马逊的Alexa、微软的Cortana、苹果的Siri,都是业界极为关注的语音助手。在此次的开发者大会上,Siri有了一系列的升级,这些升级集成了大会上所说的Siri Intelligence。同时,苹果也发布了配备Siri助手的智能音箱HomePod。
值得一提的是,2014年苹果将Siri的语音识别移植到了基于神经网络的系统上,使用深度学习对它进行了极大的增强。这里面使用到了一些早期技术,包括隐马尔可夫模型。但从这个时间节点开始 Siri 使用了机器学习技术,包括DNN(深度神经网络),卷积神经网络,长短期记忆单位,封闭复发性单位(gated recurrent units),以及n-grams 等。
经过三年的发展,Siri Intelligence结合机器学习有了最新的进展:
Siri Voice使用深度学习进行语音合成(男声、女声)
Siri将具备Knowledge 、 Translate Beta功能
Siri将具备理解自然语言的功能(对语境更为敏感)
之前业内一直在传苹果在WWDC大会上有可能推出重磅产品Siri音箱。认为这款产品将直接与亚马逊的Echo、Google的Home展开竞争。彭博社的报道也称,苹果正在研发的 Siri 音箱将在不久的将来发售。
在大会上,苹果正式宣布了智能音箱HomePod。
HomePod使用Siri助手,能够控制新闻、文本、短信、天气等。但就苹果的态度来看,HomePod是要彻底改造(reinvent)家庭音乐,所以它的核心还是音乐,Siri的功能辅助成分要大很多。
融入产品的人工智能
Safari 的智能追踪防护
不像是AI-First的谷歌所举办的开发者大会,「机器学习」一词贯穿始终,WWDC 2017 上「机器学习」完全是伴随着苹果的产品和应用所出现的:
Safari使用机器学习识别网页追踪者,增强隐私保护;
图像App升级,特别是Memories功能使用机器学习识别体育活动、婚礼等图;
Apple Store使用深度学习辨别骗保行为;