本文来源微信公众号“雷锋网”,作者Tinc V,原文标题《百度 Intel 联手打造新一代 Nervana NNP 芯片,性能提升 3 到 4 倍》。
未来几年,人工智能模型的复杂性将会激增,对大规模深度学习计算的需求也会激增。
雷锋网消息,在 7 月 3 日举行的百度(BIDU.US) AI 开发者大会上,百度发布了鸿鹄芯片以及多个智能音箱新品,宣布与华为麒麟合作,智能小程序也进入新连接。
英特尔(INTC.US)副总裁兼人工智能产品事业部总经理 Naveen Rao 也出席现场为百度打 Call,并宣布了与百度在 AI 方面的重磅合作——结合自家的专业知识,共同打造用于训练 AI 的 Nervana 神经网络处理器(NNP,Neural Network Processor)。
联手开发强大的 AI 加速
英特尔表示,这款与百度合作开发的处理器简称 NNP-T,代号为“Spring Crest”;它的开发意味着 AI 模型硬件的发展进入“新阶段”,因为它可以加速大规模分布式训练;它还对图像识别进行了优化,删去了标准的快取阶层(cache hierarchy),片上存储器(on-chip memeory)直接由软件管理。
据 VentureBeat 报道,NNP-T 有 24 个计算集群,32GB 的高频宽存储器(HBM2)和本地 SRAM,因此,这款即将推出的处理器在 AI 训练方面比同类产品要强上最多 10 倍,比英特尔推出的首款 Nervana NNP 芯片 NNP-L 1000(代号 Lake Crest)的性能强 3-4 倍。(雷锋网按:2016 年,英特尔收购人工智能公司 Nervana,2017 年,英特尔推出专为机器学习设计的 Nervana NNP 系列芯片)
不过,英特尔也发表了声明,AI 并非单一的工作负载,而是一种广泛的、能够强化所有手机上或者是大数据中心内的应用性能的强大能力;然而,不同的应用对性能和功耗有着不同的要求,因此单一的 AI 硬件无法满足一切需求。
在 AI 方面,英特尔认为不仅要提供优越的硬件选择,还要通过软件来最大化释放硬件的性能,从而帮助客户自如地运行 AI 应用,无论数据多么复杂。而英特尔选择与百度密切合作,则能够确保英特尔开发部门始终紧跟客户对训练硬件的最新需求。
Naveen Rao 表示,
未来几年,人工智能模型的复杂性将会激增,对大规模深度学习计算的需求也会激增。英特尔和百度正专注于自己长达十年的合作,建立全新的硬件,支持软件协同设计,这将随着不断变幻的现实情况而发展。我们称之为 AI 2.0。
英特尔与百度是长期好伙伴
雷锋网了解到,近年来,英特尔与百度已经共同创建了许多基于 AI 应用的解决方案。
自 2016 年以来,英特尔就一直为百度 PaddlePaddle 深度学习框架而优化 Xeon Scalable processor,今后,NNP-T 的优化也将专注于 PaddlePaddle 的应用,专注于神经网络的分布式训练,以完成其他类型的 AI 应用。
Constellation 研究公司的首席分析师兼副总裁 Holger Mueller 表示,
处理器架构和平台需要针对进行优化才能发挥作用,无论是目前的还是即将推出的处理器,这就解释了英特尔与百度本次合作的重要性。
两家公司探讨了集成百度 PaddlePaddle 和英特尔 nGraph DNN(Deep Nerual Network)编译器,有了 nGraph 的助力,数据科学家只用编写一次代码就可以让自己的 DNN 模型在各个平台上有效地运行,无需做额外的调整。
百度也借助英特尔傲腾数据中心级持久内存的高性能,向数百万用户提供个性化移动内容,并通过百度 AI 推荐引擎获得更高效的客户体验。
在数据安全方面,百度和英特尔在去年推出了 MesaTEE,一个基于英特尔 SGX (Software Guard Extension,软件保护扩展技术)的 FaaS 计算框架;MesaTEE 使金融、自动驾驶和医疗等安全敏感服务能够安全地在远程平台上处理数据。
今年早些时候,百度和英特尔还推出了全新硬件产品 BIE-AI-BOX。这款产品融合了百度智能边缘技术,连接摄像头进行车内视频监控和分析。
雷锋网小结
尽管百度与英特尔长期以来都保持着紧密的合作关系,但本次两家公司联手打造 AI 加速处理器也显得十分重要,因为即便硬件的性能再强大,也需要软件的不断磨合才能最大化地发挥 AI 的优势。
总而言之,百度与英特尔各取所长,开发和优化这款加速处理器,不仅能将大规模神经网络训练的步骤化繁为简,还能在一定程度上,加速 Naveen Rao 所说的 AI 2.0 的到来。