英伟达发布“全球最大GPU”:体积缩小60倍、能效提升18倍
作者:深圳市减担科技有限公司 更新时间:2018-03-29
3月27日,一年一度的英伟达GTC大会在美国圣何塞召开。会上,英伟达发布了“全球最大的GPU”——DGX-2,它能让开发者获得极强的深度学习训练能力,以处理最大规模的数据集和最复杂的深度学习模型。
此外,英伟达还宣布,将联合芯片巨头ARM打造IOT设备的AI芯片专用IP。据悉,这款机器学习IP将集成到Arm的Project Trillium平台,以实现机器学习,这一技术源自英伟达Xavier芯片以及去年开源的DLA深度学习加速器项目。
“全球最大GPU”有多牛?
图片来源:智东西
据英伟达CEO黄仁勋介绍,新的DGX-2是“全球最大GPU”,它由16块32GB内存的Tesla V100计算卡通过NVSwitch进行连接(显卡间的通信速度是 PCI 的 20 倍,每秒 300Gbyte),共拥有 2000TFPLOS的Tensor Core算力。每个GPU都可以通过光纤交换机互相通信,比PCIe接口快20倍。
DGX-2具有300台服务器的深度学习处理能力,占用15个数据中心机架空间,体积却缩小了60倍,能效提升18倍。其算力可达2千万亿次浮点运算,功耗10千瓦。
相较6个月前发布的DGX-1,DGX-2提速10倍。五年前,在两块GTX 580上进行Alexnet训练耗时六天,现在使用DGX-2,仅需18分钟即可完成。
这款产品将于今年三季度发售,每台价格39.9万美元(人民币250万元)。
联手ARM打造AI芯片专用IP
除了发布DGX-2,英伟达还宣布与ARM合作的消息,将英伟达深度学习加速器架构集成到Arm的Project Trillium上,在手机、智能家居等设备上实现深度学习推理。
公开资料显示,英国ARM公司是全球领先的半导体知识产权提供商,全世界超过95%的智能手机和平板电脑都采用ARM架构 。其技术具有性能高、成本低和能耗省的特点。ARM在智能机、平板电脑、嵌入控制、多媒体数字等处理器领域拥有主导地位。
今年2月,ARM公布了其人工智能项目Trillium。本次ARM牵手英伟达推出专用的IOT设备人工智能IP,将会有助于人工智能在终端设备广泛铺开,使得上亿、甚至数十亿台IOT设备都能够用上低功耗、低成本的AI芯片,使物联网芯片公司能够轻松地将AI集成到它们的设计中,并帮助它们将智能且价格实惠的产品带给全球数十亿的消费者。
NVIDIA副总裁兼自主机器事业部总经理Deepu Talla表示:
“推理将成为每个物联网设备的核心能力。我们将与ARM一同推进这一趋势的发展,帮助数百家芯片公司轻松采用深度学习技术。”