行业新闻 (News) 芯片封装主页/ 行业新闻 / Nvidia Chip将深度学习推向了极致
< 返回列表

Nvidia Chip将深度学习推向了极致

毫无疑问,GPU-powerhouse Nvidia希望能够为各种规模的AI提供解决方案 - 从大规模数据中心工作到始终在线的低功耗神经网络,可以监听语音助理中的唤醒字。

所以现在,它将采用不同的技术,因为它们都没有扩展或缩小特定的井。显然可以部署。试图回答这个问题: “你能构建一些可扩展的产品...... 同时在整个频谱范围内保持竞争性的每瓦性能吗?”

上个月在京都举行的VLSI研讨会上,Nvidia详细介绍了一项微小的测试,该测试可以独立完成低端工作,也可以与其中最多36位亲属紧密联系。它实现了它,同时实现了大致相同的顶级性能。

工程师通常在可以实现的许多加速器中测量这种“推理”芯片“推理”芯片的性能。与其他组的先前原型相比,使用相同芯片的芯片,每秒4.01 tera-operations(每秒1000亿次操作)和每秒每秒1.29 TOPS(每秒1000亿次操作)但是连接到一个36芯片系统它达到了127.8 TOPS。这是一个32倍的性能提升。(不可否认,一些效率来自未处理更高精度的数学,某些,问题,DRAM问题,和其他形式的AI蜜蜂卷积神经网络。)

例如,加利福尼亚州Irvine, -Startup Syntiant 在闪存中使用模拟处理,以提高极低功耗,低需求应用的性能。高手谷歌的公司真正调整了他们的技术,以便为他们的特定利基做最好的工作。 张量处理单元的功率将被浪费在除数据中心的高性能,高功率环境之外的任何其他地方。

通过这项研究,Nvidia试图证明一种技术在所有这些情况下都可以很好地运行。或者至少它可以在多芯片模块中与Nvidia的网状网络连接在一起。事实上,多个集成电路可以被视为一个大型IC。它们正变得越来越流行,因为它们允许系统可以包含在几个小芯片中 - 通常称为小芯片-而不是c。

“多芯片模块选项不仅对于未来可扩展的[深度学习]加速器具有很多优势,而且对于构建具有不同功能的加速器的产品版本具有很多优势,”Dally解释道。

GRS利用Nvidia多芯片模块绑定到新深度学习芯片的能力之间的差异,作为使用称为地参考信号的技术的芯片间网络。它可以使用单根线传输25千兆位/秒,而大多数技术都需要配对这些线。更重要的是,GRS的功耗仅为每比特的微笑。

“这是我们开发的一种技术,基本上可以选择在有机基板上构建多芯片模块,作为硅中介层的一个机会,这是一种更昂贵的技术,”Dally说。

Dally说他们已经完成了该芯片的TOPS / W版本。“我们相信我们可以做得更好,”他说。渴望找到加速技术,使VLSI原型的9.09 TOPS / W达到200 TOPS / W,同时仍然可扩展。

· 2019-07-04 23:19  本新闻来源自:ieee,版权归原创方所有

阅读:995

上一篇:« « 边缘复杂性为5G增长

下一篇:« « 安全是成功的奇怪之路

  • 联系长芯

    重庆总部:重庆市长寿区新市街道新富大道5号佳禾工业园8栋2层
    电话:023 40819981 (前台)

    深圳办事处:深圳市南山区留仙大道 1213 号众冠红花岭工业南区 2 区 1 栋 1 楼
    电话:0755-26975877 (前台)

    电子邮件:sales@longcore.com

    网址:http://www.longcore.com