您的位置:首页>AI>

Cerebras CS-1通过比任何其他芯片更快的来计算深度学习AI问题

如今,深度学习已成为企业界的热门话题,并且不难理解为什么。无论是优化广告支出,寻找治疗癌症的新药,还是仅向客户提供更好,更智能的产品,机器学习(尤其是深度学习模型)都具有大规模改进一系列产品和应用的潜力。

不过关键字是“潜力”。尽管过去几年我们在企业会议上听到了关于深度学习的大量言论,但要广泛使用这些技术仍然存在巨大障碍。深度学习模型是高度网络化的,节点的密集图与计算机处理信息的传统方式不太“匹配”。另外,拥有深度学习模型所需的所有信息可能占用PB级的存储空间,并在处理器机架上占用大量空间才能使用。

目前有很多方法可以解决此下一代计算问题,而Cerebras必须是最有趣的方法之一。

正如我们在8月份发布公司的“晶圆级引擎”(该公司提供的全球最大的硅芯片)时所谈到的那样,塞雷布拉斯的理论是,深度学习的方向实质上就是将整个机器学习模型装在一块大芯片上。因此,该公司的目标是做大—确实做大。

今天,该公司宣布推出其最终用户计算产品Cerebras CS-1,并宣布了其第一位客户Argonne国家实验室。

CS-1是“完整解决方案”产品,旨在添加到数据中心以处理AI工作流。它包括Wafer Scale Engine(或Was Scale Engine,即WSE,即实际的处理核心),以及将处理器集成到数据中心所需的所有冷却,联网,存储和其他设备。它的高度为26.25英寸(15个机架单元),包括40万个处理核心,18 GB的片上内存,每秒9 PB的片上内存带宽,12 GB的以太网连接,用于将数据移入CS-1和移出CS-1。系统,仅消耗20千瓦的功率。

Cerebras声称CS-1可以提供超过1000个领先GPU的性能-尽管TechCrunch尚未对此进行验证,但我们仍在等待测试人员在接下来的几个月中等待行业标准基准测试。

除了硬件本身,Cerebras还宣布发布了一个全面的软件平台,该平台使开发人员可以使用TensorFlow和PyTorch等流行的ML库将其AI工作流程与CS-1系统集成。

在设计系统时,首席执行官兼联合创始人安德鲁·费尔德曼(Andrew Feldman)表示:“过去一年多的时间里,我们已经与100多个客户进行了交谈,”以确定对新AI系统和软件层的需求。在它上面。“多年来,我们了解到,您想与他们所在的软件社区见面,而不是要求他们搬到您那里。”

我问费尔德曼,为什么公司要重建这么多的硬件来为其系统提供动力,而不是使用现有组件。“如果要制造法拉利发动机并将其安装在丰田车上,就无法制造赛车,”费尔德曼类比。“在Dell或[其他]服务器中放置快速芯片不会进行快速计算。Feldman解释说,CS-1旨在采用基础的WSE芯片,并为其提供使其能够发挥其全部功能所需的基础结构。

免责声明:本文由用户上传,如有侵权请联系删除!