您的位置:首页>AI>

WekaIO推出适用于数据匮乏的GPU的DataOps AI管道

高性能文件存储专家WekaIO今天推出了Weka AI,这是一种DataOps“存储解决方案框架”,旨在减少边缘核心云数据AI管道中的摩擦。

该公司表示,该产品启用了单个名称空间来实现数据管道可见性,同时满足了AI数据管道各个阶段对存储IO的各种要求:用于摄取和培训,需要大带宽,而ETL需要混合读写(提取,转换,负载)和低延迟是推理的优先级。

Weka AI属于“ DataOps”类别,它是DevOps的分支,行业分析公司IDC企业基础架构实践研究总监Amita Potnis称其为“新型智能数据操作平台……可以减少摩擦,提高自动化效率。并通过策略和元数据驱动的流程提供灵活性和开放性,这些流程可以适应现代环境中数据的多样性和分布。”

WekaIO表示,由Weka文件系统,可定制的参考体系结构和基于与Nvidia和Mellanox合作的软件开发套件组成,Weka AI为单个GPU客户端提供了超过73 GB /秒的带宽,并补充说,它提供了“操作敏捷性”具有版本控制,可解释性和可重复性,并提供管理和合规性以及在线加密和数据保护。”

该公司表示:“ AI数据管道与传统的基于文件的IO应用程序本质上是不同的。” 因此,理想的解决方案必须满足所有这些不同的要求,并及时提供大规模的见解。传统解决方案缺乏这些功能,并且常常无法满足跨角色和数据移动性要求的性能和共享性……这些解决方案必须提供数据管理,以通过打破孤岛来提供运营敏捷性,治理和可操作的情报。”

纵观整个数据管道格局,WekaIO的AI和战略联盟负责人Shailesh Manjrekar 在博客中表示:“为了迎合复杂的DNN(动态神经网络)以及HPC,HPDA和AI,架构的融合诸如GPUDirect存储之类的东西对于直接提供GPU内存变得至关重要,它可以提供最高的带宽和最低的延迟。与SuperPOD共享用于64个DGX-2(5,000核x 16特斯拉x 64 DGX-2)的分布式培训的数据集已成为常态。想象一下在计算层涉及的并行性。NVMeOF(通过InfiniBand或RoCE Fabrics)之类的传输使数据本地性成为问题,尤其是对100 Gb / sec和200 Gb / sec网络的支持。”

Nvidia加速计算产品管理总监Paresh Kharya表示:“要实现AI的端到端应用程序性能,就必须为高性能NVIDIA GPU提供高吞吐量的数据管道。“ Weka AI利用GPUDirect存储在存储和GPU之间提供直接路径,消除了数据密集型AI应用程序的I / O瓶颈。”

免责声明:本文由用户上传,如有侵权请联系删除!