华为云全球首发GPU共享型AI容器 加速“普惠AI”落地

2018-08-28 17:07:46爱云资讯

8月28日,“AI上有信仰的云——华为云中国行2018”成都站如期举行。华为云全球首家推出了GPU共享型高性能AI容器,这是继裸金属容器、Windows容器等重大特性之后,华为云在容器领域的又一次技术突破,将极大地推动AI技术的普及,助力“普惠AI”策略加速落地,为广大用户提供“用的起、用的好、用的放心”的AI云平台。

大会期间,华为公司副总裁、华为云BU总裁郑叶来到会致词。郑叶来认为,Cloud2.0时代,企业要实现快速发展,要关注三个方面:第一,各行各业走向云服务时要坚定不移地构建自己的生态,坚守自己的数据主权,这样才可能持续的发展。第二,要将服务客户隐私安全要作为企业的最高纲领。第三,坚持构筑自己的品牌。品牌是打出来的,一个企业构筑自己的品牌,既要提供有竞争力的产品和差异化竞争力,也要构建自己通达客户的手段,即电商平台。通过打造自己的电商平台,做好线上线下的融合,同时将电商平台打造成自身品牌的门户与品牌战场,企业才能不受别的平台影响,焕发品牌的生命力。



华为公司副总裁、华为云BU总裁郑叶来

当下,人工智能已成为各行各业的热点和趋势,在实际应用中,企业在不断追求各类AI计算场景下性能和成本的极致体验。容器以其独特的技术优势,已经成为业界主流AI计算框架(如Tensorflow、Caffe)的核心引擎。华为云为了进一步解决企业在AI计算性能与成本上面临的问题,为企业量身打造了AI容器产品。



华为EBG中国区行业云拓展部部长胡维琦现场发布GPU共享型AI容器

华为云AI容器是全球首款支持共享GPU的高性能容器产品,在业界首家实现了多容器共享GPU资源,大幅降低了AI计算的成本,并在AI计算性能上比通用方案提升了3-5倍以上。



极致性能。裸金属NUMA架构与高速IB网卡,性能提升3-5倍

在典型的深度学习模型训练场景下,需要传输和处理海量的数据。通常的方案由于系统吞吐量的限制,往往会让GPU等待数据,导致计算效率低下,训练时间较长。

华为云AI容器运行在高性能的裸金属服务器上,并通过NUMA架构和100G IB网卡实现高速、低延迟的大数据量传输,让GPU充分发挥大规模并行计算的优势,从而大幅缩短训练的时间。经实践验证,深度学习训练对比传统GPU加速方式能够进一步提升3~5倍。

高效计算。GPU资源多容器共享调度,计算成本大幅降低

业界通常的方案中,单块GPU只能被单个容器所占用,使得昂贵的GPU资源无法被充分利用。华为云通过优化K8S容器调度引擎,能够为容器中的AI计算任务分配更细粒度的GPU资源,实现多个AI计算任务共享GPU,在部分AI计算如推理类场景中能够实现更高的资源利用率,从而大幅降低AI计算成本。

成熟应用。主流GPU型号全适配,并在华为云EI产品大规模使用

华为云AI容器已完成多款主流GPU的适配,包括Nvidia Tesla P4/P100/V100等产品系列,客户可根据不同应用场景灵活选取,以达到最高的性价比。

华为云AI容器支持Tensorflow、Caffe等主流深度学习框架,并在华为云EI的深度学习、推理平台、人脸/图像/文字识别等多个服务得到广泛应用与验证。目前正式面向华为云客户提供该项服务,让客户轻松获得强劲、高效的AI计算引擎。

目前AI容器已在华为云的CCE容器服务中开展公测,您可以访问以下地址申请试用:

https://console.huaweicloud.com/cce2.0/#/app/resource/cluster/list?type=GPU

HUAWEI CONNECT 2018作为华为自办的面向ICT产业的全球性年度旗舰大会,将于2018年10月10日-12日在上海隆重举行。本届大会以“+智能,见未来”为主题,旨在搭建一个开放、合作、共享的平台,与客户伙伴一起共同探讨如何把握新机遇创造智能未来。欲了解更多详情,请参阅:

https://www.huawei.com/cn/press-events/events/huaweiconnect2018?ic_medium=hwdc&ic_source=corp_banner_allwayson&source=corp_banner
相关文章
热门文章
头条文章
重点文章
推荐文章
热点文章
关于我们|联系我们|免责声明|会展频道
冀ICP备2022007386号-1 冀公网安备 13108202000871号 爱云资讯 Copyright©2018-2023