设为首页 - 加入收藏 ASP站长网(Aspzz.Cn)- 科技、建站、经验、云计算、5G、大数据,站长网!
热搜: 创业者 手机 数据
当前位置: 首页 > 站长资讯 > 传媒 > 正文

不断赋能HPC与AI Mellanox以创新技术革新网络计算技术

发布时间:2019-11-15 11:16 所属栏目:18 来源:站长网
导读:副标题#e# 至顶网计算频道 11月14日 新闻消息(文/李祥敬):近日,以智能时代算力赋能为主题的首届中国超级算力大会在北京召开,此次大会由中国大数据与智能计算产业联盟、ACM SIGHPC China共同主办。本次大会汇集了国内外院士、知名学者和产业大咖,围绕

至顶网计算频道 11月14日 新闻消息(文/李祥敬):近日,以“智能时代·算力赋能”为主题的首届中国超级算力大会在北京召开,此次大会由中国大数据与智能计算产业联盟、ACM SIGHPC China共同主办。本次大会汇集了国内外院士、知名学者和产业大咖,围绕高性能计算技术的研究成果、人工智能的进一步发展,应用创新等主题,探讨行业发展趋势与应用实践经验,促进产、学、研各界的深度合作,推动中国高性能计算技术与应用的发展。

随着计算智能时代的发展,大数据、超级云计算和深度学习算法的融合创新,已然成为计算智能时代发展的三驾马车。数据与计算不仅在各个领域研究发挥着重要作用,同时也将对各行各业的数字化转型的发展起到不可或缺的推动作用。

赋能新一代全球高性能计算和人工智能超级计算机

不断赋能HPC与AI Mellanox以创新技术革新网络计算技术

Mellanox市场部高级副总裁Gilad Shainer表示,不管是高性能计算还是人工智能都是一个系统工程,不存在单一的技术瓶颈。现在不管是处理器还是存储、网络等都处于变革期,这为HPC和AI的发展创造了有利的条件。

Mellanox网络以技术创新为驱动,赋能全球最快的前10台的超级计算机之6台, 包括美国最快、中国最快和日本最快超级计算机。Mellanox HDR InfiniBand网络已被广泛使用与世界各国的多台超级计算机中,包括微软Azure公有云的HPC云中。

InfiniBand是一种基于开放标准的互连技术,可在保持向后和向前软件兼容性的同时,不断开发新的功能。InfiniBand是全球领先的超级计算机的首选互连技术,取代了性能较低或专用的互连方案。“我们的HDR InfiniBand解决方案为全球的超级计算机提供高速连接,增强了科学研究与发现的速度,并推进了百亿亿级 (Exascale) 超级计算的计划。”Gilad说。

Gilad说,以数据为中心是网络计算的核心,网络计算包括了从互连、网络、通信和应用的各层面,发展前景广阔。Mellanox是唯一一家提供200Gb/s端到端网络的公司,所有200G产品都支持网络计算技术。“连接技术非常重要,不管是PCIE 4.0还是InfiniBand,以及CXL等连接协议加速了数据的流动。”

Mellanox HDR 200G InfiniBand解决方案包括ConnectX-6网卡、Mellanox Quantum交换机、LinkX线缆和光模块,以及软件包。凭借其最高的数据吞吐量、极低的延迟和智能的网络计算加速引擎,HDR InfiniBand可为要求最苛刻的计算和数据应用提供世界领先的性能和可扩展性。

更智能和快速内部连接对于未来高性能计算和人工智能的发展起到了至关重要的作用,而Mellanox网络计算技术成为解决目前HPC和AI超级计算机的性能和扩展性的关键技术。Mellanox智能网卡将Mellanox网络的应该扩展到了更广阔的领域,可以实现计算机中的计算机。

比如最新的Mellanox ConnectX-6 Dx和BlueField-2是新一代云SmartNIC和I/O处理单元(IPU)解决方案,在Mellanox高性能云网络基础之上,ConnectX-6 Dx和BlueField-2在关键应用中引入了硬件加速引擎和卓越的软件编程能力。不仅可提升超大规模数据中心、企业和电信环境的安全性和效率,还能使实现高投资回报率(ROI)。

ConnectX-6 Dx SmartNIC可提供两个25、50或100Gb/s端口或者单个200Gb/s端口,其以太网卡使用了50Gb/s的PAM4 SerDes技术和通过PCIe 4.0连接到主机。ConnectX-6 Dx创新的硬件卸载引擎,可支持IPsec和在线TLS动态数据加密、先进的网络虚拟化、RDMA over Converged Ethernet(RoCE)和NVMe over Fabrics(NVMe-oF)存储加速等。

而BlueField-2 IPU在一个System-on-Chip(SoC)上, 集成了ConnectX-6 Dx的所有高级功能,Arm处理器阵列、高性能内存接口及各种灵活处理功能,支持高达200Gb/s的以太网和InfiniBand接口。基于BlueField-2的嵌入式控制器是构建经济高效的闪存、安全、物联网和边缘计算平台的理想之选。BlueField-2 SmartNIC可充当协处理器,相当于在计算机中内嵌另一台计算机,运用先进的软件定义网络技术、NVMe SNAP存储解聚技术和增强型安全功能可实现裸金属环境和虚拟化环境的转换。此外,BlueField-2可在云上或网络边缘运行AI应用时实现无与伦比的性能和效率。

Gilad表示,基于EDR和HDR InfiniBand的Mellanox LongReach远距离连接方案和Skyway InfiniBand/以太网网关即将面世。新型的网络拓扑为解决未来E级机扩展问题提供了新的思路,Mellanox网络计算技术已经在网络利用率、系统性能、系统健壮性上显现了出色的性能。InfiniBand 400G NDR产品将会在2020年面世,800G XDR产品将在随后的2年内面世。“更多的网络计算技术将会被集成到新产品中。”

多方共举 RDMA技术不断演进受关注

在首届中国超级算力大会上,致力于高性能计算(HPC)和人工智能(AI)技术研究、教育和推广的国际HPC-AI咨询委员会(HPC-AI Advisory Council),携手中国大数据与智能计算产业联盟在大会上举办了关于容器环境下的RDMA应用及优化研讨会。

HPC-AI咨询委员会是一家非盈利性国际组织,成立于 2008 年,拥有400多名成员,致力于HPC-AI技术的教育与推广。成员间共享专业知识,建立特殊兴趣小组,并通过技术中心宣传HPC和AI技术的优势与应用,探索未来发展方向。该咨询委员会主办了多次全球性年度会议和STEM挑战赛(包括中国的大学生RDMA编程竞赛和德国的大学生集群竞赛)。

作为国际高性能计算及人工智能咨询委员会(HPC-AI Advisory Council)主席,Gilad表示,目前全球数据量正在飞速增长,我们面临巨大的计算挑战,现有的CPU无法满足人们的计算需求。“当前,我们正在从以计算为中心切换到以数据为中心。数据中心架构从以CPU为核心到以数据为中心,网络计算成为突破口。而RDMA技术受到了互联网以及云计算提供商的青睐,成为云服务确保高性能的保障。目前RDMA不仅仅限于数据中心内部,已被扩展到从云端到边缘。”

同时,2019亚太区大学生RDMA编程挑战赛颁奖典礼也盛大举行。做为高性能计算领域领先的研究和教育组织,国际HPC-AI咨询委员会面向亚太区大学生发起了第七届RDMA编程挑战赛(The 7th Student RDMA Programming Competition),旨在为在校大学生及已经毕业的学生提供学习RDMA,并成为RDMA编程高手的绝佳机会。

(编辑:ASP站长网)

网友评论
推荐文章
    热点阅读