400-0715-088

当前位置:首页 > 新闻中心 > 行业动态
科普:火遍全网的 DPU 究竟是什么
发布时间:2023-03-06 02:39:24 来源:澳网官网

  不论你是否身处 ICT 职业,这两年有一个词你必定听说过,那便是 DPU 。

  作为一个全新鼓起的科技概念,DPU 正在以惊人的速度兴起,成为整个职业乃至整个社会的重视要点。尤其是出资范畴,对 DPU 简直是竞相追逐,将其视为未来推翻职业的潜力技能。

  英伟达首席执行官黄仁勋曾在讲演中表明:“ DPU 将成为未来核算的三大支柱之一,未来的数据中心标配是‘ CPU + DPU + GPU ’。CPU 用于通用核算,GPU 用于加快核算,DPU 则进行数据处理。”

  听着有点晕,DPU 究竟进行什么样的数据处理?有了 CPU 和 GPU ,为啥还要 DPU ?

  这是一个以核算和存储为中心的架构,CPU 作为处理器单元,担任完结各种算术和逻辑核算。而内存(运存)和硬盘(外部存储),担任存储数据,与 CPU 交互。

  除了 CPU 、内存和硬盘之外,便是键盘、显示器这样的输入和输出设备。跟着时刻的推移,后来,咱们有了鼠标,又有了显卡、网卡。终究,构成了现在咱们看到的电脑的根本结构。

  有了显卡,就有了 GPU(Graphics Processing Unit),图形处理器。咱们都玩过游戏,很理解,正是游戏、 3D 规划等多媒体图形软件的高速开展,要处理的作业量越来越大,也越来越杂乱,CPU 真实忙不过来,所以就有了专门进行图画和图形相关运算作业的 GPU ,分管 CPU 的压力。

  DPU 的呈现,道理也是相同的。相同是因为 CPU 难以担负一些杂乱的核算,所以需求进行使命分工。

  好了,总算到了要害点了。说了半天,DPU 究竟分管了 CPU 的哪些作业呢?

  说实话,想要从技能上解说 DPU 分管的作业内容,略微有点困难,不容易看懂。可是,咱们能够从作业场景上进行解说。

  大致来看,DPU 分管的作业能够概括为四个要害词,分别是虚拟化、网络、存储以及安全。

  特别需求提示咱们,DPU 是一个严密环绕数据中心的概念。也便是说,它首要用于数据中心这种大规模算力场景,而非咱们每个人的台式机、笔记本电脑或手机(至少现在不是)。

  DPU 服务于云核算,首要效果是提高数据中心等算力根底设施的功率,削减能耗糟蹋,然后降低成本。

  前面说到的虚拟化、网络、存储以及安全,是数据中心非常重要的作业,也是很多耗费算力资源的作业。

  在数据中心里,时时刻刻都有很多的数据在进行传输。主机在收发数据时,需求进行海量的⽹络协议处理。依据传统的核算架构,这些协议处理都是由 CPU 完结的。

  有人核算过,想要线G 的⽹络,需求的⼤约 4 个 Xeon CPU 的核。也便是说,仅仅是进行⽹络数据包的处理,就要占用⼀个 8 核⾼端 CPU ⼀半的算⼒。现在数据中心网络不断晋级,从 10G 到 40G 、 100G ,乃至 400G ⾼速⽹络,这些功用开支怎么接受?

  这些开支如此之大,以至于被称为“ Datacenter Tax(数据中心税)”。

  事务程序没有运转,仅是接入网络数据,就耗费了这么多算力资源,这是无法忍受的。所以,就有公司提出了SmartNIC (智能网卡)的概念,将网络协议处理的作业从 CPU “卸载”到网卡上,以此分管 CPU 的负载。

  2015 年,云核算厂商 AWS 首先开端探究这种 SmartNIC 形式。他们收买了芯片厂商 Annapurna Labs ,并于 2017 年正式推出 Nitro 体系。同年,阿里云也官宣了有相似功用的神龙( X-Dragon )架构。

  从此,DPU 这个概念正式进入了大众视界。2020 年,也被称为 DPU 元年。

  DPU 在 SmartNIC 的根底上,将存储、安全和虚拟化等作业负载也从 CPU 卸载到自己身上。

  上世纪 90 时代末,以 VMWare 为代表的虚拟化技能刚刚呈现的时分,完全是由软件进行模仿线的,缺少硬件的支撑,所以,功用很差,简直难以使用。

  后来,2005 年,跟着技能的演进,CPU 和内存的硬件虚拟化问题逐步处理,才让虚拟化体系的功用有了大幅的提高,也激活了这项技能的开展前景和价值。众所周知,咱们现在的整个云核算架构,都是依据虚拟化技能开展起来的。

  虚拟化技能开展的进程,是硬件才干不断替代软件才干的进程。前面咱们说到 AWS 发布 Nitro 体系。这个体系除了 SmartNIC 之外,也完结了 I / O 的硬件虚拟化。它还将虚拟化办理程序 Hypervisior 从 CPU 卸载到专用硬件上。这样做带来的成果便是,虚拟化技能的功用损耗趋近于零,CPU 的担负进一步下降。

  现在数据中心对存储读取和写入的速率要求很高。SSD 价格逐步下降后,将 SSD 通过本地 PCIe 或高速网络与体系相连接,成为了一种干流的技能道路。针对分布式体系,在以往 InfiniBand 、 FC(Fiber Channel,光纤通道)、 Ethernet 的根底上,RDMA(Remote Direct Memory Access,长途直接数据存取)技能开端盛行。

  在 RDMA 形式中,使用程序的数据,不再通过 CPU 和杂乱的操作体系,直接和网卡通讯。这就意味着,DPU 能够承当存储相关的高速接口规范协议处理,进一步为 CPU 分管压力。

  在现在越来越严峻的安全形势下,为了保证网络和体系的安全可靠,引入了很多的加密算法。以往,这些算法都是由 CPU 担任完结加密和解密的。

  但事实上,网络接口才是最理想的隐私鸿沟。在网络接口上进行加密和解密,才是最合理的。所以,像国密规范的非对称加密算法 SM2 、哈希算法 SM3 和对称分组暗码算法 SM4 等,其实都能够交给 DPU 进行核算。未来,区块链技能老练使用后,相关算法也是能够从 CPU 卸载到 DPU 进行的。

  综上所述,咱们应该也看理解了,DPU 的效果实质,便是卸载、加快和阻隔 —— 把 CPU 的部分作业卸载到自己身上;使用自己的算力专长,对这些作业进行加快运算;整个进程,完成了核算的阻隔。

  DPU 是一个新式可编程多核处理器,是一块 SoC(System On Chip)芯片。它契合职业规范,具有很高的算力,还具有高功用的网络接口,能高速解析、处理数据,并高效地将数据传输到 CPU 和 GPU 。

  DPU 和 CPU 的最大不同,是 CPU 拿手通用性核算使命(什么使命都能接,比较“杂”),而 DPU 更拿手根底层使用使命(做特定的使命,比较“专心”),例如网络协议处理,交流路由核算,加密解密,数据压缩等“脏活累活”。

  所以说,DPU 是 CPU 的一个好帮手,将与 CPU 、 GPU 构成“铁三角”,完全推翻数据中心的运算形式。

  正如本文最初所说,DPU 现在的火爆程度,现已不能用词语来描述。本钱关于 DPU 的热心,更是令人形象深入。不论是巨子仍是草创公司,都纷繁入局 DPU 赛道。DPU 的商场仍在升温,开展前景可期。

  这是首款为 AI 和加快核算而规划的 DPU ,针对多租户、云原生环境进行了优化,供给数据中心级的软件界说和硬件加快的网络、存储、安全和办理等服务。

  据称,一个 BlueField-3 DPU 所供给的数据中心服务,可相当于多达 300 个 x86 核才干完成的服务。这就释放了很多的 CPU 资源,用于运转要害事务使用。

  要想发挥 DPU 在现代数据中心的中心价值,离不开软件的加持。换句话说,没有软件的芯片,仅仅贵重的沙子。

  为了构建更为强壮的 DPU 生态,英伟达专门推出了给 BlueField DPU 量身打造的软件开发渠道 ——NVIDIA DOCA。

  凭借 DOCA 1.4 版别,开发者能够更灵敏、更简略、更方便地在 BlueField DPU 上进行开发环境的搭载,然后敏捷推出新产品。

  依据猜测,到 2025 年,DPU 全球商场容量估计将到达 120 亿美金。

  跟着摩尔定律逐步进入瓶颈,为了更高效地使用算力资源,咱们需求大力开展 DPU ,让 CPU 、 GPU 、 DPU 进行合理分工,各自愈加专心于自己拿手的作业。这样,咱们才干将数据中心的能效发挥到最大,为整个社会的数字化转型供给微弱且绿色的动力。

返回上一页
澳网官网