当前位置: > 财经>正文

什么是FPGA,有什么用处? 中国的外汇有什么用途和作用

2023-07-24 13:22:33 互联网 未知 财经

什么是FPGA,有什么用处?

 

什么是 FPGA

FPGA(Field-Programmable Gate Array),即现场可编程门阵列,它是在 PAL、GAL、CPLD 等可编程器件的基础上进一步发展的产物。它是作为专用集成电路(ASIC)领域中的一种半定制电路而出现的,既解决了定制电路的不足,又克服了原有可编程器件门电路数有限的缺点。

FPGA 和 CPLD 的主要区别

早在 1980 年代中期,FPGA 已经在 PLD 设备中扎根。CPLD 和 FPGA 包括了一些相对大数量的可编辑逻辑单元。CPLD 逻辑门的密度在几千到几万个逻辑单元之间,而 FPGA 通常是在几万到几百万。

CPLD 和 FPGA 的主要区别是他们的系统结构。CPLD 是一个有点限制性的结构。这个结构由一个或者多个可编辑的结果之和的逻辑组列和一些相对少量的锁定的寄存器组成。这样的结果是缺乏编辑灵活性,但是却有可以预计的延迟时间和逻辑单元对连接单元高比率的优点。而 FPGA 却是有很多的连接单元,这样虽然让它可以更加灵活的编辑,但是结构却复杂的多。

CPLD 和 FPGA 另外一个区别是大多数的 FPGA 含有高层次的内置模块(比如加法器和乘法器)和内置的记忆体。因此一个有关的重要区别是很多新的 FPGA 支持完全的或者部分的系统内重新配置。允许他们的设计随着系统升级或者动态重新配置而改变。一些 FPGA 可以让设备的一部分重新编辑而其他部分继续正常运行。

CPLD 和 FPGA 还有一个区别:CPLD 下电之后,原有烧入的逻辑结构不会消失;而 FPGA 下电之后,再次上电时,需要重新加载 FLASH 里面的逻辑代码,需要一定的加载时间。

FPGA 工作原理

FPGA 采用了逻辑单元阵列 LCA(Logic Cell Array)这样一个概念,内部包括可配置逻辑模块 CLB(Configurable Logic Block)、输出输入模块 IOB(Input Output Block)和内部连线(Interconnect)三个部分。

与传统逻辑电路和门阵列(如 PAL,GAL 及 CPLD 器件)相比,FPGA 具有不同的结构,FPGA 利用小型查找表(16&TImes;1RAM)来实现组合逻辑,每个查找表连接到一个 D 触发器的输入端,触发器再来驱动其他逻辑电路或驱动 I/O,由此构成了既可实现组合逻辑功能又可实现时序逻辑功能的基本逻辑单元模块,这些模块间利用金属连线互相连接或连接到 I/O 模块。

FPGA 的逻辑是通过向内部静态存储单元加载编程数据来实现的,存储在存储器单元中的值决定了逻辑单元的逻辑功能以及各模块之间或模块与 I/O 间的联接方式,并最终决定了 FPGA 所能实现的功能,FPGA 允许无限次的编程。

FPGA 在下一代网络架构中的重要意义

这里将着重讨论 FPGA 在诸如 NFV 等虚拟网络架构中的作用和意义。

电信网络是 NFV 的一个主要应用场景,它出现的最直接的动因之一就是为了支持指数级的带宽增长。据预测,五年后全球的 IP 流量将较今日增长超过 3 倍。在万物互联的今天,尤其是 5G、物联网、自动驾驶等技术已经成为各大公司争夺的焦点之时,各种设备和服务都需要电信网络及其数据中心进行处理和支持。然而,传统的电信基础架构和数据中心很难进行有效的扩展,其主要原因有以下两点:

硬件层面:传统电信网络基础架构使用的是各类专用硬件设备,如各类接入设备、各层交换机、路由器、防火墙、QoS 等。这样做的问题有很多,例如,不同设备之间的兼容性差、维护升级困难、容易造成供应商垄断从而大幅提高成本、若需要加入新功能则要开发新硬件设备等等。

软件层面:不同设备都需要各自对应的软件进行配置和控制,从而难以在管理员层面进行大范围统一部署和配置,且需要学习来自不同供应商和规格的设备的软件配置方法。若某些网络功能通过软件实现,传统的实现方法中对服务器的有效利用率很低,且无法进行服务的动态迁移,等等。

因此,虚拟化技术 - 更具体而言,网络功能虚拟化 NFV 技术,逐渐成为各大运营商解决上述问题的有效途径。欧洲电信标准协会(ETSI)关于 NFV 比较有名的示意图如下所示。

总体而言,和传统方法相比,NFV 利用通用的服务器(大多是基于英特尔 x86 处理器)、通用的存储设备、以及通用的高速以太网交换机,实现传统电信网络基础架构的各种网络功能。具体而言,就是将网络功能在通用服务器中用软件实现,数据使用通用的存储设备存储,网络流量通过通用的网卡和高速交换机进行转发。这样理论上能很好的解决上述硬件层面的问题:使用通用设备而非专用设备,提高了数据中心的可扩展能力,不会被某个供应商制约,反而会通过开放竞争减少硬件采购和部署的成本。

另外,借助虚拟化技术,将网络功能在不同虚拟机中实现,这样理论上能解决软件层面的问题:即某个特定应用不会占用服务器的全部资源,反之,一个服务器可以同时运行多个虚拟机或网络服务。同时,虚拟机在数据中心的扩展和迁移也更加方便,不会造成服务下线或中断。

NFV 和另外一项技术:软件定义网络(Software Defined Network - SDN)经常一起出现。它们的一个主要的核心思想就是将网络的控制面和转发面进行分离。这样,所有的数据转发面设备都可以同时被控制、配置、管理,从而避免了管理员需要分别配置每个网络设备的低效情形。

引用一下《中国电信 CTNet2025 网络架构白皮书》的话:

“从更好的适应互联网应用的角度出发,未来网络架构必须要求网络能力接口的开放和标准化,通过软件定义网络技术,能够实现面向业务提供网络资源和能力的调度和定制化,同时为进一步加速网络能力的平台化,还需要提供网络可编程的能力,真正实现网络业务的深度开放。”

请注意,在之前的表述中我使用了很多“理论上”怎样怎样,这是由于上面关于 NFV 的优点很多都是人们美好的想象和愿景。在实际的工程实践中,设计实现有效的 NFV 架构面临着很多问题。例如,不同的应用场景中,网络负载的种类五花八门,而很多应用都需要进行线速的处理,如 QoS 和流量整形(之前的博文介绍过)、VPN、防火墙、网络地址转换、加密解密、实时监控、深度包检测(DPI)等等。即使有 DPDK 等专用的软件开发库,目前单纯使用软件实现这些网络服务的线速处理,在技术上存在很大困难,且用软件实现的网络功能在性能上很难和专有硬件相比。这样一来,人们会反过来质疑使用 NFV 的出发点和动机。同时,鉴于 NFV 仍处于方案探讨和摸索阶段,很多相关的协议和标准还没有确定,这也在一定程度上使很多企业犹豫是否要投入大量资源去进行前期的探究工作。

因此,如何有效的实现这些虚拟化的网络功能(Virtualized Network FuncTIon - VNF),是我们前阶段的主要工作和这篇白皮书主要探讨的问题。

 

虚拟网络功能(VNF)的有效实现

在这里,实现虚拟网络功能的“有效性”主要体现在以下几个方面:

1.VNF 必须非常灵活、便于使用;

2. 容易大规模扩展,不局限于某种应用场景或网络;

3. 性能方面应该不低于,甚至高于专用硬件。

介于此,白皮书中给出了几个有潜力的发展方向以供参考:

1. 控制面和转发面的分离和独立扩展。

2. 设计并优化、标准化拥有可编程能力的转发面。

在电信网络的应用场景中,NFV 的一个典型应用就是虚拟化的宽带远程接入服务 vBRAS,即 virtual broadband remote access server,又被称为 vBNG,即 virtual broadband network gateway。在 vBRAS 中可能包含很多虚拟网络功能,例如远程用户拨入验证服务(Remote AuthenTIcaTIon Dial-In User Service, RADIUS)、动态主机设置协议(Dynamic Host Configuration Protocol,DHCP),以及之前提过的 DPI、防火墙、QoS 等。

一个重要的发现是,这些网络应用从计算资源的需求上可以分成两类。一类不需要大量的计算资源,如 RADIUS 和 DHCP。同时这类应用很多属于控制平面。因此这类应用很适合直接放在控制平面,并且有很好的纵向和横向的扩展性,也很适合用通用的计算和存储设备进行实现。

另一类应用往往需要很大的计算能力,如流量管理、路由转发、数据包处理等,且通常需要在线速下(如 40Gbps、100Gbps 或更高)进行处理。这类应用往往属于数据平面。对于数据平面而言,它还需要支持很多种计算量很大的网络功能,这样才能区别于使用专有硬件,符合 NFV 技术的初衷。综上而言,数据平面应该具备以下两点主要能力“

1. 能线速进行高吞吐量的复杂数据包处理;

2. 同时支持多种网络功能,具有很强的可编程能力。

然而,如果直接使用软件方法实现,这两点功能很难同时满足。因此我们采用了 FPGA 作为智能硬件加速平台,很好的同时解决了处理速度和可编程性两个问题。首先,FPGA 相比纯软件方法,在数据包处理上拥有着绝对优势的硬件并行性能,因此被用作硬件加速器使用。其次,相比于传统的专有硬件设备,FPGA 拥有灵活的可编程能力,可以支持各种应用的实现。

虚拟宽带远程接入服务:从 BRAS 到 vBRAS 的演进

图 1:vBRAS 的演化

上图为我们展示了传统 BRAS 逐步演进到 vBRAS 的三个主要过程:

1. 第一阶段,传统的 BRAS 使用专用设备,且控制面和转发面紧耦合。图中可以看到控制路径和数据路径是相互重合的。

2. 第二阶段,采用了虚拟化技术,且采用了服务器取代了专用 BRAS 设备,使用软件和虚拟机实现多个 vBRAS。但同时也可以看到,此时控制面和转发面还是相互耦合实现。由于两者性能差别很大,这种实现方式很容易造成数据通路的性能瓶颈,或因数据通路流量过大而占用了控制面的带宽。反之,控制面的流量会影响数据面的线速包处理的能力。

3. 第三阶段,采用虚拟化技术,且控制面和转发面相互分离。从图中可以看到,控制面和转发面由两个服务器分开实现,控制流量和转发流量相互不影响。此外,控制流量能在数据 / 转发服务器和控制服务器之间双向流动,实现控制面对转发面的控制。

这第三个阶段就是目前英特尔、HPE 和中国电信北研院联合研发的最新成果。接下来就详细讲解其技术细节。

高性能 vBRAS 的设计方法

设计实现上述第三阶段中高性能的 vBRAS 方案,需要分别实现 vBRAS-c (control) 和 vBRAS-d (data),即 vBRAS 控制设备和 vBRAS 数据设备。这两类设备都应该使用标准化的通用服务器实现。此外,对于 vBRAS 数据设备而言,需要针对计算量庞大的应用进行专门的优化和加速,使其能进行高吞吐量、低延时的数据包处理。

下图展示了本应用实例中,vBRAS-c 和 vBRAS-d 的设计方法。

图 2:vBRAS 的转控分离架构

对于 vBRAS-c 节点,其重要的设计思想就是轻量化和虚拟化,使其方便在数据中心或云端进行扩展和移植,同时可以分布式实现,以控制多个数据平面节点。因此在本例中,vBRAS-c 由一个独立的 HPE DL380 服务器实现。DL380 服务器中包含两个 CPU 插槽(socket),每个插槽中均有一块 14 核的 Xeon 处理器。服务器的总内存为 128GB。网络接口方面,vBRAS-c 可以使用标准的网卡进行网络通信,比如一块或多块英特尔 X710 10GbE 网卡即可满足控制平面的流量要求。具体的 vBRAS 控制应用则在虚拟机中实现,多个虚拟机由 SDN 控制器统一控制。

对于 vBRAS-d 节点,总体也通过独立的 DL380 实现。针对上文提到的优化加速的部分,本实例中使用了基于 Arria10 FPGA 的智能网卡加速网络功能,如线速处理 QoS 和多级流量整形。在一个 DL380 中,可以插入多块 FPGA 智能网卡,实现并行数据处理,成倍提高数据吞吐量。同时,vBRAS-d 节点通过 OpenFlow 与 SDN 控制器交互,且一台 vBRAS-c 设备可以控制多个 vBRAS-d 设备。

基于 Arria10 FPGA 的智能网卡解析

使用 FPGA 智能网卡进行网络加速的好处有以下几点:

1. 解放了宝贵的 CPU 内核,将原本在 CPU 中实现的数据处理卸载到 FPGA 上进行加速实现。这样 CPU 可以用来做其他的工作,在虚拟化的基础上进一步实现了资源的有效利用。

2.FPGA 拥有低功耗、灵活可编程的特点。在白皮书中提到,在选用的 Arria10 GT1150 器件上实现了硬件 QoS 和多级流量整形后,只占用了 FPGA 的 40%的逻辑资源。换言之,还有 60%的资源可以被用来进行其他的网络功能处理和加速。同时,可以随时对 FPGA 进行编程,因此多种网络功能的加速都可以用一套硬件设备完成,不需要更换加速卡或其他硬件设备。即使是用户自己定义的功能,也可以实现,不需要专有设备完成。这样很好的平衡了高性能和高通用性两者间的矛盾。

3.FPGA 能进行高速并行的数据包处理,且本身就广泛应用于网络通信领域,解决方案丰富且成熟。

下图概括介绍了本实例中在 FPGA 中实现的数据包转发的数据通路设计。

图 3:FPGA 数据包处理的数据通路

由图中可见,本设计包含多个模块,如 Parser、Look-Up、Buffer Manager、Packet Processor,以及内存控制器和 DMA 等。数据包进入 FPGA 后,依次通过各个模块进行特征提取、分类、查找,如果需要就通过 PCIe 和 DMA 与 CPU 进行交互。同时,Buffer Manager 会对不同来源的数据包进行流量控制、QoS 和流量整形等操作。

此外,这款 FPGA 智能网卡支持多种包处理模式,即可以将数据包完全在 FPGA 内部处理后转发,不经过 CPU;也可以将数据包通过 PCIe 传送到 CPU,使用 DPDK 进行包处理,再通过 FPGA 转发;或者二者结合,一部分功能在 CPU 中实现,另外一部分卸载到 FPGA 上完成。可见灵活度很高。

 

性能测试

图 4:数据平面的服务器和 FPGA 架构

图中可见,一个 DL380 服务器上插了 3 块相互独立的 FPGA 智能网卡,每块网卡支持 40Gbps 数据吞吐量,因此一个 vBRAS-d 服务器支持的总吞吐量为 120Gbps。每块网卡通过 PCIex16 接口与 CPU 相连,在 CPU 中运行 DPDK L2/L3 FWD 应用,将数据转发回 FPGA,然后在 FPGA 中进行 QoS 和数据整形。在测试中,流量的产生和接收都通过 Spirent 测试仪实现。

对于 QoS,每个智能网卡可以支持 4000 用户,故单服务器支持 12000 个用户。每个用户支持 2 个优先级,且分配给每个用户的带宽可以编程控制。例如,每个用户分配 8.5Mbps 带宽,则开启流量整形后单服务器总流量应为 12000x8.5=102Gbps,如下图所示。

数据平面的性能测试结果

我们看到,当数据包为定长 512 字节时,关闭流量整形功能后,高优先级流量和低优先级流量都没有损失,各为 60Gbps(对应每个用户的实际流量为 5Mbps 高优先级+5Mbps 低优先级),因此总流量为 120Gbps。开启流量整形功能后,高优先级流量没有损失,仍为 60Gbps。对于低优先级,由于每个用户分配 8.5Mbps 带宽且高优先级已经占用了其中的 5Mbps,因此只剩余 3.5Mbps 带宽供低优先级流量通过。可见低优先级流量遭到限流,总流量变成 3.5Mx12000=42Gbps,使得总流量变成 102Gbps。这在总体上证明了单个 vBRAS-d 节点可以支持超过 100Gbps 的流量处理。

此外还进行了一些功耗测试能性能对比,我在此挑选了一张结果图如下所示。

图 5:不同带宽时总能耗性能比的对比

这张图表示了实现不同带宽时,总功耗性能比的一系列比较。功耗性能比的定义为,实现 1Tbps 时所需要的总功耗(千瓦)。图中将不含 FPGA 智能网卡的 vBRAS 实现 50Gbps 时的功耗性能比作为基准值(100%)。由图中可以看到,vBRAS+FPGA 智能网卡的方案总能降低超过 40%的总功耗,最多可达到 60%。这进一步印证了上文中阐述过的使用 FPGA 进行网络功能加速的好处所在。

其他性能测试和对比不再赘述,详细内容在白皮书中可以看到。总体而言,相比于传统的 vBRAS 服务器+标准网卡的方案,使用 vBRAS+FPGA 智能网卡的解决方案可以减少约 50%的功耗,以及带来超过 3 倍的性能提升。

SWOT 四个维度解析当前国内发展 FPGA 前景

(1)首先说优势。相比较 xilinx 和 altera,国产 FPGA 厂商目前基本没有绝对优势,只有比较优势,比如起点高,再也不用从微米级技术开始做起,一开始就从几十纳米进入,工艺差距可以缩小到 2-3 代的水平。另外,中国是 FPGA 芯片的应用大国,国产 FPGA 有本土化的各种优势,比如对中小客户需求的理解等比国外巨头要更接地气等。

(2)劣势的话很明显,从专利、技术产品到人才及市场品牌等,国产 FPGA 厂商都和国外巨头存在很大的差距。

(3)再说机会,当前中国厂商面临的机会比较多,因为从国家层面来看已经把 FPGA 列为国家战略芯片,政府在这个领域的投入可能会逐步增加,虽然政府直接主导这个产业发展未必是好的方式,但是给予民营企业各方面的支持却是非常重要的。另外,随着中国经济的发展,中国的企业能吸引到

版权声明: 本站仅提供信息存储空间服务,旨在传递更多信息,不拥有所有权,不承担相关法律责任,不代表本网赞同其观点和对其真实性负责。如因作品内容、版权和其它问题需要同本网联系的,请发送邮件至 举报,一经查实,本站将立刻删除。