NVIDIA BlueField DPU (數(shù)據(jù)處理器)可用于網(wǎng)絡(luò)功能加速。這種網(wǎng)絡(luò)卸載是可能的 DPDK 和NVIDIA DOCA 軟件框架。
在本系列中,我通過應(yīng)用 DPDK 和NVIDIA DOCA SDK 庫構(gòu)建了一個應(yīng)用程序并卸載了兩種方式。我將每個步驟記錄為一個單獨(dú)的代碼補(bǔ)丁,并在每個系列中提供完整的步驟。這將向您展示如何編程 BlueField DPU ,以及為您獨(dú)特的用例選擇最優(yōu)雅的選項(xiàng)。有關(guān)第 2 部分,請參見 使用 NVIDIA BlueField DPU 和 NVIDIA DOCA 庫開發(fā)應(yīng)用程序 。
用例
首先,我需要一個簡單但有意義的用例來在 DPU 上部署應(yīng)用程序。我選擇了基于策略的路由( PBR )來根據(jù)第 3 層和第 4 層數(shù)據(jù)包屬性將流量引導(dǎo)到不同的網(wǎng)關(guān),覆蓋(或補(bǔ)充) X86 主機(jī)選擇的網(wǎng)關(guān)。在現(xiàn)實(shí)世界中,出于各種原因,可以這樣做,包括以下示例:
將選定主機(jī)流量發(fā)送到外部防火墻以進(jìn)行額外審核
增強(qiáng)了選播服務(wù)器的負(fù)載平衡
應(yīng)用 QoS
圖 1 。使用 PBR 將流量從主機(jī)引導(dǎo)到兩個網(wǎng)關(guān)之一
我在 DPU (bf2-arm)上使用 PBR 將流量從主機(jī)(server1-x86)引導(dǎo)到兩個網(wǎng)關(guān)[leaf2, leaf3]之一。葉交換機(jī)隨后將流量轉(zhuǎn)發(fā)給其本地連接的選播服務(wù)提供商[server2, server3]。
構(gòu)建應(yīng)用程序
第一個問題:我是寫一個全新的應(yīng)用程序,還是卸載一個現(xiàn)有的應(yīng)用程序?
我決定卸載我最喜歡的開源路由堆棧 FRRouting ( FRR )的 PBR 功能。這使我能夠擴(kuò)展現(xiàn)有的代碼庫,并與現(xiàn)有的 sample apps 形成了很好的對比。 FRR 有一個用于多個數(shù)據(jù)平面插件的基礎(chǔ)設(shè)施,因此 DPDK 和 DOCA 可以輕松添加為新的 FRR 插件。
圖 2 。 DPDK 和 DOCA 插件可以很容易地添加到 FRP 路由中
DPU 應(yīng)用程序原型
在本節(jié)中,我將介紹創(chuàng)建具有 DPU 硬件加速功能的應(yīng)用程序所需的準(zhǔn)備工作。
DPU 硬件
我有一個由 x86 服務(wù)器托管的 BlueField-2 DPU 。該 DPU 有兩個 25G 上行鏈路和一個帶有 8G RAM 的臂 CPU 。有關(guān)硬件安裝的更多信息,請參閱 DOCA SDK 文檔 。您可以使用 DPU PocKit 。
我安裝了 BlueField 啟動文件( BFB ),它為 DPU 提供了 Ubuntu 操作系統(tǒng)映像,并附帶了 DOCA-1.2 和 DPDK-20.11.3 的庫。
圖 3 。 Netdev 代表
使用 SR-IOV ,我在主機(jī)上為兩個虛擬機(jī)創(chuàng)建了兩個虛擬函數(shù)( VF )接口。
使用SR-IOV,我在主機(jī)上為兩個虛擬機(jī)創(chuàng)建了兩個虛擬函數(shù)( VF )接口。
root@server1-x86:~# echo 2 > /sys/class/net/ens3f0/device/sriov_numvfs
主機(jī)物理和虛擬功能映射到 DPU Arm CPU 上的以下 netdevrepresentors。
表 1 。主機(jī)物理和虛擬功能的映射
首先,我使用 DPDK 的testpmd原型化了我的用例,它位于 DPU 的/ opt / mellanox /目錄下。
對于任何 DPDK 應(yīng)用程序,包括testpmd
,必須設(shè)置hugepages
。
root@dpu-arm:~# echo 1024 > /sys/kernel/mm/hugepages/hugepages-2048kB/nr_hugepages
(可選)保留配置,使其在 DPU 重新啟動后仍然有效。
root@dpu-arm:~# echo "vm.nr_hugepages = 1024" > /etc/sysctl.d/99-hugepages.conf
啟動testpmd
。
root@dpu-arm:~# /opt/mellanox/dpdk/bin/dpdk-testpmd -- --total-num-mbufs=100000 --flow-isolate-all -i
Testpmd
內(nèi)存不足,默認(rèn)情況下會分配很酷的 3.5G 。由于我不需要在 CPU 中處理數(shù)據(jù)流量,我分配了total-mem
值 200M ,其中total-mem = total-num-mbufs * mbuf-size
(默認(rèn)mbuf-size
為 2048 字節(jié))。我還使用了flow-isolation
,因?yàn)槲冶仨殞?ARP 數(shù)據(jù)包發(fā)送到 DPU 上的內(nèi)核網(wǎng)絡(luò)堆棧,以獲得 PBR 下一跳解析)。初始化完成后,-i
選項(xiàng)將您放入testpmd
交互式 shell 。
作為testpmd
完成的rte_eal
初始化的一部分,mlx5_pci
設(shè)備被探測并填充 DPDK 端口。
testpmd> show port summary all Number of available ports: 6 Port MAC Address Name Driver Status Link 0 04:3F:72:BF:AE:38 0000:03:00.0 mlx5_pci up 25 Gbps 1 4A:6B:00:53:79:E5 0000:03:00.0_representor_vf4294967295 mlx5_pci up 25 Gbps 2 62:A1:93:8D:68:C4 0000:03:00.0_representor_vf0 mlx5_pci up 25 Gbps 3 0A:8E:97:F5:C0:41 0000:03:00.0_representor_vf1 mlx5_pci up 25 Gbps 4 04:3F:72:BF:AE:39 0000:03:00.1 mlx5_pci up 25 Gbps 5 D2:0B:15:45:94:E8 0000:03:00.1_representor_vf4294967295 mlx5_pci up 25 Gbps testpmd>
您在這里看到的 DPDK 端口對應(yīng)于 PF / VF 代表器和兩個上行鏈路。
表 2 。 DPDK 端口映射
流創(chuàng)建
接下來,通過定義入口端口、源 IP 、目標(biāo) IP 、協(xié)議和端口,將 PBR 規(guī)則設(shè)置為rte_flow
。除此之外,我還定義了對匹配數(shù)據(jù)包采取的操作。源 MAC 和目標(biāo) MAC 被重寫, TTL 被遞減,出口端口被設(shè)置為物理上行鏈路p0
。
In-port=pf0vf0, match [SIP=172.20.0.8, DIP=172.30.0.8, IP-proto=UDP, UDP-dport=53], actions [dec-ttl, set-src-mac=p0-mac, set-dst-mac=leaf2-MAC, out-port=p0]
此 PBR 規(guī)則從VM1
接收 UDP 和 DNS 流量,并將其發(fā)送到特定的 GW (leaf2, server2
)。我還為流程附加了一個反操作,以便于故障排除。
testpmd> flow create 2 ingress transfer pattern eth / ipv4 src is 172.20.0.8 dst is 172.30.0.8 proto is 17 / udp dst is 53 / end actions dec_ttl / set_mac_src mac_addr 00:00:00:00:00:11 / set_mac_dst mac_addr 00:00:5e:00:01:fa / port_id id 0 / count / end Flow rule #0 created testpmd>
DPU 可以在DPU-switch
或DPU-NIC
模式下工作。在這個用例中,經(jīng)過幾次數(shù)據(jù)包修改后,我不得不將流量從 X86 主機(jī)重定向到 25G 上行鏈路。所以,從概念上講,我在 switch 或 FDB 模式中使用了它。除了使用正確的rte_flow
屬性(在本例中為transfer
)之外,設(shè)置此模式?jīng)]有其他配置。
流程驗(yàn)證
我從VM1
發(fā)送了一些流量,看看它是否與我用testpmd
流查詢
命令創(chuàng)建的流相匹配。
testpmd> flow query 2 0 count COUNT: hits_set: 1 bytes_set: 1 hits: 22 bytes: 2684 testpmd>
流是匹配的,在leaf2/server2
上可以看到具有修改的數(shù)據(jù)包頭的流量??刂频牧髁渴?DNS ,所以為了測試流量,我從VM1
發(fā)送了 DNS 請求。為了控制流量率和其他數(shù)據(jù)包字段,我使用mz生成測試流量。
ip netns exec vm1 mz ens3f0v0 -a 00:de:ad:be:ef:01 -b 00:de:ad:be:ef:02 -A 172.20.0.8 -B 172.30.0.8 -t udp "sp=25018, dp=53" -p 80 -c 0 -d 1s
另一個健全性檢查是查看此流是否真的被卸載。有兩種方法可以做到這一點(diǎn):
-
在 Arm CPU 上使用
tcpdump
以確保內(nèi)核不接收此數(shù)據(jù)包流。 - 檢查硬件 eSwitch 是否已使用流量編程。
mlx_steering_dump
允許您查看硬件編程流程。使用git
下載并安裝該工具。
root@dpu-arm:~# git clone https://github.com/Mellanox/mlx_steering_dump
使用mlx_steering_dump_parser.py
腳本驗(yàn)證硬件中編程的流程。
root@dpu-arm:~# ./mlx_steering_dump/mlx_steering_dump_parser.py -p `pidof dpdk-testpmd` -f /tmp/dpdkDump domain 0xbeb3302, table 0xaaab23e69c00, matcher 0xaaab23f013d0, rule 0xaaab23f02650 match: outer_l3_type: 0x1, outer_ip_dst_addr: 172.30.0.8, outer_l4_type: 0x2, metadata_reg_c_0: 0x00030000, outer_l4_dport: 0x0035, outer_ip_src_addr: 172.20.0.8 action: MODIFY_HDR, rewrite index 0x0 & VPORT, num 0xffff & CTR(hits(154), bytes(18788)),
此命令轉(zhuǎn)儲 testpmd 應(yīng)用程序編程的所有流。我們可以看到我們設(shè)置的外部 IP 頭匹配–[SIP = 172.20.0.8 , DIP = 172.30.0.8 , IP proto = UDP , UDP dport = 53]。流量計(jì)數(shù)器作為轉(zhuǎn)儲的一部分被讀取和清除。
原型設(shè)計(jì),應(yīng)用程序設(shè)計(jì)思維過程的最后一步現(xiàn)在已經(jīng)完成。我現(xiàn)在知道我可以在 DPDK 中建立一個 PBR 規(guī)則,它安裝在硬件中,并對我們的數(shù)據(jù)包采取行動。現(xiàn)在在下一節(jié)中添加 DPDK 數(shù)據(jù)平面。
構(gòu)建 DPDK 數(shù)據(jù)平面插件
在本節(jié)中,我將通過向 Zebra 添加一個 DPDK 數(shù)據(jù)平面插件,介紹 DPU 上 PBR 硬件加速的步驟。我將這些步驟分解為單獨(dú)的代碼提交,整個補(bǔ)丁集以reference的形式提供。

開發(fā)環(huán)境
由于目標(biāo)體系結(jié)構(gòu)是 DPU Arm ,因此可以直接在 Arm CPU 上構(gòu)建、在 X86 CPU 上交叉編譯或在云中構(gòu)建。在這篇文章中,我直接在 DPU Arm CPU 上進(jìn)行編碼和構(gòu)建。
以 root 用戶身份運(yùn)行應(yīng)用程序
FRR 通常作為非 root 用戶運(yùn)行。 FRR 可以下載和上傳整個互聯(lián)網(wǎng)路由表;這可能會出什么問題?然而,幾乎所有的 DPDK 應(yīng)用程序都是以 root 用戶的身份運(yùn)行的, DPDK 庫和驅(qū)動程序也開始期待這一點(diǎn)。
經(jīng)過多次實(shí)驗(yàn),我無法讓 FRR 作為非 root 用戶工作,并使用 root 用戶選項(xiàng)重新編譯它。這是可以接受的,因?yàn)槲以谝粋€安全的空間,即 DPU Arm CPU 中運(yùn)行 FRR 。
向 Zebra 添加新插件
Zebra 是 FRR 中的一個守護(hù)進(jìn)程,負(fù)責(zé)整合路由協(xié)議守護(hù)進(jìn)程的更新并構(gòu)建轉(zhuǎn)發(fā)表。 Zebra 還有一個基礎(chǔ)設(shè)施,可以將這些轉(zhuǎn)發(fā)表推送到像 Linux 內(nèi)核這樣的數(shù)據(jù)平面。
將 DPDK 共享庫鏈接到 zebra
FRR 有自己的構(gòu)建系統(tǒng),限制直接導(dǎo)入外部 make 文件。由于 pkg-config 的簡單優(yōu)雅,將相關(guān)庫鏈接到 Zebra 很容易。
我找到了libdpdk.pc
并將其添加到PKG_CONFIG_PATH
值中:
root@dpu-arm:~# find /opt/mellanox/ -name libdpdk.pc /opt/mellanox/dpdk/lib/aarch64-linux-gnu/pkgconfig/libdpdk.pc root@dpu-arm:~# export PKG_CONFIG_PATH=$PKG_CONFIG_PATH:/opt/mellanox/dpdk/lib/aarch64-linux-gnu/pkgconfig
Pkg-config
為您提供了以下抽象:
-
libs
– 提供 DPDK 共享庫的列表。 -
cflags
– 提供 DPDK 頭文件的位置。
root@dpu-arm:~# pkg-config --libs libdpdk -L/opt/mellanox/dpdk/lib/aarch64-linux-gnu -Wl,--as-needed -lrte_node -lrte_graph -lrte_bpf -lrte_flow_classify -lrte_pipeline -lrte_table -lrte_port -lrte_fib -lrte_ipsec -lrte_vhost -lrte_stack -lrte_security -lrte_sched -lrte_reorder -lrte_rib -lrte_regexdev -lrte_rawdev -lrte_pdump -lrte_power -lrte_member -lrte_lpm -lrte_latencystats -lrte_kni -lrte_jobstats -lrte_gso -lrte_gro -lrte_eventdev -lrte_efd -lrte_distributor -lrte_cryptodev -lrte_compressdev -lrte_cfgfile -lrte_bitratestats -lrte_bbdev -lrte_acl -lrte_timer -lrte_metrics -lrte_cmdline -lrte_pci -lrte_ethdev -lrte_meter -lrte_ip_frag -lrte_net -lrte_mbuf -lrte_mempool -lrte_hash -lrte_rcu -lrte_ring -lrte_eal -lrte_telemetry -lrte_kvargs -lbsd root@dpu-arm:~# root@dpu-arm:~# pkg-config --cflags libdpdk -include rte_config.h -mcpu=cortex-a72 -I/opt/mellanox/dpdk/include/dpdk -I/opt/mellanox/dpdk/include/dpdk/../aarch64-linux-gnu/dpdk -I/opt/mellanox/dpdk/include/dpdk -I/usr/include/libnl3 root@dpu-arm:~#
我在 FRR makefile (configure.ac
)中為 DPDK 添加了pkg check-and-define
宏。
if test "$enable_dp_dpdk" = "yes"; then PKG_CHECK_MODULES([DPDK], [libdpdk], [ AC_DEFINE([HAVE_DPDK], [1], [Enable DPDK backend]) DPDK=true ], [ AC_MSG_ERROR([configuration specifies --enable-dp-dpdk but DPDK libs were not found]) ]) fi
我將 DPDKlibs
和cflags
抽象包含在zebra-dp-dpdk make
宏(zebra/subdir.am
)中。
zebra_zebra_dplane_dpdk_la_LIBADD = $(DPDK_LIBS) zebra_zebra_dplane_dpdk_la_CFLAGS = $(DPDK_CFLAGS)
有了這些,我就有了構(gòu)建插件所需的所有標(biāo)題和庫。
初始化硬件
第一步是初始化硬件。
char*argv[] = {"/usr/lib/frr/zebra", "--"}; rc = rte_eal_init(sizeof(argv) / sizeof(argv[0]), argv);
這將探測 PCIe 設(shè)備并填充 DPDKrte_eth_dev
數(shù)據(jù)庫。
初始化端口
接下來,我設(shè)置硬件端口。
設(shè)置應(yīng)用程序的端口映射
FRR 有自己的基于 Linuxnetdevs
表的接口(端口)表,該表使用 NetLink 更新填充,并使用ifIndex
鍵入。 PBR 規(guī)則錨定到此表中的接口。要編程 PBR 數(shù)據(jù)平面條目,需要一個 LinuxifIndex
和 DPDKport-id
值之間的映射表。netdev
信息已經(jīng)在 DPDK 驅(qū)動程序中可用,可以通過rte_eth_dev_info_get
查詢。
struct rte_eth_dev_info *dev_info RTE_ETH_FOREACH_DEV(port_id) { /* dev_info->if_index is used for setting up the dpdk port_id<=>if_index mapping table * in zebra */ rte_eth_dev_info_get(port_id, dev_info); }
配置硬件端口
此外,所有端口都需要置于流隔離模式并啟動。
rte_flow_isolate(port_id, 1, &error);
流隔離將流未命中數(shù)據(jù)包發(fā)送到內(nèi)核網(wǎng)絡(luò)堆棧,允許它處理 ARP 請求之類的事情。
rte_eth_dev_start(port_id);
使用 rte _流 API 編程 PBR 規(guī)則
PBR 規(guī)則現(xiàn)在需要編程為rte_flow
列表。下面是一個示例規(guī)則:
In-port=pf0vf0, match [SIP=172.20.0.8, DIP=172.30.0.8, IP-proto=UDP, UDP-dport=53], actions [set-src-mac=p0-mac, set-dst-mac=leaf2-MAC, dec-ttl, out-port=p0]
這些參數(shù)通過rte_flow_attributes
、rte_flow_item (match)
和rte_flow_action
數(shù)據(jù)結(jié)構(gòu)填充。
流屬性
此數(shù)據(jù)結(jié)構(gòu)用于指示 PBR 流用于分組重定向或transfer flow。
static struct rte_flow_attr attrs = {.ingress = 1, .transfer = 1};
流匹配項(xiàng)
DPDK 為數(shù)據(jù)包頭中的每一層使用{key, mask}
匹配結(jié)構(gòu):以太網(wǎng)、 IP 、 UDP 等。
struct rte_flow_item_eth eth, eth_mask; struct rte_flow_item_ipv4 ip, ip_mask; struct rte_flow_item_udp udp, udp_mask;
填充這些數(shù)據(jù)結(jié)構(gòu)需要大量重復(fù)的代碼。
流動作
DPDK 為每個操作使用單獨(dú)的數(shù)據(jù)結(jié)構(gòu),然后允許您在創(chuàng)建流時(shí)以可變長度數(shù)組的形式提供所有操作。有關(guān)行動如下:
struct rte_flow_action_set_mac conf_smac, conf_dmac; struct rte_flow_action_port_id conf_port; struct rte_flow_action_count conf_count;
填充這些數(shù)據(jù)結(jié)構(gòu)同樣只是機(jī)械的。
流驗(yàn)證和創(chuàng)建
或者,您可以驗(yàn)證rte_flow_attr
、rte_flow_item
和rte_flow_action
列表。
rc = rte_flow_validate(port_id, &attrs, items, actions, &error);
流驗(yàn)證通常用于檢查底層 DPDK 驅(qū)動程序是否支持特定的流配置。流驗(yàn)證是一個可選步驟,在最后的代碼中,您可以直接跳轉(zhuǎn)到流創(chuàng)建。
flow_ptr = rte_flow_create(port_id, &attrs, items, actions, &error);
Rte_flow
命令被錨定到傳入端口??梢詣?chuàng)建流條目組并將其鏈接。即使流條目不是鏈中的第一個,也不是 0 組中的第一個,它仍然必須錨定到傳入端口。group-0
存在性能限制。
流量插入率在group-0
中受到限制。要繞過該限制,您可以在group-0
中安裝一個默認(rèn)流,以“跳轉(zhuǎn)到group-1
”,然后在group-1
中編程應(yīng)用程序的轉(zhuǎn)向流。
流刪除
流創(chuàng)建 API 返回一個流指針,該指針必須被緩存以進(jìn)行后續(xù)的流刪除。
rc = rte_flow_destroy(port_id, flow_ptr, &error);
FRR-PBR 守護(hù)進(jìn)程管理狀態(tài)機(jī)以解析和添加或刪除 PBR 流。因此,我不必使用 DPDK 本機(jī)函數(shù)使它們老化。
流量統(tǒng)計(jì)
在創(chuàng)建流時(shí),我將計(jì)數(shù)操作附加到流??捎糜诓樵兞髁拷y(tǒng)計(jì)信息和點(diǎn)擊率。
struct rte_flow_query_count query; rte_flow_query(port_id, flow_ptr, actions, &query, &error);
為了便于測試和驗(yàn)證,我將該統(tǒng)計(jì)顯示插入了 FRR 的vtysh
CLI 。
測試應(yīng)用程序
我以 root 用戶的身份啟動了 FRR ,并通過/etc/frr/daemons
文件啟用了新添加的 DPDK 插件:
zebra_options= " -M dplane_dpdk -A 127.0.0.1"
DPDK-port
映射表的 FRR 接口已填充:
root@dpu-arm:~# systemctl restart frr root@dpu-arm:~# vtysh -c "show dplane dpdk port" Port Device IfName IfIndex sw,domain,port 0 0000:03:00.0 p0 4 0000:03:00.0,0,65535 1 0000:03:00.0 pf0hpf 6 0000:03:00.0,0,4095 2 0000:03:00.0 pf0vf0 15 0000:03:00.0,0,4096 3 0000:03:00.0 pf0vf1 16 0000:03:00.0,0,4097 4 0000:03:00.1 p1 5 0000:03:00.1,1,65535 5 0000:03:00.1 pf1hpf 7 0000:03:00.1,1,20479 root@dpu-arm:~#
接下來,我將 PBR 規(guī)則配置為匹配來自 VM1 的 DNS 流量,并使用frr.conf
將其重定向到 leaf2 。
! interface pf0vf0 pbr-policy test ! pbr-map test seq 1 match src-ip 172.20.0.8/32 match dst-ip 172.30.0.8/32 match dst-port 53 match ip-protocol udp set nexthop 192.168.20.250 !
我將 DNS 查詢從 VM1 發(fā)送到 anycast DNS 服務(wù)器。
root@dpu-arm:~# vtysh -c "show dplane dpdk pbr flows" Rules if pf0vf0 Seq 1 pri 300 SRC IP Match 172.20.0.8/32 DST IP Match 172.30.0.8/32 DST Port Match 53 Tableid: 10000 Action: nh: 192.168.20.250 intf: p0 Action: mac: 00:00:5e:00:01:fa DPDK: installed 0x40 DPDK stats: packets 14 bytes 1708 root@dpu-arm:~#
匹配流,并使用修改后的數(shù)據(jù)包頭將流量轉(zhuǎn)發(fā)到目的地leaf2/server2
。這可以通過連接到流的計(jì)數(shù)器和使用mlx_steering_dump
的硬件轉(zhuǎn)儲進(jìn)行驗(yàn)證。
root@dpu-arm:~# ./mlx_steering_dump/mlx_steering_dump_parser.py -p `pidof zebra` -f /tmp/dpdkDump domain 0x32744e02, table 0xaaab07849cf0, matcher 0xffff20011010, rule 0xffff20012420 match: outer_l3_type: 0x1, outer_ip_dst_addr: 172.30.0.8, outer_l4_type: 0x2, metadata_reg_c_0: 0x00030000, outer_l4_dport: 0x0035, outer_ip_src_addr: 172.20.0.8 action: MODIFY_HDR(hdr(dec_ip4_ttl,smac=04:3f:72:bf:ae:38,dmac=00:00:5e:00:01:fa)), rewrite index 0x0 & VPORT, num 0xffff & CTR(hits(33), bytes(4026)), index 0x806200
FRR 現(xiàn)在有一個功能齊全的 DPDK 數(shù)據(jù)平面插件,可以在 DPU 硬件上卸載 PBR 規(guī)則。
總結(jié)
這篇文章回顧了使用 DPDK rte _流庫在 BlueField 上硬件加速 PBR 規(guī)則的 FRR 數(shù)據(jù)平面插件的創(chuàng)建。在下一篇文章中,我將帶您了解FRR DOCA 數(shù)據(jù)平面插件并向您展示如何使用新的 DOCA 流庫卸載 PBR 規(guī)則。
關(guān)于作者
Anuradha Karuppiah 是 NVIDIA 網(wǎng)絡(luò)的首席軟件工程師。 Anuradha 使用 FRR (自由范圍路由軟件套件)設(shè)計(jì)和實(shí)現(xiàn) EVPN 解決方案。
審核編輯:郭婷
-
處理器
+關(guān)注
關(guān)注
68文章
19890瀏覽量
235126 -
服務(wù)器
+關(guān)注
關(guān)注
13文章
9793瀏覽量
87946 -
虛擬機(jī)
+關(guān)注
關(guān)注
1文章
966瀏覽量
29352
發(fā)布評論請先 登錄
第三屆NVIDIA DPU黑客松開啟報(bào)名
AWTK-WEB 快速入門(5) - C 語言 WebSocket 應(yīng)用程序

基于HPM_SDK_ENV開發(fā)應(yīng)用程序的升級處理

利用NVIDIA DPF引領(lǐng)DPU加速云計(jì)算的未來

在NVIDIA BlueField-3 DPU上運(yùn)行WEKA客戶端的實(shí)際優(yōu)勢

SSM框架在Java開發(fā)中的應(yīng)用 如何使用SSM進(jìn)行web開發(fā)
android手機(jī)上emulate應(yīng)用程序的方法
AWTK-WEB 快速入門(2) - JS 應(yīng)用程序

AWTK-WEB 快速入門(1) - C 語言應(yīng)用程序

在TM4C MCU上用FreeRTOS開發(fā)通用應(yīng)用程序應(yīng)用說明

如何進(jìn)行電源供應(yīng)設(shè)計(jì)

如何進(jìn)行電源設(shè)計(jì)-第1部分

如何進(jìn)行電源設(shè)計(jì)–第3部分

如何進(jìn)行電源供應(yīng)設(shè)計(jì)-第3部分

評論