一区二区三区三上|欧美在线视频五区|国产午夜无码在线观看视频|亚洲国产裸体网站|无码成年人影视|亚洲AV亚洲AV|成人开心激情五月|欧美性爱内射视频|超碰人人干人人上|一区二区无码三区亚洲人区久久精品

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內(nèi)不再提示

使用NVIDIA GPU和SmartNIC的邊緣AI

星星科技指導員 ? 來源:NVIDIA ? 作者:Jacob Liberman ? 2022-04-15 09:20 ? 次閱讀

第一篇文章描述了 如何使用預裝驅動程序集成英偉達 GPU 和網(wǎng)絡運營商 。

本文介紹了以下任務:

清理預安裝的驅動程序集成

使用自定義驅動程序容器安裝網(wǎng)絡運營商

使用自定義驅動程序容器安裝 GPU 操作員

NVIDIA 驅動程序集成

預安裝的驅動程序集成方法適用于需要簽名驅動程序的邊緣部署,以實現(xiàn)安全和可測量的引導。當邊緣節(jié)點具有不可變的操作系統(tǒng)時,請使用驅動程序容器方法。當并非所有邊緣節(jié)點都有加速器時,驅動程序容器也適用。

清理預安裝的驅動程序集成

首先,卸載以前的配置并重新啟動以清除預安裝的驅動程序。

刪除測試播客和網(wǎng)絡附件。

$ kubectl delete pod roce-shared-pod
pod "roce-shared-pod" deleted $ kubectl delete macvlannetwork roce-shared-macvlan-network
macvlannetwork.mellanox.com "roce-shared-macvlan-network" deleted
  1. 卸載網(wǎng)絡運營商掌舵圖。
$ helm delete -n network-operator network-operator
release "network-operator" uninstalled

3 .卸載 MOFED 以刪除預安裝的驅動程序和庫。

$ rmmod nvidia_peermem $ /etc/init.d/openibd stop
Unloading HCA driver: [ OK ] $ cd ~/MLNX_OFED_LINUX-5.4-1.0.3.0-rhel7.9-x86_64 $ ./uninstall.sh 

4 .拆下 GPU 測試盒。

$ kubectl delete pod cuda-vectoradd
pod "cuda-vectoradd" deleted

5 .卸載英偉達 Linux 驅動程序。

$ ./NVIDIA-Linux-x86_64-470.57.02.run --uninstall

6 .拆下 GPU 操作器。

$ helm uninstall gpu-operator-1634173044

7 .重新啟動。

$ sudo shutdown -r now

使用自定義驅動程序容器安裝網(wǎng)絡運營商

本節(jié)介紹使用自定義驅動程序容器安裝網(wǎng)絡運營商的步驟。

在容器映像中執(zhí)行的驅動程序構建腳本需要訪問目標內(nèi)核的內(nèi)核開發(fā)包。在本例中,內(nèi)核開發(fā)包是通過 ApacheWeb 服務器提供的。

構建容器后,將其上載到網(wǎng)絡運營商 Helm chart 可以從主機訪問的存儲庫。

GPU 操作員將在下一節(jié)中使用相同的 web 服務器構建自定義 GPU 操作員驅動程序容器。

安裝 Apache web 服務器并啟動它。

$ sudo firewall-cmd --state
not running $ sudo yum install createrepo yum-utils httpd -y $ systemctl start httpd.service && systemctl enable httpd.service && systemctl status httpd.service
● httpd.service - The Apache HTTP Server Loaded: loaded (/usr/lib/systemd/system/httpd.service; enabled; vendor preset: disabled) Active: active (running) since Wed 2021-10-20 18:10:43 EDT; 4h 45min ago
...
  1. 創(chuàng)建上游 CentOS 7 基本軟件包存儲庫的鏡像。自定義包存儲庫在/ var 分區(qū)上需要 500 GB 的可用空間。請注意,將所有 CentOS Base 軟件包下載到 web 服務器可能需要 10 分鐘或更長時間。
$ cd /var/www/html
$ mkdir -p repos/centos/7/x86_64/os
$ reposync -p /var/www/html/repos/centos/7/x86_64/os/ --repo=base --download-metadata -m

3 .將 Linux 內(nèi)核源文件復制到 web 服務器上的 Base packages 目錄中。本例假設使用 rpmbuild 將自定義內(nèi)核編譯為 RPM 。

$ cd repos/centos/7/x86_64/os
$ sudo cp ~/rpmbuild/RPMS/x86_64/*.rpm .

網(wǎng)絡運營商需要以下文件:

  • kernel-headers-${KERNEL_VERSION}
  • kernel-devel-${KERNEL_VERSION}

確保 GPU 操作員有這些附加文件:

  • gcc-${GCC_VERSION}
  • elfutils-libelf.x86_64
  • elfutils-libelf-devel.x86_64
$ for i in $(rpm -q kernel-headers kernel-devel elfutils-libelf elfutils-libelf-devel gcc | grep -v "not installed"); do ls $i*; done
kernel-headers-3.10.0-1160.42.2.el7.custom.x86_64.rpm
kernel-devel-3.10.0-1160.42.2.el7.custom.x86_64.rpm
elfutils-libelf-0.176-5.el7.x86_64.rpm
elfutils-libelf-devel-0.176-5.el7.x86_64.rpm
gcc-4.8.5-44.el7.x86_64.rpm

4 .瀏覽到 web 存儲庫以確??赏ㄟ^ HTTP 訪問該存儲庫。

$ elinks http://localhost/repos/centos/7/x86_64/os --dump Index of /repos/centos/7/x86_64/os [1][ICO] [2]Name [3]Last modified [4]Size [5]Description -------------------------------------------------------------------------- [6][PARENTDIR] [7]Parent Directory - [8][DIR] [9]base/ 2021-10-21 22:55 - [10][DIR] [11]extras/ 2021-10-02 00:29 - -------------------------------------------------------------------------- References Visible links 2. http://localhost/repos/centos/7/x86_64/os/?C=N;O=D 3. http://localhost/repos/centos/7/x86_64/os/?C=M;O=A 4. http://localhost/repos/centos/7/x86_64/os/?C=S;O=A 5. http://localhost/repos/centos/7/x86_64/os/?C=D;O=A 7. http://localhost/repos/centos/7/x86_64/ 9. http://localhost/repos/centos/7/x86_64/os/base/ 11. http://localhost/repos/centos/7/x86_64/os/extras/

5.MOFED 驅動程序容器映像是根據(jù) Github 上mellanox/ofed-docker存儲庫中的源代碼構建的。克隆 ofed docker 存儲庫。

$ git clone https://github.com/Mellanox/ofed-docker.git
$ cd ofed-docker/

6 .為自定義驅動程序容器創(chuàng)建生成目錄。

$ mkdir centos
$ cd centos/

7 .創(chuàng)建 Dockerfile ,將 MOFED 依賴項和源存檔安裝到 CentOS 7.9 基本映像中。指定 MOFED 和 CentOS 版本。

$ sudo cat << EOF | tee Dockerfile
FROM centos:centos7.9.2009 ARG D_OFED_VERSION="5.4-1.0.3.0"
ARG D_OS_VERSION="7.9"
ARG D_OS="rhel${D_OS_VERSION}"
ENV D_OS=${D_OS}
ARG D_ARCH="x86_64"
ARG D_OFED_PATH="MLNX_OFED_LINUX-${D_OFED_VERSION}-${D_OS}-${D_ARCH}"
ENV D_OFED_PATH=${D_OFED_PATH} ARG D_OFED_TARBALL_NAME="${D_OFED_PATH}.tgz"
ARG D_OFED_BASE_URL="https://www.mellanox.com/downloads/ofed/MLNX_OFED-${D_OFED_VERSION}"
ARG D_OFED_URL_PATH="${D_OFED_BASE_URL}/${D_OFED_TARBALL_NAME}" ARG D_WITHOUT_FLAGS="--without-rshim-dkms --without-iser-dkms --without-isert-dkms --without-srp-dkms --without-kernel-mft-dkms --without-mlnx-rdma-rxe-dkms"
ENV D_WITHOUT_FLAGS=${D_WITHOUT_FLAGS} # Download and extract tarball
WORKDIR /root
RUN yum install -y curl && (curl -sL ${D_OFED_URL_PATH} | tar -xzf -) RUN yum install -y atk \ cairo \ ethtool \ gcc-gfortran \ git \ gtk2 \ iproute \ libnl3 \ libxml2-python \ lsof \ make \ net-tools \ numactl-libs \ openssh-clients \ openssh-server \ pciutils \ perl \ python-devel \ redhat-rpm-config \ rpm-build \ tcl \ tcsh \ tk \ wget ADD ./entrypoint.sh /root/entrypoint.sh ENTRYPOINT ["/root/entrypoint.sh"]
EOF

8 .修改 ofed docker 存儲庫中包含的 RHEL entrypoint.sh 腳本,以從 web 服務器安裝自定義內(nèi)核源程序包。在_install_prerequsities()函數(shù)中指定 web 服務器上base/Packages目錄的路徑。

在本例中, 10.150.168.20 是本節(jié)前面創(chuàng)建的 web 服務器 IP 地址。

$ cp ../rhel/entrypoint.sh .
$ cat entrypoint.sh
...
# Install the kernel modules header/builtin/order files and generate the kernel version string.
_install_prerequisites() { echo "Installing dependencies" yum -y --releasever=7 install createrepo elfutils-libelf-devel kernel-rpm-macros numactl-libs initscripts grubby linux-firmware libtool echo "Installing Linux kernel headers..." rpm -ivh http://10.150.168.20/repos/centos/7/x86_64/os/base/Packages/kernel-3.10.0-1160.45.1.el7.custom.x86_64.rpm rpm -ivh http://10.150.168.20/repos/centos/7/x86_64/os/base/Packages/kernel-devel-3.10.0-1160.45.1.el7.custom.x86_64.rpm rpm -ivh http://10.150.168.20/repos/centos/7/x86_64/os/base/Packages/kernel-headers-3.10.0-1160.45.1.el7.custom.x86_64.rpm # Prevent depmod from giving a WARNING about missing files touch /lib/modules/${KVER}/modules.order touch /lib/modules/${KVER}/modules.builtin depmod ${KVER}
...

9OFED 驅動程序容器從主機文件系統(tǒng)裝載一個目錄以共享驅動程序文件。創(chuàng)建目錄。

$ mkdir -p /run/mellanox/drivers

10 將新的 CentOS 驅動程序映像上載到注冊表。此示例使用 NGC 專用注冊表。登錄到注冊表。

$ sudo yum install -y podman $ sudo podman login nvcr.io
Username: $oauthtoken
Password: *****************************************
Login Succeeded!

11 使用 Podman 構建驅動程序容器映像并將其推送到注冊表。

$ sudo podman build --no-cache --tag nvcr.io/nv-ngc5g/mofed-5.4-1.0.3.0:centos7-amd64 .

12 標記圖像并將其推送到注冊表。

$ sudo podman images nvcr.io | grep mofed
nvcr.io/nv-ngc5g/mofed-5.4-1.0.3.0 centos7-amd64 d61e555bddda 2 minutes ago 1.13 GB

13 覆蓋英偉達網(wǎng)絡運營商頭盔圖中包含的 Value.YAML 文件,以安裝自定義驅動程序映像。指定自定義驅動程序容器的映像名稱、存儲庫和版本。

$ cat << EOF | sudo tee roce_shared_values_driver.yaml nfd: enabled: false
deployCR: true
ofedDriver: deploy: true image: mofed repository: nvcr.io/nv-ngc5g version: 5.4-1.0.3.0
sriovDevicePlugin: deploy: false
rdmaSharedDevicePlugin: deploy: true resources: - name: rdma_shared_device_a vendors: [15b3] deviceIDs: [101d] ifNames: [ens13f0]
EOF

14 安裝英偉達網(wǎng)絡運營商的新價值。

$ helm install -f ./roce_shared_values_driver.yaml -n network-operator --create-namespace --wait network-operator mellanox/network-operator

15 查看網(wǎng)絡運營商部署的 POD 。 MOFED 吊艙應處于運行狀態(tài)。這是自定義驅動程序容器。請注意,在啟動 pod 之前編譯驅動程序可能需要幾分鐘的時間。

$ kubectl -n nvidia-network-operator-resources get pods
NAME READY STATUS RESTARTS AGE
cni-plugins-ds-zr9kf 1/1 Running 0 10m
kube-multus-ds-w57rz 1/1 Running 0 10m
mofed-centos7-ds-cbs74 1/1 Running 0 10m
rdma-shared-dp-ds-ch8m2 1/1 Running 0 2m27s
whereabouts-z947f 1/1 Running 0 10m

16 驗證主機上是否加載了 MOFED 驅動程序。

$ lsmod | egrep '^ib|^mlx|^rdma'
rdma_ucm 27022 0 rdma_cm 65212 1 rdma_ucm
ib_ipoib 124872 0 ib_cm 53085 2 rdma_cm,ib_ipoib
ib_umad 27744 0 mlx5_ib 384793 0 mlx5_core 1360822 1 mlx5_ib
ib_uverbs 132833 2 mlx5_ib,rdma_ucm
ib_core 357959 8 rdma_cm,ib_cm,iw_cm,mlx5_ib,ib_umad,ib_uverbs,rdma_ucm,ib_ipoib
mlx_compat 55063 11 rdma_cm,ib_cm,iw_cm,auxiliary,mlx5_ib,ib_core,ib_umad,ib_uverbs,mlx5_core,rdma_ucm,ib_ipoib
mlxfw 22321 1 mlx5_core

17 驅動程序容器的根文件系統(tǒng)應綁定到主機上的/run/mellanox/drivers目錄。

$ ls /run/mellanox/drivers
anaconda-post.log bin boot dev etc home host lib lib64 media mnt opt proc root run sbin srv sys tmp usr var

使用自定義驅動程序容器安裝 GPU 操作員

本節(jié)介紹使用自定義驅動程序容器安裝 GPU 操作符的步驟。

與網(wǎng)絡運營商一樣, GPU 運營商容器執(zhí)行的驅動程序構建腳本需要訪問目標內(nèi)核的開發(fā)包。

本例使用的 web 服務器與上一節(jié)中向網(wǎng)絡運營商交付開發(fā)包的 web 服務器相同。

構建容器后,將其上載到 GPU 操作員 Helm chart 可以從主機訪問的存儲庫。與網(wǎng)絡運營商示例一樣, GPU 運營商也使用 NGC 上的專用注冊表。

構建自定義驅動程序容器。

$ cd ~
$ git clone https://gitlab.com/nvidia/container-images/driver.git
$ cd driver/centos7

2 .更新 CentOS Dockerfile 以使用驅動程序版本 470.74 。注釋掉未使用的參數(shù)。

$ grep ARG Dockerfile ARG BASE_URL=http://us.download.nvidia.com/XFree86/Linux-x86_64
#ARG BASE_URL=https://us.download.nvidia.com/tesla
ARG DRIVER_VERSION=470.74
ARG DRIVER_TYPE=passthrough
ARG VGPU_LICENSE_SERVER_TYPE=FNE
ARG PUBLIC_KEY=''
#ARG PUBLIC_KEY=empty
ARG PRIVATE_KEY

3 .構建 GPU 驅動程序容器映像并將其推送到 NGC 。

$ sudo podman build --no-cache --tag nvcr.io/nv-ngc5g/driver:470.74-centos7 .

4 .查看 GPU 驅動程序容器圖像。

$ podman images nvcr.io | grep 470
nvcr.io/nv-ngc5g/driver 470.74-centos7 630f0f8e77f5 2 minutes ago 1.28 GB

5 .驗證為網(wǎng)絡運營商安裝創(chuàng)建的自定義存儲庫中是否存在以下文件:

  • elfutils-libelf.x86_64
  • elfutils-libelf-devel.x86_64
  • kernel-headers-${KERNEL_VERSION}
  • kernel-devel-${KERNEL_VERSION}
  • gcc-${GCC_VERSION}

編譯自定義內(nèi)核映像的驅動程序需要這些文件。

$ cd /var/www/html/repos/centos/7/x86_64/os/base/Packages/ $ for i in $(rpm -q kernel-headers kernel-devel elfutils-libelf elfutils-libelf-devel gcc | grep -v "not installed"); do ls $i*; done
kernel-headers-3.10.0-1160.45.1.el7.custom.x86_64.rpm
kernel-devel-3.10.0-1160.45.1.el7.custom.x86_64.rpm
elfutils-libelf-0.176-5.el7.x86_64.rpm
elfutils-libelf-devel-0.176-5.el7.x86_64.rpm
gcc-4.8.5-44.el7.x86_64.rpm

6 .與網(wǎng)絡運營商不同, GPU 運營商使用自定義的 Yum 存儲庫配置文件。創(chuàng)建引用自定義鏡像存儲庫的 Yum repo 文件。

$ cd /var/www/html/repos $ cat << EOF | sudo tee custom-repo.repo [base]
name=CentOS Linux $releasever - Base
baseurl=http://10.150.168.20/repos/centos/$releasever/$basearch/os/base/
gpgcheck=0
enabled=1
EOF

7.GPU 運算符使用 Kubernetes ConfigMap 來配置自定義存儲庫。 ConfigMap 必須在gpu-operator-resources命名空間中可用。創(chuàng)建名稱空間和 ConfigMap 。

$ kubectl create ns gpu-operator-resources $ kubectl create configmap repo-config -n gpu-operator-resources --from-file=/var/www/html/repos/custom-repo.repo
configmap/repo-config created $ kubectl describe cm -n gpu-operator-resources repo-config Name: repo-config
Namespace: gpu-operator-resources
Labels: 
Annotations:  Data
====
custom-repo.repo:
----
[base]
name=CentOS Linux $releasever - Base
baseurl=http://10.150.168.20/repos/centos/$releasever/$basearch/os/base/
gpgcheck=0
enabled=1

8 .安裝 GPU 操作員舵圖。指定自定義存儲庫位置、自定義驅動程序版本以及自定義驅動程序映像名稱和位置。

$ helm install nvidia/gpu-operator --generate-name --set driver.repoConfig.configMapName=repo-config --set driver.repoConfig.destinationDir=/etc/yum.repos.d --set driver.image=driver --set driver.repository=nvcr.io/nv-ngc5g --set-string driver.version="470.74" --set toolkit.version=1.7.1-centos7 --set operator.defaultRuntime=crio

9 查看已部署的吊艙。

$ kubectl get pods -n gpu-operator-resources
NAME READY STATUS RESTARTS AGE
gpu-feature-discovery-r6kq6 1/1 Running 0 3m33s
nvidia-container-toolkit-daemonset-62pbj 1/1 Running 0 3m33s
nvidia-cuda-validator-ljd5l 0/1 Completed 0 119s
nvidia-dcgm-9nsfx 1/1 Running 0 3m33s
nvidia-dcgm-exporter-zm82v 1/1 Running 0 3m33s
nvidia-device-plugin-daemonset-bp66r 1/1 Running 0 3m33s
nvidia-device-plugin-validator-8pbmv 0/1 Completed 0 108s
nvidia-driver-daemonset-4tx24 1/1 Running 0 3m33s
nvidia-mig-manager-kvcgc 1/1 Running 0 3m32s
nvidia-operator-validator-g9xz5 1/1 Running 0 3m33s

10 驗證驅動程序是否已加載。

$ lsmod | grep nvidia
nvidia_modeset 1195268 0 nvidia_uvm 995356 0 nvidia 35237551 114 nvidia_modeset,nvidia_uvm
drm 456166 5 ast,ttm,drm_kms_helper,nvidia

11 從驅動程序守護程序盒運行 nvidia smi 。

Defaulted container "nvidia-driver-ctr" out of: nvidia-driver-ctr, k8s-driver-manager (init)
Thu Oct 28 02:37:50 2021 +-----------------------------------------------------------------------------+
| NVIDIA-SMI 470.74 Driver Version: 470.74 CUDA Version: 11.4 |
|-------------------------------+----------------------+----------------------+
| GPU Name Persistence-M| Bus-Id Disp.A | Volatile Uncorr. ECC |
| Fan Temp Perf Pwr:Usage/Cap| Memory-Usage | GPU-Util Compute M. |
| | | MIG M. |
|===============================+======================+======================|
| 0 NVIDIA A100-PCI... On | 00000000:23:00.0 Off | 0 |
| N/A 25C P0 32W / 250W | 0MiB / 40536MiB | 0% Default |
| | | Disabled |
+-------------------------------+----------------------+----------------------+
| 1 NVIDIA A100-PCI... On | 00000000:E6:00.0 Off | 0 |
| N/A 27C P0 32W / 250W | 0MiB / 40536MiB | 0% Default |
| | | Disabled |
+-------------------------------+----------------------+----------------------+ +-----------------------------------------------------------------------------+
| Processes: |
| GPU GI CI PID Type Process name GPU Memory |
| ID ID Usage |
|=============================================================================|
| No running processes found |
+-----------------------------------------------------------------------------+

啟用 GPUnDeID-RDMA 的英偉達對等存儲器驅動器不是自動構建的。

重復此過程以構建自定義 nvidia peermem 驅動程序容器。

對于 GPU 運營商中的 nvidia peermem 安裝程序尚不支持的任何 Linux 操作系統(tǒng),都需要此附加步驟。

英偉達加速器的未來

NVIDIA 加速器有助于在傳感器數(shù)據(jù)呈指數(shù)級增長的情況下,對未來的邊緣 AI 投資進行驗證。 NVIDIA 運營商是云本地軟件,可簡化 Kubernetes 上的加速器部署和管理。運營商支持流行的 Kubernetes 開箱即用平臺,并且可以定制以支持替代平臺。

關于作者

Jacob Liberman 是 NVIDIA 企業(yè)和邊緣加速集團的產(chǎn)品經(jīng)理。他利用 20 多年的技術計算經(jīng)驗提供高性能、云計算原生邊緣人工智能解決方案。此前,他曾在紅帽、 AMD 和戴爾擔任產(chǎn)品管理和工程職務。

審核編輯:法人

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權轉載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 傳感器
    +關注

    關注

    2561

    文章

    52198

    瀏覽量

    761707
  • NVIDIA
    +關注

    關注

    14

    文章

    5188

    瀏覽量

    105427
收藏 人收藏

    評論

    相關推薦

    Deepseek海思SD3403邊緣計算AI產(chǎn)品系統(tǒng)

    海思SD3403邊緣計算AI框架,提供了一套開放式AI訓練產(chǎn)品工具包,解決客戶低成本AI系統(tǒng),針對差異化AI 應用場景,自己采集樣本數(shù)據(jù),進
    發(fā)表于 04-28 11:05

    NVIDIA虛擬GPU 18.0版本的亮點

    NVIDIA 虛擬 GPU(vGPU)技術可在虛擬桌面基礎設施(VDI)中解鎖 AI 功能,使其比以往更加強大、用途更加廣泛。vGPU 通過為各種虛擬化環(huán)境中的 AI 驅動工作負載提供
    的頭像 發(fā)表于 04-07 11:28 ?374次閱讀

    使用NVIDIA RTX PRO Blackwell系列GPU加速AI開發(fā)

    NVIDIA GTC 推出新一代專業(yè)級 GPUAI 賦能的開發(fā)者工具—同時,ChatRTX 更新現(xiàn)已支持 NVIDIA NIM,RTX Remix 正式結束測試階段,本月的
    的頭像 發(fā)表于 03-28 09:59 ?437次閱讀

    AI賦能邊緣網(wǎng)關:開啟智能時代的新藍海

    在數(shù)字化轉型的浪潮中,AI邊緣計算的結合正掀起一場深刻的產(chǎn)業(yè)變革。邊緣網(wǎng)關作為連接物理世界與數(shù)字世界的橋梁,在AI技術的加持下,正從簡單的數(shù)據(jù)采集傳輸節(jié)點,進化為具備智能決策能力的
    發(fā)表于 02-15 11:41

    0xmd公司通過NVIDIA GPU打造醫(yī)療AI解決方案

    本案例中,0xmd 公司通過 NVIDIA GPU 打造醫(yī)療 AI 解決方案,覆蓋影像分析和文本解讀等領域。
    的頭像 發(fā)表于 01-14 16:23 ?353次閱讀

    NVIDIA和GeForce RTX GPU專為AI時代打造

    NVIDIA 和 GeForce RTX GPU 專為 AI 時代打造。
    的頭像 發(fā)表于 01-06 10:45 ?457次閱讀

    《CST Studio Suite 2024 GPU加速計算指南》

    的各個方面,包括硬件支持、操作系統(tǒng)支持、許可證、GPU計算的啟用、NVIDIA和AMD GPU的詳細信息以及相關的使用指南和故障排除等內(nèi)容。 1. 硬件支持 - NVIDIA
    發(fā)表于 12-16 14:25

    AMD與NVIDIA GPU優(yōu)缺點

    在圖形處理單元(GPU)市場,AMD和NVIDIA是兩大主要的競爭者,它們各自推出的產(chǎn)品在性能、功耗、價格等方面都有著不同的特點和優(yōu)勢。 一、性能 GPU的性能是用戶最關心的指標之一。在高端市場
    的頭像 發(fā)表于 10-27 11:15 ?1851次閱讀

    NVIDIA IGX平臺加速實時邊緣AI應用

    實時邊緣 AI 對于醫(yī)療、工業(yè)和科學計算至關重要,因為這些任務關鍵型應用需要即時數(shù)據(jù)處理、低延遲和高可靠性,以確保作出及時準確的決策。這些挑戰(zhàn)不僅涉及硬件平臺上的高帶寬傳感器處理和 AI 計算,還需要企業(yè)級
    的頭像 發(fā)表于 09-09 10:14 ?872次閱讀
    <b class='flag-5'>NVIDIA</b> IGX平臺加速實時<b class='flag-5'>邊緣</b><b class='flag-5'>AI</b>應用

    初創(chuàng)公司SEA.AI利用NVIDIA邊緣AI和計算機視覺技術變革航海安全系統(tǒng)

    總部位于奧地利林茨的初創(chuàng)公司正在利用 NVIDIA 邊緣 AI 和計算機視覺技術變革航海安全系統(tǒng),讓每一次出海變得更安全。
    的頭像 發(fā)表于 09-09 09:32 ?753次閱讀

    暴漲預警!NVIDIA GPU供應大跳水

    gpu
    jf_02331860
    發(fā)布于 :2024年07月26日 09:41:42

    MediaTek與NVIDIA TAO加速物聯(lián)網(wǎng)邊緣AI應用發(fā)展

    在即將到來的COMPUTEX 2024科技盛會上,全球知名的芯片制造商MediaTek宣布了一項重要合作——將NVIDIA的TAO(TensorRT Accelerated Optimizer)與其NeuroPilot SDK(軟件開發(fā)工具包)集成,共同推動邊緣
    的頭像 發(fā)表于 06-12 14:49 ?629次閱讀

    NVIDIA 通過 Holoscan 為 NVIDIA IGX 提供企業(yè)軟件支持

    美敦力、SETI 協(xié)會以及領先制造商正在構建 NVIDIA IGX 系統(tǒng),為 AI 在工業(yè)邊緣賦能。 ? NVIDIA 于6月2日宣布,集成NVID
    的頭像 發(fā)表于 06-04 10:21 ?717次閱讀

    NVIDIA為新工業(yè)革命打造 AI 工廠和數(shù)據(jù)中心

    領先的計算機制造商推出一系列?Blackwell 賦能的系統(tǒng),搭載 Grace CPU、NVIDIA 網(wǎng)絡和基礎設施 豐富的產(chǎn)品組合覆蓋云、專用系統(tǒng)、嵌入式和邊緣 AI 系統(tǒng)等 產(chǎn)品配置豐富,從單
    的頭像 發(fā)表于 06-03 18:14 ?1215次閱讀

    NVIDIA 通過 Holoscan 為 NVIDIA IGX 提供企業(yè)軟件支持,實現(xiàn)邊緣實時醫(yī)療、工業(yè)和科學 AI 應用

    美敦力、SETI協(xié)會以及領先的制造商正在構建? NVIDIA IGX 系統(tǒng), 為 ?AI 在工業(yè)邊緣賦能 ? ? COMPUTEX — 2024 年 6 月 2 日 — NVIDIA
    發(fā)表于 06-03 09:48 ?430次閱讀
      <b class='flag-5'>NVIDIA</b> 通過 Holoscan 為 <b class='flag-5'>NVIDIA</b> IGX 提供企業(yè)軟件支持,實現(xiàn)<b class='flag-5'>邊緣</b>實時醫(yī)療、工業(yè)和科學 <b class='flag-5'>AI</b> 應用