NVIDIA H200 NVL 141 GB - 900-21010-0040-000
Układ graficzny: H200 BUS: PCIe 5.0 x16 Pojemność pamięci: 141 GB Wydajność teoretyczna FP32: 67 TFLOP Wydajność teoretyczna FP8: 3.958 TFLOP Chłodzenie: Aktywny
Wszystkie u GPU architektury NVIDIA Ampere, NVIDIA Grace Hopper, NVIDIA Ada Lovelace i NVIDIA Blackwell podlegają NCNR (Non-Cancellable, Non-Returnable) wynoszącemu 52 tygodnie. Ponadto produkt podlega sankcjom dla niektórych krajów i konieczne jest udokumentowanie końcowego klienta.
Możemy dostarczyć te karty GPU bezpośrednio i z indywidualną ceną B2B. Skontaktuj się z nami i zapytajo cenę.
Kod towaru | 214.176835 |
---|---|
Part number | 900-21010-0040-000 |
Supermicro Part No. | GPU-NVH200NVL |
Producent | NVIDIA |
Dostępność | Na zamówienie |
Gwarancja | 24 miesięcy |
Waga | 2 kg |
Cena zawiera wszystkie obowiązujące opłaty |
Szczegółowe informacje
Floating point
Wykorzystując jednostkę FLOPS, możemy dzisiaj oszacować surową wydajność kart graficznych. Określa ona, ile operacji na sekundę może wykonać karta graficzna, co pozwala nam je ze sobą porównywać. Należy jednak pamiętać, że wartości te mogą się różnić w zależności od rozmiaru bitu reprezentacji zmiennoprzecinkowej (FP). Im większy rozmiar bitu, tym dokładniejsze są obliczenia, ale też ich mniej. Ponieważ komputery do gier potrzebują precyzyjnych wartości dla płynnej pracy, używają głównie 32-bitowego FP (lub FP32). Z drugiej strony Deep Learning nie wymaga tak precyzyjnych obliczeń, dlatego karty graficzne AI wykorzystują FP8. To drastycznie obniża dokładność, ale z drugiej strony zwiększa liczbę obliczeń.
Pamięć graficzna
VRAM, w dzisiejszych czasach głównie GDDR, to pamięć synchroniczna, podobna do standardowej pamięci RAM. Jednak w przypadku pamięci graficznej standardem są układy pamięci o większej przepustowości i wielu szybkościach przesyłania danych. Rezultatem jest znacznie szybsze buforowanie danych, które karta graficzna lub koprocesor oblicza i przekazuje do procesora.
Technologia CUDA
Dzięki architekturze CUDA użytkownicy profesjonalnych aplikacji mogą korzystać z graficznych procesorów stream CUDA. Dzięki temu wydajność brutto karty graficznej może być wykorzystana do konkretnych obliczeń, co może wielokrotnie przyspieszyć pracę w porównaniu z wykorzystaniem klasycznego procesora, który jest znacznie ograniczony mniejszą liczbą rdzeni.
Aktywny
Aktywny rodzaj chłodzenia jest rozszerzony głównie ze względu na niezawodną metodę obniżania temperatury, polega nachłodzeniu strumieniem powietrza, zwykle tworzonym przez jeden lub więcej wentylatorów, a jego celem jest pomoc w wytworzeniu podciśnienia wewnątrz obudowy, a tym samym znaczne poprawienie przepływu powietrza, które usuwa ciepło z karty graficznej z obudowy. Aktywne chłodzenie kart graficznych zostało rozwiązane przez aksjalne, typowe dla tradycyjnych kart graficznych do gier oraz promieniowe, które wykorzystuje wzdłużny przepływ powietrza; ten rodzaj chłodzenia stosowany jest na przykład w wersjach kart graficznych TURBO.
PCI Express
PCI Express to interfejs, który zwykle przyjmuje postać gniazda rozszerzeń, aby zapewnić modułowość całego systemu, niezależnie od tego, czy są to procesory graficzne, karty sieciowe, kontrolery, dyski M.2 czy inne karty rozszerzeń. Prawdą jest, że im nowsza generacja i im szerszy interfejs, tym wyższa wydajność i przepustowość. Większość nowoczesnych kart graficznych wykorzystuje 16 linii do połączenia z procesorem. Obecnie najbardziej aktualną generacją PCI Express jest generacja 6.0 z prędkością 7.5 GB/s na linię.
Parametry
Oznaczenie modelu | Tesla |
---|---|
Architektura | Hopper |
Pojemność pamięci w GB | 141 |
Liczba stream procesorów | |
Typ pamięci | |
Ilość slotów | 1 |
Wyjście monitora | None |
Profil | FH/LP |
Magistrala komunikacyjna | PCI-E 5.0 16x |
Rodzaj chłodzenia | Active |
Zużycie (W) | 600 |