
CoreWeave stworzyło dedykowane rozwiązania chmurowe zoptymalizowane pod kątem technologii Blackwell. CoreWeave Kubernetes Service zapewnia efektywną orkiestrację obciążeń, umożliwiając precyzyjne zarządzanie środowiskiem NVLink. Dodatkowo, platforma CoreWeave obsługuje Slurm on Kubernetes (SUNK), który umożliwia inteligentne rozlokowanie zadań w ramach infrastruktury GB200 NVL72. Wbudowana technologia monitorująca zapewnia wgląd w wydajność NVLink, stopień wykorzystania GPU oraz temperatury pracy.
Instancje GB200 NVL72 wdrożone przez CoreWeave wykorzystują także sieć NVIDIA Quantum-2 InfiniBand, oferującą przepustowość 400 Gb/s dla pojedynczej jednostki GPU, co pozwala na tworzenie klastrów o gigantycznej skali. Wdrożone NVIDIA BlueField-3 DPUs zapewniają elastyczne zasoby chmurowe z wysoką wydajnością, bezpiecznym dostępem do danych i dynamiczną alokacją mocy obliczeniowej.
NVIDIA GB200 NVL72 na platformie CoreWeave
Firmy zainteresowane wdrożeniem rozwiązania mogą już teraz rozpocząć konfigurację instancji GB200 NVL72 za pośrednictwem CoreWeave Kubernetes Service w regionie US-WEST-01 przy użyciu identyfikatora gb200-4x. Dodatkowe informacje można uzyskać, kontaktując się bezpośrednio z CoreWeave.
Wszystkie te rozwiązania są częścią pakietu oprogramowania NVIDIA AI Enterprise, które wspiera wdrażanie agentów AI na masową skalę i może zostać bezproblemowo wdrożone na platformie CoreWeave.
Pełna platforma AI od NVIDIA łączy zaawansowane oprogramowanie z infrastrukturą opartą na układach Blackwell, pozwalając firmom budować szybkie, precyzyjne i skalowalne modele AI.
Narzędzie <a target="blank” href=”https://www.nvidia.com/en-us/ai-data-science/ai-workflows/”>NVIDIA Blueprints oferuje gotowe i konfigurowalne środowiska referencyjne ułatwiające deweloperom tworzenie praktycznych aplikacji AI. <a target="blank” href=”https://www.nvidia.com/en-us/ai/”>NVIDIA NIM to zestaw mikrousług wspierających bezpieczne wdrażanie wysokowydajnych modeli AI przeznaczonych do wnioskowania. Z kolei NVIDIA NeMo dostarcza narzędzi do treningu, dostosowywania i nieustannego doskonalenia modeli AI stosowanych w nowoczesnym biznesie.
Kompleksowa platforma dla sztucznej inteligencji w przedsiębiorstwach
Udostępnienie instancji opartych na NVIDIA GB200 NVL72 przez CoreWeave to kluczowy krok we współpracy tych firm, mający na celu dostarczenie najbardziej zaawansowanych rozwiązań obliczeniowych dla chmury. Dzięki tym nowym instancjom przedsiębiorstwa zyskują dostęp do potężnej infrastruktury, umożliwiającej uruchamianie najbardziej zaawansowanych modeli AI oraz inteligentnych agentów.
Modele sztucznej inteligencji zdolne do zaawansowanego rozumowania oraz inteligentni agenci wkrótce zrewolucjonizują przemysł. Jednak ich pełne wdrożenie na dużą skalę wymaga ogromnej mocy obliczeniowej i zoptymalizowanego oprogramowania. Proces „rozumowania” w AI obejmuje bowiem współpracę wielu modeli, generujących dodatkowe tokeny. Aby zapewnić wysoką jakość i szybkość przetwarzania w czasie rzeczywistym, konieczna jest infrastruktura łącząca szybkie połączenia sieciowe, pamięć o wysokiej przepustowości oraz potężne jednostki obliczeniowe.
W odpowiedzi na to zapotrzebowanie, CoreWeave udostępniło nowoczesne instancje oparte na <a target="blank” href=”https://www.nvidia.com/en-us/data-center/gb200-nvl72/”>NVIDIA GB200 NVL72, stając się pierwszym dostawcą chmury oferującym komercyjny dostęp do platformy <a target="blank” href=”https://www.nvidia.com/en-us/data-center/technologies/blackwell-architecture/”>NVIDIA Blackwell. Nowe instancje CoreWeave umożliwiają skalowanie nawet do 110 000 jednostek GPU dzięki NVIDIA Quantum-2 InfiniBand, co zapewnia potężną moc do budowy i wdrażania najnowszych modeli AI.
Przyszłość sztucznej inteligencji w chmurze
Jednym z kluczowych elementów tej technologii jest piąta generacja NVLink, zapewniająca imponującą przepustowość na poziomie 130TB/s w ramach jednej domeny NVLink obejmującej 72 jednostki GPU. Dodatkowo, druga generacja silnika Transformer Engine umożliwia wykorzystanie formatu FP4, pozwalając na jeszcze szybszą pracę modeli AI przy jednoczesnym zachowaniu wysokiej precyzji.
Nowa platforma NVIDIA GB200 NVL72 to system chłodzony cieczą, który oferuje spójne środowisko NVLink dla 72 jednostek GPU, umożliwiając im działanie jako pojedyncza, potężna jednostka obliczeniowa. Dzięki innowacyjnym rozwiązaniom platforma NVIDIA Blackwell znacząco przyspiesza generowanie tokenów w procesie wnioskowania, minimalizując jednocześnie koszty działania.