Гарантия до 5 лет
Диагностика перед отправкой
Присылайте спецификацию для подбора и расчета стоимости оборудования
Подключим и настроим оборудование в вашем офисе или ЦОДе
В зависимости от суммы поставляемого товара можем предоставить отсрочку платежа на срок от 5 до 90 дней. Условия отсрочки платежа рассматриваются индивидуально. Подробную информацию уточняйте у вашего менеджера.
GPU‑сервер Dell с 8 ускорителями NVIDIA B200 (SXM) представляет собой комплексное и мощное решение для выполнения энергоёмких задач искусственного интеллекта, машинного обучения и высокопроизводительных вычислений. Собран на базе современных процессоров Intel Xeon Platinum, эта система оснащена восемью ускорителями NVIDIA B200, каждый из которых имеет 192 ГБ памяти HBM3e, обеспечивая общую память свыше 1,5 ТБ и пропускную способность, необходимую для обработки самых крупных AI-моделей и рабочих нагрузок.

Ускорители NVIDIA B200 выполнены по архитектуре Blackwell с 208 миллиардами транзисторов и памяти HBM3e общим объёмом 192 ГБ на каждый GPU, с пропускной способностью до 8 ТБ/с. Топология NVLink 5.0 в сочетании с NVSwitch позволяет сформировать единую высокоскоростную сеть между восьмью GPU с пропускной способностью передачи данных до 1,8 ТБ/с, что значительно ускоряет параллельные вычисления и распределённое обучение нейросетей.
Сервер оборудован высокоэффективной системой жидкостного охлаждения и поддерживает Multi-Instance GPU (MIG) для разделения ресурсов каждого GPU на до 7 независимых виртуальных инстансов, что повышает гибкость и масштабируемость вычислительных операций.
Dell PowerEdge с NVIDIA B200 оснащён до 4 ТБ DDR5 памяти, высокоскоростными NVMe SSD-дисками и современными сетевыми интерфейсами с пропускной способностью до 400 Гбит/с, включая InfiniBand и Ethernet. Платформа полностью совместима с NVIDIA AI Enterprise, предоставляющим полный набор инструментов CUDA, TensorRT, Triton и поддержку популярных AI-фреймворков, таких как PyTorch и TensorFlow. Система предназначена для дата-центров и научных лабораторий, которые требуют максимальной производительности и качества обработки больших моделей ИИ.