Гарантия до 5 лет
Диагностика перед отправкой
Присылайте спецификацию для подбора и расчета стоимости оборудования
Подключим и настроим оборудование в вашем офисе или ЦОДе
В зависимости от суммы поставляемого товара можем предоставить отсрочку платежа на срок от 5 до 90 дней. Условия отсрочки платежа рассматриваются индивидуально. Подробную информацию уточняйте у вашего менеджера.
GPU‑сервер HPE с 4 ускорителями NVIDIA H200 (PCIe) представляет собой эффективное и компактное решение для высокопроизводительных вычислений, искусственного интеллекта и глубокого обучения. Оснащён четырьмя графическими ускорителями NVIDIA H200 в форм-факторе PCIe NVL, сервер обеспечивает 141 ГБ памяти HBM3e на каждый GPU с пропускной способностью до 4,8 ТБ/с, что позволяет обрабатывать крупные AI-модели и выполнять интенсивные параллельные вычисления с высокой скоростью и энергоэффективностью.

Ускорители NVIDIA H200 PCIe созданы на базе архитектуры Hopper с использованием 4-нм техпроцесса. Каждый GPU оснащён 141 ГБ памяти HBM3e с пропускной способностью до 4,8 ТБ/с и 456 тензорными ядрами четвёртого поколения, которые поддерживают передовые числовые форматы FP8 и FP16 для повышения производительности и точности вычислений. Сервер также поддерживает технологию Multi-Instance GPU (MIG), которая позволяет разделять ускоритель на несколько виртуальных инстансов с 16,5 ГБ памяти, обеспечивая гибкость выполнения параллельных задач.
Интерфейс PCIe Gen5 x16 обеспечивает пропускную способность до 128 ГБ/с, обеспечивая быструю и надежную связь между компонентами сервера. Система охлаждения и энергоснабжения сервера оптимизированы для стабильной работы под высокими нагрузками и долговременного использования.
Сервер HPE с 4 NVIDIA H200 PCIe интегрируется в современные вычислительные центры и кластеры, поддерживая NVMe накопители и высокоскоростные сетевые технологии включая InfiniBand и Ethernet со скоростью до 400 Гбит/с. Платформа совместима с NVIDIA AI Enterprise, которая включает CUDA, TensorRT, Triton и популярные AI-фреймворки – TensorFlow, PyTorch, DeepSpeed, а также JAX. Такое решение подходит для средних и крупных AI проектов, генеративного ИИ и HPC задач, обеспечивая высокую производительность и масштабируемость.