Гарантия до 5 лет
Диагностика перед отправкой
Присылайте спецификацию для подбора и расчета стоимости оборудования
Подключим и настроим оборудование в вашем офисе или ЦОДе
В зависимости от суммы поставляемого товара можем предоставить отсрочку платежа на срок от 5 до 90 дней. Условия отсрочки платежа рассматриваются индивидуально. Подробную информацию уточняйте у вашего менеджера.
GPU‑сервер HPE с 8 ускорителями NVIDIA H200 (SXM) представляет собой мощную вычислительную платформу, предназначенную для выполнения сложных задач искусственного интеллекта, глубокого обучения и высокопроизводительных научных вычислений. Оснащённый восемью графическими ускорителями NVIDIA H200, каждый с 141 ГБ памяти HBM3e и пропускной способностью до 4,8 ТБ/с, сервер обеспечивает значительный объём видеопамяти и высокую скорость обработки данных, необходимые для масштабируемых AI моделей и ресурсоёмких рабочих нагрузок.

Ускорители NVIDIA H200 основаны на архитектуре Hopper с 4-нм техпроцессом, включают 456 тензорных ядер четвёртого поколения и поддерживают передовые числовые форматы FP8 и FP16 для повышения эффективности и точности вычислений. Каждый GPU оборудован 141 ГБ памяти HBM3e с пропускной способностью до 4,8 ТБ/с. Высокоскоростная топология NVLink 5.0 и NVSwitch позволяет объединять восемь GPU в высокопроизводительный кластер с пропускной способностью до 900 ГБ/с, обеспечивая эффективное масштабирование и ускорение параллельных вычислений.
Технология Multi-Instance GPU (MIG) позволяет разделять каждый GPU на до 7 независимых виртуальных инстансов, что значительно повышает гибкость и ресурсную эффективность системы при одновременном выполнении различных задач.
Сервер HPE с 8 NVIDIA H200 SXM поддерживает современные дата-центровые технологии, включая NVMe SSD, высокопроизводительные сетевые интерфейсы с пропускной способностью до 400 Гбит/с, такие как InfiniBand и Ethernet. Платформа совместима с программным пакетом NVIDIA AI Enterprise, включающим CUDA, TensorRT, Triton, а также популярные AI-фреймворки, такие как PyTorch, TensorFlow и DeepSpeed. Это делает сервер идеальным для обучения и инференса крупных языковых моделей, генеративного AI, а также для решений HPC и научных вычислений.