Гарантия до 5 лет
Диагностика перед отправкой
Присылайте спецификацию для подбора и расчета стоимости оборудования
Подключим и настроим оборудование в вашем офисе или ЦОДе
В зависимости от суммы поставляемого товара можем предоставить отсрочку платежа на срок от 5 до 90 дней. Условия отсрочки платежа рассматриваются индивидуально. Подробную информацию уточняйте у вашего менеджера.
GPU‑сервер ASUS с 8 ускорителями NVIDIA H100 (SXM) представляет собой высокопроизводительную вычислительную платформу, созданную для комплексных задач искусственного интеллекта, глубокого обучения и научных вычислений. Оснащённый восемью графическими процессорами NVIDIA H100 на архитектуре Hopper, каждый с 80 ГБ памяти HBM3 и пропускной способностью до 3,35 ТБ/с, сервер обеспечивает исключительную производительность и масштабируемость для ускорения обучения крупных языковых моделей, генеративного ИИ и высокопроизводительных вычислительных задач.

NVIDIA H100 построены по 4-нм техпроцессу с использованием 456 тензорных ядер четвёртого поколения, поддерживающих продвинутые числовые форматы FP8 и FP16 для максимальной скорости и точности. Каждый GPU оснащён 80 ГБ памяти HBM3 с пропускной способностью до 3,35 ТБ/с. Использование NVLink 4.0 и NVSwitch обеспечивает полносвязную топологию с пропускной способностью до 900 ГБ/с для высокой скорости обмена данными между восемью GPU, что устраняет узкие места при параллельных вычислениях и распределённом обучении.
Технология Multi-Instance GPU (MIG) позволяет разделять каждый ускоритель на до 7 виртуальных инстансов, что повышает эффективность и гибкость работы со сложными и разнородными задачами параллельно.
Сервер ASUS с 8 NVIDIA H100 SXM интегрируется в современные дата-центры и HPC-кластеры, поддерживая NVMe SSD и высокопроизводительные сетевые интерфейсы InfiniBand и Ethernet с пропускной способностью до 400 Гбит/с. Платформа совместима с программным стеком NVIDIA AI Enterprise, который включает CUDA, TensorRT, Triton, а также популярные AI-фреймворки: PyTorch, TensorFlow и DeepSpeed. Это решение оптимально подходит для масштабируемого обучения и инференса AI моделей, генеративного ИИ, высокопроизводительных вычислений и научных исследований.