Гарантия до 5 лет
Диагностика перед отправкой
Присылайте спецификацию для подбора и расчета стоимости оборудования
Подключим и настроим оборудование в вашем офисе или ЦОДе
В зависимости от суммы поставляемого товара можем предоставить отсрочку платежа на срок от 5 до 90 дней. Условия отсрочки платежа рассматриваются индивидуально. Подробную информацию уточняйте у вашего менеджера.
GPU‑сервер NVIDIA с 8 ускорителями NVIDIA H100 (SXM) представляет собой мощную платформу для выполнения самых требовательных задач в области искусственного интеллекта, глубокого обучения и HPC. Оборудованный восемью графическими процессорами NVIDIA H100 на архитектуре Hopper, каждый с 80 ГБ памяти HBM3 и пропускной способностью до 3,35 ТБ/с, сервер обеспечивает высокую производительность для ускоренного обучения масштабных AI-моделей и сложных вычислительных задач.

Ускорители NVIDIA H100 выполнены по 4-нм техпроцессу и оснащены 456 тензорными ядрами четвёртого поколения, поддерживающими передовые числовые форматы FP8 и FP16 для повышения производительности и точности. Каждый GPU оборудован 80 ГБ памяти HBM3 с пропускной способностью до 3,35 ТБ/с. Топология NVLink 4.0 и NVSwitch обеспечивает высокоскоростное соединение восьми GPU с пропускной способностью до 900 ГБ/с, что минимизирует задержки при передаче данных и улучшает масштабируемость при параллельных вычислениях.
Технология Multi-Instance GPU (MIG) позволяет разделять каждый GPU на до 7 виртуальных инстансов, что обеспечивает гибкость и эффективность при выполнении разнообразных задач.
Сервер NVIDIA с 8 H100 SXM рассчитан на использование в высокопроизводительных дата-центрах и вычислительных кластерах с поддержкой NVMe SSD, а также высокоскоростных сетевых интерфейсов InfiniBand и Ethernet со скоростью до 400 Гбит/с. Платформа совместима с программным стеком NVIDIA AI Enterprise, включающим CUDA, TensorRT, Triton, и популярные AI-фреймворки PyTorch, TensorFlow и DeepSpeed. Это делает сервер идеальным выбором для масштабируемого обучения и инференса AI-моделей, генеративного ИИ и HPC.