Почему нет цен?
Уточнить ценуГарантия до 5 лет
Диагностика перед отправкой
Присылайте спецификацию для подбора и расчета стоимости оборудования
Подключим и настроим оборудование в вашем офисе или ЦОДе
NVIDIA L40 48GB — это профессиональный GPU-ускоритель дата-центрового класса на архитектуре Ada Lovelace, ориентированный на визуальные вычисления, нейрографику, задачи искусственного интеллекта и высокопроизводительную обработку медиа в серверных платформах с интерфейсом PCI Express 4.0 x16. В официальной документации L40 позиционируется как универсальное решение для центров обработки данных, объединяющее вычислительные, графические и AI‑возможности: ускорение рендеринга, симуляции, генеративной графики, а также обучения и инференса моделей глубокого обучения. Адаптер выполнен в форм-факторе полноразмерной двухслотовой карты PCIe Gen4 с пассивным охлаждением и тепловым пакетом 300 Вт, рассчитанным на GPU‑оптимизированные серверные шасси с направленным воздушным потоком. По данным официального даташита и партнёрских спецификаций, NVIDIA L40 оснащён 48 ГБ памяти GDDR6 с пропускной способностью около 864 ГБ/с, а также 18 176 ядрами CUDA архитектуры Ada и тензорными ядрами четвёртого поколения, обеспечивающими до 90,5 TFLOPS в FP32 и свыше 180 TFLOPS в FP16‑операциях.
Согласно продукт-гайду ThinkSystem NVIDIA L40 48GB PCIe Gen4 Passive GPU, ускоритель построен на архитектуре Ada Lovelace и включает 18 176 CUDA‑ядер, оптимизированных для параллельных вычислений, рендеринга и симуляций. В том же документе указывается, что L40 реализует современный стек графических и вычислительных API: DirectX 12 Ultimate, OpenGL 4.6, Vulkan 1.3, а также поддерживает CUDA 12.0, DirectCompute и OpenCL 3.0, что делает его пригодным как для визуализации, так и для вычислительных задач. По данным аналитических спецификаций, L40 обеспечивает порядка 90,5 TFLOPS производительности в FP32 и около 181 TFLOPS в FP16, а количество тензорных ядер оценивается в 568, что подтверждает ориентацию карты на задачи нейросетей и AI‑ускорения. В официальном даташите NVIDIA также подчёркивается наличие RT‑ядер для трассировки лучей и поддержки продвинутых функций нейрографики и рендеринга.
Подсистема памяти NVIDIA L40 представлена 48 ГБ GDDR6 с интерфейсом PCIe‑класса и широкой шиной, обеспечивающей пропускную способность около 864 ГБ/с, согласно сводным спецификациям. Такой объём и скорость памяти позволяют работать с большими 3D‑сценами, набором текстур, моделями нейросетей и массивами данных в рамках одной карты без постоянного обращения к системной памяти. В документе Lenovo Press для L40 указывается, что адаптер имеет форм-фактор PCIe Full Height Full Length (FHFL), двойную ширину (dual-slot), интерфейс PCIe 4.0 x16 и использует протокол прерываний MSI-X, при этом классический MSI не поддерживается. Максимальная мощность указана на уровне 300 Вт, а охлаждение — пассивное, что требует использования серверных шасси с достаточным воздушным потоком.
В официальном описании NVIDIA L40 подчёркиваются расширенные мультимедийные возможности: три движка кодирования и три движка декодирования видео, включая поддержку AV1‑кодирования, что даёт до двукратного выигрыша по производительности и TCO для потокового видео, трансляций и производственных видеопайплайнов. Каждый DisplayPort 1.4 с DSC, предусмотренный в дизайне карты, способен выводить 4K при 120 Гц с 30‑битным цветом, что облегчает использование L40 в рабочих станциях и серверных платформах с возможностью прямого подключения дисплеев (в зависимости от OEM‑реализации). В совокупности архитектура Ada, 18 176 CUDA‑ядер, тензорные и RT‑ядра, 48 ГБ GDDR6 и мощный мультимедийный блок делают NVIDIA L40 универсальным ускорителем для визуализации, нейрографики и задач искусственного интеллекта в дата-центрах.

В официальном гайде Lenovo L40 описывается как решение для «невиданных ранее» визуальных вычислений в дата-центре, сочетающее нейрографику, вычисления и AI для самых требовательных визуальных рабочих нагрузок. Архитектура Ada, тензорные ядра, большой объём памяти и высокая пропускная способность делают карту пригодной как для графических, так и для чисто вычислительных и AI‑нагрузок.
NVIDIA L40 48GB реализован как двухслотовая PCIe 4.0 x16 карта FHFL с пассивным охлаждением и TDP 300 Вт, что требует использования серверных платформ, поддерживающих полноразмерные GPU‑ускорители и соответствующий воздушный поток. В официальном гайде Lenovo ThinkSystem приведён перечень серверов, в которых L40 квалифицирован и поддерживается, а глобальный документ NVIDIA‑Certified Systems фиксирует наличие сертифицированных систем с L40 у ведущих OEM.
В официальном даташите NVIDIA L40 и продукт-гайде Lenovo подчёркивается, что ускоритель разработан для круглосуточной эксплуатации в центрах обработки данных и виртуализированных средах, где важны стабильность, предсказуемое энергопотребление и высокая плотность вычислительных ресурсов. Пассивное охлаждение и TDP 300 Вт требуют использования GPU‑оптимизированных серверных шасси с тщательно рассчитанным воздушным потоком, что детализируется в OEM‑документации Lenovo и других производителей. Поддержка ECC‑памяти для GDDR6 (в контексте корпоративных реализаций) и наличие vGPU‑профилей для NVIDIA L40 (по данным vGPU‑даташита) повышают надёжность и обеспечивают изоляцию между рабочими нагрузками при консолидации нескольких пользователей и задач на одном GPU.
Документ NVIDIA‑Certified Systems показывает наличие официально протестированных конфигураций с L40 и L40S у HPE, Lenovo, Supermicro и партнёрских решений на базе Dell, что снижает риски несовместимости и упрощает проектирование инфраструктуры. Поддержка современных стеков CUDA, DirectCompute, OpenCL, а также графических API и медиавозможностей делает NVIDIA L40 48GB гибким инструментом для развёртывания комплексных решений, сочетающих визуализацию, генеративный ИИ, инференс LLM и прикладной HPC в одном GPU‑флоте дата-центра. В совокупности архитектура Ada Lovelace, 18 176 CUDA‑ядер, тензорные и RT‑ядра, 48 ГБ GDDR6, медиаблок с AV1 и наличие сертифицированных серверных платформ делают NVIDIA L40 48GB надёжной и многофункциональной основой для современных визуальных и AI‑инфраструктур в ЦОД.