Сетевая карта HPE InfiniBand HDR100/Ethernet 100Gb 1-port QSFP56 PCIe4 x16 MCX653105A-ECAT Adapter (P23665-B21)
0
Арт. Сетевая карта HPE InfiniBand HDR100/Ethernet 100Gb 1-port QSFP56 PCIe4 x16 MCX653105A-ECAT Adapter (P23665-B21)
89 521 ₽
Нашли дешевле?
Хочу в подарок
Гарантия от 1 до 3 лет
Описание
Сетевой адаптер HPE P23665‑B21 основан на технологии NVIDIA Mellanox ConnectX‑6, обеспечивая 100 Gb/s HDR InfiniBand и 100 Gb Ethernet в одной карте. Это решение класса HPC для кластеров, научных расчётов и инфраструктур ИИ с максимальной скоростью и минимальной задержкой передачи данных.
Все описание
Цены могут меняться в зависимости от Курса валют и наличия товара на складах.
HPE InfiniBand HDR100/Ethernet 100 Gb 1‑Port QSFP56 PCIe Gen4 x16 MCX653105A‑ECAT Adapter (P23665‑B21)
⚙️ Общие характеристики
- Интерфейс PCI Express 4.0 x16
- Порт 1 × QSFP56 (скорость до 100 Gb/s)
- Тип соединения InfiniBand HDR100 и Ethernet 100 GbE (двойной режим)
- Контроллер NVIDIA (Mellanox) ConnectX‑6 HPC
- Форм‑фактор Low Profile (single slot)
🚀 Производительность
- Пропускная способность 100 Гбит/с на порт
- Задержка менее 600 нс в режиме InfiniBand HDR
- Выделенная обработка RDMA на уровне аппаратуры (RoCE v2, RDMA over InfiniBand)
- DMA и Offload‑механизмы снижают нагрузку на CPU до 80 %
- Надёжность и масштабируемость для кластеров высокопроизводительных вычислений (HPC) и сред искусственного интеллекта
🧠 Возможности
- Поддержка InfiniBand HDR100, EDR, FDR и 100 Gb Ethernet
- Аппаратное шифрование, защита данных и изоляция виртуальных сетей (средствами ConnectX‑6)
- Поддержка SR‑IOV, GPUDirect RDMA, NVMe over Fabric, MPI оптимизации
- Работа в составе HPE Apollo, ProLiant Gen10 Plus и Gen11 серверов
⚡️ Технические данные
- Пропускная способность до 200 млн сообщений/с
- Энергопотребление ≈ 10–13 Вт
- Охлаждение пассивное
- Размер 68,9 × 167 мм
- Вес ≈ 0,12 кг
⚙️ Общие характеристики
- Интерфейс PCI Express 4.0 x16
- Порт 1 × QSFP56 (скорость до 100 Gb/s)
- Тип соединения InfiniBand HDR100 и Ethernet 100 GbE (двойной режим)
- Контроллер NVIDIA (Mellanox) ConnectX‑6 HPC
- Форм‑фактор Low Profile (single slot)
🚀 Производительность
- Пропускная способность 100 Гбит/с на порт
- Задержка менее 600 нс в режиме InfiniBand HDR
- Выделенная обработка RDMA на уровне аппаратуры (RoCE v2, RDMA over InfiniBand)
- DMA и Offload‑механизмы снижают нагрузку на CPU до 80 %
- Надёжность и масштабируемость для кластеров высокопроизводительных вычислений (HPC) и сред искусственного интеллекта
🧠 Возможности
- Поддержка InfiniBand HDR100, EDR, FDR и 100 Gb Ethernet
- Аппаратное шифрование, защита данных и изоляция виртуальных сетей (средствами ConnectX‑6)
- Поддержка SR‑IOV, GPUDirect RDMA, NVMe over Fabric, MPI оптимизации
- Работа в составе HPE Apollo, ProLiant Gen10 Plus и Gen11 серверов
⚡️ Технические данные
- Пропускная способность до 200 млн сообщений/с
- Энергопотребление ≈ 10–13 Вт
- Охлаждение пассивное
- Размер 68,9 × 167 мм
- Вес ≈ 0,12 кг
Загрузка отзывов...
Оплата осуществляется следующим способом :
-
Все расчёты осуществляются исключительно в российских рублях с перечислением средств на расчётный счёт компании ООО «СЕРВЕРНОВА».
Чтобы получить счёт на оплату, нам нужно отправить запрос на e-mail: sn@servernova.ru, указав:
реквизиты вашей организации;
перечень оборудования, которое планируется к покупке.
Мы предлагаем гибкие варианты получения заказа:
-
курьерская доставка до двери — на адрес, указанный заказчиком. Передача осуществляется либо самому клиенту, либо уполномоченному представителю.
·
самовывоз — возможен со склада в Москве: ул. Горбунова, д. 2, стр. 3.
Поддерживаем любые удобные для вас транспортные компании:
СДЭК, DPD, PONY EXPRESS, Деловые Линии, СПЕЦСВЯЗЬ, FLIPPOST, KCE и другие.
Поставка осуществляется по всей России, включая регионы ЕАЭС.
Сроки отгрузки:
· при наличии на складе — в течение 3–5 рабочих дней.
· со складов партнёров — от 5 до 10 рабочих дней.
· под заказ — в среднем от 4 до 6 недель.