Материалы по тегу:

13.01.2026 [13:47], Сергей Карасёв

8 ядер RISC-V и слот PCIe 4.0 x16: вышла плата Milk-V Titan формата Mini-ITX

Компания Shenzhen MilkV Technology (Milk-V), по сообщению ресурса CNX Software, начала приём заказов на плату Milk-V Titan. Особенностью новинки является наличие полноценного слота PCIe 4.0 x16, в который может быть установлен дискретный графический ускоритель.

Изделие выполнено в форм-факторе Mini-ITX с размерами 170 × 170 мм. Применён процессор UltraRISC UR-DP1000 с восемью ядрами UR-CP100 (RV64GCBHX) с архитектурой RISC-V, работающими на частоте до 2 ГГц. Говорится о поддержке аппаратной виртуализации и расширений RISC-V RV64 ISA H (v1.0), а также о полной совместимости со стандартом RVA22. Возможно подключение вентилятора охлаждения с ШИМ-управлением.

 Источник изображения: CNX-Software

Источник изображения: CNX-Software

Предусмотрены два слота для модулей оперативной памяти DDR4-3200 ECC суммарным объёмом до 64 Гбайт. Имеется коннектор M.2 M-Key для SSD с интерфейсом PCIe 4.0 x4 (NVMe). Плата получила сетевой порт 1GbE RJ45 и дополнительный порт управления 100MbE RJ45 (плюс разъёмы USB Type-C и USB 2.0 Type-A для BMC-накопителя). Есть четыре порта USB 3.0 Type-A и отладочный порт USB Type-C. Питание (12 В) подаётся через DC-коннектор 5,5/2,5 мм или разъём АТХ. Энергопотребление при полной нагрузке составляет около 30 Вт, в режиме простоя — приблизительно 14 Вт.

У платы Milk-V Titan нет собственного видеовыхода, поэтому для подключения мониторов необходимо установить видеокарту: говорится, что новинка протестирована на работу с адаптерами AMD RX 9070 XT, RX 580, RX 550 и R5 230. Заявлена совместимость с Ubuntu, Debian и Fedora. Приобрести решение можно по ориентировочной цене $330.

Постоянный URL: http://servernews.ru/1135187
13.01.2026 [13:30], Сергей Карасёв

Seagate выпустила HDD серий SkyHawk AI, Exos и IronWolf Pro на 32 Тбайт

Компания Seagate сообщила о доступности жёстких дисков SkyHawk AI, Exos и IronWolf Pro вместимостью 32 Тбайт. Все накопители выполнены в LFF-стандарте с использованием технологии традиционной магнитной записи (CMR) и HAMR, а для обмена данными служит интерфейс SATA-3.

Устройство Seagate SkyHawk AI на 32 Тбайт рассчитано на системы видеонаблюдения. Говорится о поддержке до 64 потоков данных от HD-камер, а также 32 потоков ИИ. Установившаяся скорость передачи информации составляет до 285 Мбайт/с; рабочая нагрузка может достигать 550 Тбайт/год. За целостность изображения и отсутствие пропущенных кадров даже при интенсивных операциях отвечает технология ImagePerfect AI. Системы SkyHawk Health Management и RAID RapidRebuild сокращают время восстановления в случае сбоев.

 Источник изображения: Seagate

Источник изображения: Seagate

Диск Seagate IronWolf Pro ёмкостью 32 Тбайт ориентирован на сетевые хранилища (NAS). Скорость вращения шпинделя составляет 7200 об/мин. Скорость передачи данных достигает 285 Мбайт/с, нагрузка — 550 Тбайт/год. Предусмотрена технология AgileArray, предназначенная для двухплоскостной балансировки и оптимизации работы RAID-массивов в конструкциях с несколькими отсеками при минимальном потреблении энергии. Система управления состоянием IronWolf Health Management обеспечивает проактивный мониторинг и предоставляет рекомендации по эксплуатации. Диск подходит для NAS с неограниченным количеством отсеков.

Наконец, Seagate Exos вместимостью 32 Тбайт — это высокопроизводительный корпоративный накопитель, предназначенный для непрерывной работы в облачных средах и дата-центрах, где критически важны стабильная пропускная способность и надёжность. Устройство имеет скорость вращения шпинделя 7200 об/мин. Установившаяся скорость передачи данных составляет до 285 Мбайт/с, нагрузка — до 550 Тбайт/год. Показатель IOPS при произвольном чтении равен 170 (4K QD16), при произвольной записи — 350. Упомянуты технологии PowerBalance и PowerChoice, предназначенные для оптимизации энергопотребления.

Все HDD могут эксплуатироваться при температурах от +10 до +60 °C. Герметичная камера заполнена гелием. Заявленный показатель MTBF (средняя наработка на отказ) достигает 2,5 млн часов. Производитель предоставляет на устройства пятилетнюю гарантию. Цена новых вариантов SkyHawk AI, IronWolf Pro и Exos составляет соответственно $700, $850 и $730.

Постоянный URL: http://servernews.ru/1135171
13.01.2026 [09:03], Руслан Авдеев

Lenovo представила серверы для ИИ-инференса: ThinkSystem SR675i V3/SR650i V4 и ThinkEdge ThinkEdge SE455i V4

Lenovo представила новые серверные системы серии Lenovo Hybrid AI Advantage, оптимизированные для ИИ-инференса: ThinkSystem SR675i V3, ThinkSystem SR650i V4 и ThinkEdge SE455i V4. Если ранее акцент делался на решениях для обучения всё более производительных ИИ-моделей, то теперь бизнес обращает всё больше внимания на продукты для инференса. Новинки предлагаются параллельно с ПО для оптимизации инференса — для унификации и получения данных из разных источников для использования ИИ-моделями.

 Источник изображений: Lenovo

Источник изображений: Lenovo

Флагманской версией серии является ThinkSystem SR675i V3 в исполнении 3U на платформе AMD EPYC Turin 9535 (64C/128T, 2,4 ГГц, TDP 300 Вт). Сервер получил 1,5 Тбайт DDR5-6400 (24 × 64 Гбайт). За хранение дагнных отвечают до двух E3.S NVMe SSD по 3,84 Тбайт (PCIe 5.0 x4) и до двух M.2 NVMe SSD по 960 Гбайт (PCIe 4.0 x4). Возможна установка восьми ускорителей NVIDIA RTX PRO 6000 Blackwell Server Edition, а также пяти DPU NVIDIA BlueField-3 (4 × 400G, 1 × 200G). IPMI в данной модели не доступен. Для карт расширения доступно до шести слотов PCIe 5.0 х16 и один слот OCP 3.0 x8/x16. За питание отвечают четыре блока Titanium второго поколения (по 2300 Вт), а за охлаждение — пять вентиляторов.

ThinkSystem SR650i V4 позиционируется в качестве системы для для инференса и корпоративных рабочих нагрузок. Этот 2U-сервер получил два Intel Xeon Granite Rapids-SP 6530P (32C/64T, 2,3 ГГц, TDP 225 Вт), 512 Гбайт DDR5-6400 (8 × 64 Гбайт), два ускорителя RTX PRO 6000 Blackwell Server Edition. За хранение отвечают два 3,84-Тбайт U.2 NVMe SSD (PCIe 5.0 x4), хотя всего таких слотов восемь, а также RAID1-массив из пары 960-Гбайт M.2 SATA SSD. Всего доступно шесть слотов расширения PCIe 5.0 x16 и два слота OCP 3.0 x8/x16. Имеется двухпортовый 25GbE-адаптер Broadcom 57414 (SFP28). За питание отвечают два Titanium-блока мощностью 2700 Вт каждый, а за охлаждение шесть вентиляторов, но есть и опция установки фирменной СЖО Neptune.

Наконец, Lenovo ThinkEdge SE455i V3 (2U) глубиной всего 440 мм представляет собой компактную модель, предназначенную для периферийного инференса — в ретейле, телекоммуникациях и промышленности. Сервер имеет защищённую конструкцию и может работать при температурах от -5 до +40 °C. Сервер построен на базе одного процессора AMD EPYC Embedded 8534P (64C/128T, 2,3 ГГц, TDP 200 Вт), дополненного 576 Гбайт DDR5-4800 (6 × 96 Гбайт) и двумя ускорителями NVIDIA L4 24 Гбайт (PCIe 4.0 x16). В комплекте идёт один 3,84-Тбайт NVMe SSD и один 960-Гбайт SATA SSD. Имеется два блока питания Platinum второго поколения с возможностью горячей замены. Для карт расширения есть до двух слотов PCIe 5.0 x16 и до четырёх слотов PCIe 4.0 x8, а также один слот OCP 3.0 (PCIe 5.0 x16). Установлен двухпортовый OCP-адаптер Broadcom 57416 (10GbE). IPMI отключён.

Фактически компания предлагает готовые конфигурации, которые можно переконфигурировать лишь слегка, чаще всего добавив накопители и/или сетевые адаптеры. Платформы будут доступны в рамках подписки TruScale. Также компания анонсировала новые сервисы Hybrid AI Factory Services, в том числе консультации по инференсу, которые помогают развёртывать оборудование и управлять им для оптимизации ИИ-производительности.

Постоянный URL: http://servernews.ru/1135135
12.01.2026 [14:41], Сергей Карасёв

ASRock Rack показала ИИ-сервер на базе NVIDIA HGX B300 с СЖО ZutaCore HyperCool

Компания ASRock Rack на выставке CES 2026 продемонстрировала ИИ-сервер 4U16X-GNR2/ZC, первая информация о котором была раскрыта в октябре прошлого года. Новинка создана в партнёрстве с разработчиком систем жидкостного охлаждения ZutaCore.

Устройство выполнено в форм-факторе 4U. Возможна установка двух процессоров Intel Xeon 6700E (Sierra Forest-SP) или Xeon 6500P/6700P (Granite Rapids-SP). Доступны 32 слота для модулей оперативной памяти DDR5, три разъёма PCIe 5.0 x16 для карт FHHL и два сетевых порта 1GbE на базе контроллера Intel I350-AM2.

Задействована аппаратная платформа NVIDIA HGX B300. Для отвода тепла используется система прямого жидкостного охлаждения ZutaCore HyperCool. Это двухфазное решение основано на применении специальной диэлектрической жидкости, которая не вызывает коррозии. Утверждается, что конструкция HyperCool безопасна для IT-оборудования и гарантирует сохранение работоспособности даже в случае утечки. СЖО поставляется в полностью собранном виде, что сокращает время монтажа в стойку.

Сервер 4U16X-GNR2/ZC оборудован 12 фронтальными отсеками для SFF-накопителей с интерфейсом PCIe 5.0 x4 (NVMe); допускается горячая замена. Кроме того, есть внутренний разъём для одного SSD типоразмера М.2 (PCIe 5.0 x2). За питание отвечают десять блоков мощностью 3000 Вт с сертификатом 80 Plus Titanium. Габариты машины составляют 900 × 448 × 175 мм. Отмечается, что в стандартной стойке 42U могут быть размещены до восьми подобных серверов, что обеспечивает высокую плотность вычислительной мощности для наиболее ресурсоёмких нагрузок ИИ.

Постоянный URL: http://servernews.ru/1135122
12.01.2026 [13:53], Руслан Авдеев

xAI представила тарифы Grok Business и Grok Enterprise для бизнес-пользователей

Компания xAI официально начала освоение рынка ИИ-сервисов для бизнес-пользователей. В самом конце декабря она представила два новых тарифа: Grok Business и Grok Enterprise. Предполагается, что они должны способствовать внедрению ИИ-моделей в компаниях для решения повседневных задач, причём со встроенными возможностями контроля настроек безопасности, конфиденциальности и др., сообщает Channel insider.

Таким образом xAI выходит на высококонкурентный рынок корпоративных ИИ-инструментов. Аналогичные предложения уже имеются у OpenAI, Anthropic, Google и др. Для xAI это также означает переход от сервисов для индивидуальных экспериментов к предоставлению возможностей для выполнения совместных задач.

Grok Business рассчитан на команды небольших и средних размеров и стоит $30/мес. за каждого пользователя. Предлагаются встроенные инструменты управления командами и организации общения, централизация платежей и контроль использования ПО. Другими словами, команды могут совместно работать в среде Grok, делиться результатами, а также подключать популярные инструменты вроде Google Drive, чтобы ИИ мог работать с информацией, которая уже использовалась.

Grok Enterprise имееть расширенную функциональность для более крупных организаций. Цена не разглашается, но основной акцент будет сделан на ужесточении контроля и надзора. В частности, речь идёт о поддержке единой авторизации в масштабах всей компании, автоматизированном управлении профилями пользователей и функциями безопасности, разработанными для более крупных и сложных программных сред.

В xAI утверждают, что оба плана построены с учётом необходимости обеспечивать корпоративную безопасность и конфиденциальность. Как подчёркивают в компании, корпоративная защита и конфиденциальность встроены в системы с самого начала — Grok не будет обучаться на предоставляемых клиентками данных.

 Источник изображения: xAI

Источник изображения: xAI

Одна из наиболее примечательных функций — способность Grok работать с большими массивами документов. Grok обеспечивает агентный поиск с помощью Collections API. Это позволяет ИИ-модели использовать крупные хранилища документов в качестве первоочередных источников информации. Это может быть полезным, если необходим, например, анализ юридических документов или построение финансовых моделей. В ответы могут включаться цитаты, напрямую ведущие к исходным документам, с возможностью предварительного просмотра и выделения контекста.

Для организаций со специальными требованиями к обеспечению безопасности материалов xAI предлагает вариант Enterprise Vault. Это даёт компаниям больше контроля над тем, как обрабатываются их данные, с предоставлением сопутствующей инфраструктуры, дополнительных уровней шифрования, которыми управляет сам пользователь, а не xAI. xAI утверждает, что данные зашифрованы как при передаче, так и при хранении.

Тариф Enterprise также обеспечивает соответствие строгим требованиям: обеспечено соответствие инфраструктуры и процессов стандарту безопасности SOC 2 и нормативным актам (включая GDPR и CCPA). Также в его рамках предоставляется доступ к наиболее передовыми ИИ-моделям компании Grok 3, Grok 4 и Grok 4 Heavy.

В то же время xAI продолжает наращивать инфраструктуру, необходимую для поддержки соответствующих проектов. Так, речь идёт о строительстве третьего дата-центра в штате Миссисипи (США). На днях появилась информация, что она привлекла $20 млрд на развитие бизнеса.

Постоянный URL: http://servernews.ru/1135131
12.01.2026 [13:16], Сергей Карасёв

Supermicro представила SuperBlade-сервер на базе Intel Xeon 6900 с СЖО

Компания Supermicro анонсировала сервер SBI-622BA-1NE12-LCC семейства SuperBlade, предназначенный для построения вычислительных платформ высокой плотности. Устройство будет предлагаться в вариантах с воздушным и прямым жидкостным охлаждением: в первом случае в шасси типоразмера 6U могут быть размещены пять узлов, во втором — десять.

Каждый узел SuperBlade поддерживает установку двух процессоров Intel Xeon 6900 поколения Granite Rapids, насчитывающих до 128 производительных P-ядер. Показатель TDP может достигать 500 Вт. Доступны 24 слота для модулей оперативной памяти DDR5-6400/8800 суммарным объёмом до 3 Тбайт.

Предусмотрены два посадочных места для накопителей E1.S. Опционально могут быть также установлены два NVMe SSD формата M.2 2280 или M.2 22110. Реализованы три слота PCIe 5.0 x16 для карт формата FHHL, HHHL/LP и OCP 3.0. В оснащение входят контроллер Aspeed AST2600 и адаптер Intel E810-XXVAM2, на базе которого реализованы два сетевых порта 25GbE.

 Источник изображения: Supermicro

Источник изображения: Supermicro

Шасси, в которое монтируются серверные узлы SBI-622BA-1NE12-LCC, оснащено модулями управления и Ethernet-коммутаторами с резервированием. Питание обеспечивают восемь блоков с сертификатом 80 Plus Titanium. Диапазон рабочих температур — от +10 до +35 °C.

По заявлениям Supermicro, передовой дизайн шасси 6U обеспечивает сокращение количества кабелей на 93 % и экономию пространства на 50 % по сравнению с серверами в форм-факторе 1U с сопоставимой конфигурацией. Новинка ориентирована на решение НРС-задач в таких областях, как производство, финансы, научные исследования, энергетика, моделирование климата и пр.

Постоянный URL: http://servernews.ru/1135125
12.01.2026 [12:59], Сергей Карасёв

Sapphire представила Mini-ITX-плату EDGE+VPR-7P132 с чипом AMD Ryzen AI Embedded P132 и FPGA Versal AI Edge Gen2 VE3558

Компания Sapphire Technology анонсировала плату EDGE+VPR-7P132 на платформе AMD Embedded+, предназначенную для построения различных периферийных устройств с ИИ-функциями. В новинке соседствуют процессор AMD Ryzen AI Embedded и адаптивная «система на чипе» AMD Versal AI Edge Gen 2.

Решение выполнено в форм-факторе Mini-ITX с размерами 170 × 170 мм. Задействовано FPGA-решение Versal AI Edge Gen 2 VE3558 с восемью ядрами Arm Cortex-A78AE, десятью ядрами реального времени Arm Cortex-R52, графическим блоком Arm Mali-G78AE. Программируемая часть содержит 492 тыс. логических ячеек и 225 тыс. LUT. Чип обеспечивает ИИ-производительность до 123 TOPS на операциях INT8. Есть 16 Гбайт памяти LPDDR5-4266, флеш-модуль UFS 3.1 вместимостью 256 Гбайт, интерфейс Mini DisplayPort, а также модуль TPM 2.0 (Infineon OPTIGA TPM SLM 9672) и 250-контактный коннектор для плат расширения.

CPU-секция получила процессор Ryzen AI Embedded P132 (V4526iX), который объединяет шесть ядер с архитектурой Zen 5 (12 потоков) с тактовой частотой до 4,5 ГГц, графический ускоритель AMD Radeon (RDNA 3.5) и нейропроцессорный блок с ИИ-производительностью до 50 TOPS в режиме INT8. Чип функционирует в тандеме с 64 Гбайт памяти LPDDR5-4266 (впаяна на плату). Предусмотрены коннектор M.2 Key M 2280 для SSD (PCIe 4.0 x4), слот M.2 Key E 2230 (PCIe 4.0 x1, I2S, USB 2.0) для адаптера Wi-Fi/Bluetooth и разъём OCulink x4.

 Источник изображения: Sapphire

Источник изображения: Sapphire

Плата получила два сетевых порта 10GbE, по два порта USB 3.2 Gen 2 Type-A и USB 2.0 Type-A, коннектор USB4 Type-C, четыре интерфейса Mini DisplayPort. Через внутренние разъёмы можно использовать аудиоинтерфейсы. Питание (12 В) подаётся через DC-коннектор. Диапазон рабочих температур простирается от 0 до +60 °C. Заявлена совместимость с RHEL/CentOS 7.9, RHEL 8.2-8.6 и Ubuntu 22.04. В качестве платы расширения упомянут модуль с поддержкой 12 камер для автомобильных систем и робототехники.

Постоянный URL: http://servernews.ru/1135120
12.01.2026 [09:54], Владимир Мироненко

От NVMe к GPU: NVIDIA представила платформу хранения контекста инференса ICMSP

Вместе с официальным анонсом ИИ-платформы следующего поколения Rubin компания NVIDIA также представила платформу хранения контекста инференса NVIDIA Inference Context Memory Storage Platform (ICMSP), позволяющую решить проблемы хранения KV-кеша, который становится всё крупнее по мере роста LLM и решаемых задач.

При выполнении инференса контекст растёт по мере генерации новых токенов, часто превышая доступную память ускорителя. В этом случае старые записи вытесняются из памяти, сначала в системную память, а потом на диск, чтобы не пересчитывать всё заново, когда они снова понадобятся. Проблемы существенно усугубляются при работе с агентным ИИ и обработке рабочих нагрузок с большим контекстом. Агентный ИИ приводит к появлению контекстных окон в миллионы токенов, а объём моделей может составлять уже триллионы параметров.

В настоящее время эти системы полагаются на долговременную память для хранения контекста, позволяя агентам опираться на предыдущие рассуждения и расширять их на протяжении многих шагов, а не начинать с нуля при каждом запросе. По мере увеличения контекстных окон растут требования к ёмкости KV-кеша, делая эффективное хранение и повторное использование данных, в том числе совместное использование различными сервисами инференса, крайне важными для повышения производительности системы. Контекст инференса является производным и пересчитываемым, что требует архитектуры хранения, которая отдаёт приоритет энергоэффективности и экономичности, а также скорости и масштабируемости, а не традиционной надёжности хранения данных.

 Источник изображений: NVIDIA

Источник изображений: NVIDIA

NVIDIA отметила, что ИИ-фабрикам необходим дополнительный, специально разработанный уровень контекста, который рассматривает KV-кеш как собственный класс данных, предназначенный для ИИ, а не принудительно помещает его в дефицитную память HBM или в хранилище общего назначения. Платформа ICMSP использует DPU BlueField-4 для создания специализированного уровня памяти, чтобы преодолеть разрыв между высокоскоростной памятью GPU и масштабируемым общим хранилищем. Хранилище KV-кеша на основе NVMe должно эффективно обслуживать ускорители, узлы, стойки и кластеры целиком, говорит компания.

Платформа ICMSP создаёт новый уровень (G3.5 на схеме выше) — флеш-память, подключённая через Ethernet и оптимизированная специально для KV-кеша. Этот уровень выступает в качестве долговременной агентной памяти на уровне ИИ-инфраструктуры, достаточно большой для одновременного хранения общего, развивающегося контекста многих агентов, но при этом достаточно близко расположенной для частой работы с памятью ускорителей и хостов.

BlueField-4 отвечает за аппаратное ускорение размещения кеша и устранение накладных расходов на подготовку и перемещение данных и обеспечение безопасного, изолированного доступа к ним узлов с GPU, снижая зависимость от CPU хоста и минимизируя сериализацию и работу с системной памятью хоста. Программные продукты, такие как фреймворк DOCA, механизм разгрузки KV-кеша Dynamo и входящее в комплект ПО NIXL (Nvidia Inference Transfer Library), обеспечивают интеллектуальное, ускоренное совместное использование данных KV-кеша между ИИ-узлами. А Spectrum-X Ethernet обеспечивает оптимизированный RDMA-интерконнект, который связывает ICMS и узлы GPU.

KV-кеш принципиально отличается от корпоративных данных: он является временным, производным и может быть пересчитан в случае потери. В качестве контекста инференса он не требует надёжности, избыточности или обширных механизмов защиты данных, разработанных для долговременных записей. Выделяя KV-кеш как отдельный, изначально предназначенный для ИИ класс данных, ICMS устраняет избыточные накладные расходы, обеспечивая повышение энергоэффективности до пяти раз по сравнению с универсальными подходами к хранению данных, сообщила NVIDIA. А своевременная подготовка и отдача данных более полно нагружает ускорители, что позволяет увеличить темп генерации токенов до пяти раз.

Как сообщила NVIDIA, первоначальный список её партнёров, готовых обеспечить поддержку ICMSP с BlueField-4, который будет доступен во II половине 2026 года, включает AIC, Cloudian, DDN, Dell, HPE, Hitachi Vantara, IBM, Nutanix, Pure Storage, Supermicro, VAST Data и WEKA.

Постоянный URL: http://servernews.ru/1134966
12.01.2026 [09:22], Владимир Мироненко

Основатель Infinidat, легендарный ветеран индустрии СХД Моше Янай, объявлен банкротом

В Израиле продолжается разбирательство по поводу долгов ветерана ИТ-индустрии Моше Янай (Moshe Yanai), основателя Infinidat и ещё ряда фирм, объявленного банкротом по решению Тель-Авивского магистратского суда после рассмотрения заявления инвестиционного фонда Scintilla. Год назад Lenovo объявила о приобретении Infinidat, однако формально сделка до сих пор не завершена. Согласно публикации израильского ресурса Calcalist, общая задолженность Яная оценивается в $120 млн, включая долги банкам, инвестиционным фондам, небанковским кредиторам и личным знакомым.

Его активы, по оценкам экспертов, назначенных израильским судом, стоят $60–$70 млн, включая четыре дома, в том числе пентхаус на Манхэттене и недвижимость в Бостоне, четыре автомобиля, а также различные инвестиционные активы, зарегистрированные через его фирму Michal International Investments (MII). В настоящее время MII контролируется фондом Scintilla, крупнейшим кредитором Яная, утверждающим, что тот ему должен $42 млн. Янай со своей стороны заявил, что стоимость этих активов составляла в марте 2025 года около $1,1 млрд, ссылаясь на решение американского суда.

 Источник изображения: Viacheslav Bublyk/unsplash.com

Источник изображения: Viacheslav Bublyk/unsplash.com

Янай заявил изданию Globes, что процедура банкротства основана на денежных средствах, а не на активах, поскольку стоимость одной только компании Infinidata во много раз превышает все долги, а ему принадлежит 51 % её акций. Вместе с тем, по данным Scintilla, выручка Яная от продажи Infinidat составит всего лишь около $3,5 млн. Моше Янай на протяжении длительного времени входил в число богатейших граждан Израиля. В 2022 году Forbes Israel оценил его состояние в $1,63 млрд.

По словам Яная, американский частный инвестиционный фонд TPG оказывал давлении на Infinidat с целью её продажи в конце 2024 года. «Сделка была осуществлена под давлением TPG, которая владела 10 % капитала Infinity, но контролировала 53 % голосующих акций. Давление оказывалось с целью продажи компании по цене ниже той, которую называли независимые оценочные компании — в четыре раза выше цены, по которой она в конечном итоге была продана, — что вызвало конфликт интересов», — заявил Янай.

Представитель Яная сообщил Calcalist, что в октябре 2023 года крупная сделка с участием одной из компаний из портфеля Яная была отменена, а дополнительные сделки были отложены или заморожены. Для сохранения этих стартапов и их сотрудников были взяты кредиты под залог частных активов. Все кредиты использовались исключительно для финансирования деятельности бизнеса, что подтверждается отчётом, представленным суду. Представитель заверил, что финансовые трудности связаны исключительно с денежными потоками. «Ожидается, что после реализации определённых активов в ближайшие месяцы вопрос будет полностью решён», — отметил он.

 Источник изображения: Infinidat

Источник изображения: Infinidat

Янай является ветераном индустрии хранения данных, пишет Blocks & Files. Разработанная под его руководством высокопроизводительная СХД Symmetrix (VMAX) стала самым важным продуктом в истории EMC, обеспечив компании доминирование в качестве независимого поставщика СХД. Янай покинул EMC в 2001 году, после чего возглавил израильский стартап XIV и финансировал разработку СХД Nextra. Стартап приобрела в 2008 году компания IBM. Сумма сделки, по слухам, составила $200–$300 млн. Янай покинул IBM в 2010 году. В 2002 году вместе с Дороном Кемпелем (Doron Kempel) он основал компанию Diligent, чья технология дедупликации ProtecTIER продавалась по OEM-модели компаниям Overland Storage, HDS и Sun. В 2008 году IBM приобрела Diligent предположительно за $200 млн.

Янай возглавлял Infinidat в качестве гендиректора, которую основал в 2010 году, пока в мае 2020 года его не сместил с этого поста председатель совета директоров Боаз Халамиш (Boaz Chalamish), после чего Янай стал главным технологическим евангелистом компании. В октябре 2020 года Infinidat провела раунд финансирования, вызванный необходимостью в дополнительных средствах из-за пандемии COVID-19. После этого Янай был привлечён к суду 29 нынешними и бывшими сотрудниками за неправомерное размывание их акций в Infinidat, в связи с чем он покинул компанию.

Постоянный URL: http://servernews.ru/1135102
11.01.2026 [15:06], Руслан Авдеев

ИИ-облако Lambda пытается привлечь $350 млн перед выходом на IPO

Стартап Lambda Inc., предлагающий облачную ИИ-платформу, как сообщается, намерен привлечь $350 млн на развитие бизнеса и ведёт переговоры с Mubadala Capital, которая должна возглавить новый раунд инвестиций. При этом менее двух месяцев назад прошёл раунд финансирования серии E, возглавленный TWG Global, в ходе которого удалось привлечь $1,5 млрд, сообщает Silicon Angle со ссылкой на The Information.

Lambda выступает оператором дюжины дата-центров в США. Флагманским предложением является сервис Superclusters, который позволяет арендовать кластеры, имеющие до 165 тыс. ИИ-ускорителей NVIDIA. Lambda предлагает несколько поколений чипов NVIDIA, в том числе суперускорители GB300 NVL72. В скором времени обещана и доступность новейших Vera Rubin NVL72. Системы Lambda работают на кастомном пакете ПО Lambda Stack, состоящем из открытых ИИ-инструментов, которые компания оптимизировала для своего оборудования.

 Источник изображения: Lambda

Источник изображения: Lambda

Новый раунд финансирования, возможно, будет последним перед выходом компании на IPO во II полугодии 2026 года. В ноябре Lambda заключила многомиллиардный контракт с Microsoft. Согласно его условиям, Lambda предоставит гиганту из Редмонда доступ к десяткам тысяч ИИ-ускорителей. Также подписано соглашение на $1,5 млрд с NVIDIA, которая будет арендовать у Lambda свои же чипы.

Постоянный URL: http://servernews.ru/1135110