Лента новостей

20.01.2025 [13:32], Руслан Авдеев

Exa Infrastructure за бесценок купила ирландского оператора подводных интернет-кабелей Aqua Comms

Компания EXA Infrastructure приобрела оператора подводных кабелей Aqua Comms. Объявлено о подписании обязывающего соглашения о покупке у D9 (Digital 9 Infrastructure), сообщает пресс-служба EXA. Компания, принадлежащая инвестиционной фирме I Squared Capital, пока не раскрывает подробных условий. Блог Subsea Cables & Internet Infrastructure сообщает, что речь идёт о сделке стоимостью $54 млн. D9 приобрела Aqua Comms в 2021 году, но теперь сворачивает свою деятельность.

Базирующаяся в Ирландии Aqua Comms управляет подводными кабельными системами и предоставляет услуги облачным сервисам, операторам связи и др. Она владеет и управляет кабелями America Europe Connect-1 (AEC-1), America Europe Connect-2 (AEC-2), CeltixConnect-1 (CC-1) и CeltixConnect-2 (CC-2), а также входит в консорциум, распоряжающийся кабельной системой Amitié (AEC-3). EXA Infrastructure управляет более 150 тыс. км цифровой инфраструктуры в 37 странах, в т.ч. кабельными станциями.

В EXA заявляют, что сделка, как ожидается, будет закрыта приблизительно в течении 12 месяцев. Финансовыми консультантами EXA выступают Akur Capital и RBC Capital Markets, а Paul, Weiss, Rifkind, Wharton & Garrison — юридическими консультантами. Goldman Sachs и Shoosmiths выполняют соответствующие роли для D9.

 Источник изображения: Aqua Comms

Источник изображения: Aqua Comms

D9 успела проработать всего четыре года. В марте 2021 года инвестиционная компания Triple Point с помощью D9 привлекла £300 млн ($365 млн) через IPO, планируя приобрести ряд компаний, работающих с цифровой инфраструктурой. В феврале 2024 года D9 объявила о решении свернуть деятельность и продать активы. В октябре инвестиционным менеджером для надзора за прекращением деятельности компании была назначена InfraRed Capital Partners, к тому времени D9 уже продала исландского оператора HPC ЦОД Verne.

Как утверждает Subsea Cables & Internet Infrastructure, сделка весьма невыгодна для владельцев Aqua Comms, поскольку предложенная сумма не компенсирует в полной мере даже стоимости строительства принадлежащих ей подводных кабелей. Кроме того, не исключено, что инвесторы уволят большую часть сотрудников.

Утверждается, что ошибкой был, возможно, фокус на ирландской инфраструктуре. Расчёт, вероятно, был на крупных клиентов вроде Google, Amazon и Apple. Но техногиганты, на которых приходится до 80 % трафика страны, делают ставку на строительство собственных кабельных систем. Впрочем, при должном внимании к бизнесу не исключено получение прибыли и от этого актива.

Постоянный URL: https://servernews.ru/1116987
20.01.2025 [12:54], Сергей Карасёв

Ugreen представила сетевые хранилища NASync iDX6011 и iDX6011 Pro со встроенной LLM

Компания Ugreen анонсировала сетевые хранилища NASync iDX6011 и iDX6011 Pro на аппаратной платформе Intel Meteor Lake. Особенность новинок заключается в наличии встроенной большой языковой модели (LLM), которая поддерживает работу ряда ИИ-функций.

Устройства выполнены в настольном форм-факторе. Они оснащены процессором Intel Core Ultra 5 125H с 14 ядрами (4P+8E+2LPE; 18 потоков; до 4,5 ГГц). В состав чипа входит ИИ-блок Intel AI Boost. Кроме того, присутствует графический узел Intel Arc.

NAS оснащены шестью фронтальными отсеками для LFF-накопителей с интерфейсом SATA-3. Кроме того, есть два коннектора для NVMe SSD. Суммарная вместимость может достигать 160 Тбайт. Устройства располагают двумя сетевыми портами 10GbE, интерфейсом HDMI, двумя портами USB 3.2 Gen 2 Type-A, двумя разъёмами USB 2.0 и слотом для SD-карты.

 Источник изображения: Ugreen

Источник изображения: Ugreen

Версия NASync iDX6011 оснащена двумя интерфейсами Thunderbolt 4 (40 Гбит/с) на лицевой панели, тогда как NASync iDX6011 Pro получила два порта USB Type-C без сертификации Thunderbolt. При этом Pro-версия располагает коннектором OCuLink в тыльной части. Эта модель также наделена небольшим информационным дисплеем.

На базе LLM в хранилищах реализованы средства умного поиска. ИИ также может выполнять такие задачи, как реферирование документов, транскрибирование аудиозаписей, генерация ответов на различные вопросы и пр. Функция Smart Image Recognition может распознавать текст, объекты, животных и лица на изображениях. Инструмент Semantic Search даёт возможность быстро искать фотографии, используя простые и естественные описания. В продажу хранилища NASync iDX6011 и iDX6011 Pro поступят позднее в текущем году.

Постоянный URL: https://servernews.ru/1116980
20.01.2025 [12:41], Владимир Мироненко

Разработчик ИИ-чипов Blaize вышел на биржу через SPAC-слияние с BurTech Acquisition

Стартап Blaize из Эльдорадо-Хиллз (Калифорния), специализирующийся на разработке ИИ-чипов и сопутствующего ПО для периферийных вычислений, объявил о получении статуса публичной компании через SPAC-слияние с BurTech Acquisition с выходом на фондовую биржу Nasdaq 14 января.

Акции объединённой компании, получившей название Blaize Holdings, торгуются на Nasdaq под тикерами BZAI и BZAIW. По итогам сделки рыночная стоимость Blaize оценена в $1,2 млрд. В рамках модели слияния SPAC 3.0 объединённая компания получает доступ к конвертируемым облигациям на сумму $116 млн, выпущенным стартапом с августа 2023 года по февраль 2024 года, а также дополнительное финансирование, которое последует при закрытии сделки в виде полностью подписанного договора PIPE (private investment in public equity, частные инвестиции в публичный капитал) и находящихся на трастовом счёте средств в размере $36 млн.

Модель SPAC 3.0 предлагает преимущество перед традиционными IPO за счёт предварительного финансирования быстрорастущих предприятий, создавая возможности для розничных и институциональных инвесторов участвовать на уровне стоимости, который обеспечивает большую доходность.

 Источник изображений: Blaize

Источник изображений: Blaize

Помимо финансирования от Burkhan World Investments, слияние было дополнительно подкреплено инвестициями шейха Ахмеда Далмука Аль Мактума (Ahmed Dalmook Al Maktoum) из ОАЭ. Финансовые условия инвестиций не разглашаются. Burkhan World Investments имеет штаб-квартиры в Абу-Даби и Вашингтоне и инвестирует в технологии, финансы, горнодобывающую промышленность, недвижимость, медиа и гостиничный бизнес.

Начав работу в 2011 году, Blaize привлекла $335 млн от ряда инвесторов, включая Samsung и Mercedes-Benz. В 2023 году компания сработала с убытками в размере $87,5 млн при выручке $3,8 млн. Как утверждает Blaize, у неё в стадии подготовки находятся сделки на $400 млн. Одна из сделок касается заказа на покупку чипов на сумму до $104 млн от «оборонной организации» EMEA, вероятно, с Ближнего Востока, для системы, которая может идентифицировать неизвестные или дружественные войска, а также обнаруживать небольшие лодки и беспилотники.

Флагманский продукт компании — система на кристалле Blaize 1600, оптимизированная для ML-нагрузок, позволяющая запускать модели ИИ с меньшими затратами, чем традиционные ускорители на базе GPU. Портфолио Blaize включает целый ряд продуктов на базе Blaize 1600. Также в платформу Blaize входят специализированное ПО Blaize AI Studio и Blaize Picasso SDK.

Постоянный URL: https://servernews.ru/1116979
20.01.2025 [12:32], Сергей Карасёв

IDC: квартальные расходы на облачную инфраструктуру взлетели на 115 %

Компания International Data Corporation (IDC) обнародовала результаты исследования мирового рынка облачных инфраструктур в III квартале 2024 года. Затраты в годовом исчислении взлетели на 115,3 %, достигнув $57,3 млрд. При этом необлачный сегмент показал рост на 28,6 % — до $19,6 млрд.

Аналитики учитывает поставки серверов и СХД для выделенных и публичных облачных платформ. Расходы на публичную инфраструктуру в III квартале 2024 года достигли $47,9 млрд, увеличившись на 136,5 % по сравнению с тем же периодом в 2023-м. Сегменты выделенных систем показал рост на 47,6 % в годовом исчислении — до $9,3 млрд. При этом на публичные платформы пришлось 62,3 % от суммарных затрат.

 Источник изображения: IDC

Источник изображения: IDC

С географической точки зрения рост в III четверти 2024 года показали практически все регионы. Самые высокие показатели зафиксированы в США и Китае — плюс 148,3 % и 100 % соответственно. В Азиатско-Тихоокеанском регионе (исключая Китай и Японию) отмечена прибавка в 90,3 % по сравнению с III кварталом 2023-го. Япония, Западная Европа, Канада и Латинская Америка продемонстрировали рост на 73,5 %, 40,1 %, 38,5 % и 34,8 % соответственно. На Ближнем Востоке и в Африке зарегистрирован рост на уровне 6,7 %. Отрицательная динамика зафиксирована только в Центральной и Восточной Европе — минус 1,7 % год к году.

IDC прогнозирует, что в 2024 году расходы на облачные инфраструктуры в мировом масштабе вырастут на 74,3 % по сравнению с 2023-м, достигнув $192,0 млрд. В сегменте публичных облаков ожидается рост на 88,9 % в годовом исчислении — до $157,8 млрд. Выделенные облака, по мнению аналитиков IDC, покажут прибавку в 28,6 % — до $34,2 млрд. При этом необлачная инфраструктура, как прогнозируется, вырастет на 17,9 % — до $71,4 млрд долларов США.

IDC прогнозирует, что в долгосрочной перспективе расходы на облачные инфраструктуры продемонстрируют показатель CAGR (среднегодовой темп роста в сложных процентах) на уровне 24,2 %: объём рынка к 2028 году достигнет $325,5 млрд. Расходы на публичные платформы составят 79,1 % от общей суммы: в данном сегменте величина CAGR ожидается в размере 25,2 % с результатом $257,4 млрд в 2028 году. Затраты на выделенные облака будут расти с величиной CAGR на уровне 20,7 %, достигнув $68,2 млрд. Расходы на необлачную инфраструктуру покажут значение CAGR в 7,6 % и достигнут $87,5 млрд к 2028 году.

Постоянный URL: https://servernews.ru/1116983
20.01.2025 [10:20], Руслан Авдеев

KKR инвестирует в одного из крупнейших операторов ЦОД на Ближнем Востоке — Gulf Data Hub

KKR & Co. намерена приобрести долю в Gulf Data Hub, одном из крупнейших операторов дата-центров на Ближнем Востоке. Богатый ресурсами регион постепенно превращается для мировых фондов в площадку для инвестиций на фоне роста спроса на инфраструктуру ЦОД, сообщает Bloomberg. Финансовые детали пока не раскрываются, но компании объявили о необходимости потратить $5 млрд на развитие инфраструктуры в регионе и по всему миру.

В прошлом году KKR заявляла, что рост спроса на дата-центры для ИИ и облачных вычислений придаст импульс расходам в соответствующем секторе — до $250 млрд ежегодно. KKR и её конкуренты Blackstone и Brookfield Asset Management агрессивно накачивают деньгами рынок ЦОД.

Gulf Data Hub, основанная в 2012 году, имеет штаб-квартиру в Дубае. Компания владеет семью ЦОД в стране, а также соседней Саудовской Аравии. Новые площадки планируется построить и в других странах Персидского залива. Сделка с KKR стала одной из крупных международных инвестиций в бизнесы ОАЭ. Ранее KKR, имеющая офисы в Дубае и Эр-Рияде, инвестировала в нефтепроводы и авиакомпании.

 Источник изображения: Piotr Chrobot/unsplash.com

Источник изображения: Piotr Chrobot/unsplash.com

Благодаря огромным энергетическим резервам и большим запасом средств Персидский залив становится всё более привлекательным регионом для инвестиций. Доступ региона к дешёвой энергии и его расположение на «перекрёстке» континентов считаются дополнительными преимуществами, а ОАЭ и Саудовская Аравия соревнуются за право стать главным региональным ИИ-хабом. По словам KKR, сегодня Ближний Восток является одним из самых привлекательных регионов для инвестиций «вдолгую».

В 2008 году KKR сформировала отдельную команду для инвестиций в инфраструктурные объекты. Портфолио соответствующих проектов компании к осени прошлого года достигло порядка $77 млрд. KKR потратила $29 млрд в ходе 22 инвестиций в ЦОД, ВОЛС и сопутствующие бизнесы. Ещё $15 млрд было потрачено на энергетику и коммунальные компании.

Постоянный URL: https://servernews.ru/1116968
20.01.2025 [07:53], Владимир Мироненко

SRAM, да и только: d-Matrix готовит ИИ-ускоритель Corsair

Стартап d-Matrix создал ИИ-ускоритель Corsair, оптимизированный для быстрого пакетного инференса больших языковых моделей (LLM). Архитектура ускорителя основана на модифицированных ячейках SRAM для вычислений в памяти (DIMC), работающих на скорости порядка 150 Тбайт/с. Новинка, по словам компании, отличается производительностью и энергоэффективностью, пишет EE Times. Массовое производство Corsair начнётся во II квартале. Среди инвесторов d-Matrix — Microsoft, Nautilus Venture Partners, Entrada Ventures и SK hynix.

d-Matrix фокусируется на пакетном инференсе с низкой задержкой. В случае Llama3-8B сервер d-Matrix (16 четырёхчиплетных ускорителей в составе восьми карт) может производить 60 тыс. токенов/с с задержкой 1 мс/токен. Для Llama3-70B стойка d-Matrix (128 чипов) может производить 30 тыс. токенов в секунду с задержкой 2 мс/токен. Клиенты d-Matrix могут рассчитывать на достижение этих показателей для размеров пакетов порядка 48–64 (в зависимости от длины контекста), сообщила EE Times руководитель отдела продуктов d-Matrix Шри Ганесан (Sree Ganesan).

 Источник изображений: d-Matrix

Источник изображений: d-Matrix

Производительность оптимизирована для исполнения моделей в расчёте до 100 млрд параметров на одну стойку. По словам Ганесан, это реалистичный сценарий использования LLM. В таких сценариях решение d-Matrix обеспечивает 10-кратное преимущество в интерактивности (время до получения токена) по сравнению с решениями на базе традиционных ускорителей, таких как NVIDIA H100. Corsair ориентирован на модели размером менее 70 млрд параметров, подходящих для генерации кода, интерактивной генерации видео или агентского ИИ, которые требуют высокой интерактивности в сочетании с пропускной способностью, энергоэффективностью и низкой стоимостью.

Ранние версии архитектуры d-Matrix использовали MAC-блоки на базе SRAM-ячеек, дополненных большим количеством транзисторов для операций умножения. Сложение же выполнялось в аналоговом виде с использованием разрядных линий, измерения тока и аналого-цифрового преобразования. В 2020 году компания выпустила чиплетную платформу Nighthawk на основе этой архитектуры. «[Nighthawk] продемонстрировал, что мы можем значительно повысить точность по сравнению с традиционными аналоговыми решениями, но мы всё ещё отстаем на пару процентных пунктов от традиционных решений типа GPU», — сказал EE Times генеральный директор d-Matrix Сид Шет (Sid Sheth).

Однако потенциальным клиентам не понравилось, что при таком подходе возможно снижение точности, так что в Corsair компания вынужденно сделала выбор в пользу полностью цифрового сумматора. ASIC d-Matrix включает четыре чиплета, каждый из которых содержит по четыре вычислительных блока, объединённых посредством DMX Link по схеме каждый-с-каждым, и по одному планировщику и RISC-V ядру. Внутри каждого вычислительного блока есть 16 DIMC-ядер, состоящих из наборов SRAM-ячеек (64×64), а также два SIMD-ядра и движок преобразования данных. Суммарно доступен 1 Гбайт SRAM с пропускной способностью 150 Тбайт/с.

ASIC объединён со 128 Гбайт LPDDR5 (до 400 Гбайт/с) посредством органической подложки (без дорогостоящего кремниевого интерпозера). Хотя текущее поколение ASIC включает только четыре чиплета именно из-за ограничений подложки, в будущем их количество увеличится. Внешние интерфейсы ASIC представлены стандартным PCIe 5.0 x16 (128 Гбайт/с) и фирменным интерконнектом DMX Link (1 Тбайт/с) для объединения чиплетов.

FHFL-карта Corsair включает два ASIC d-Matrix (т.е. всего восемь чиплетов) и имеет TDP на уровне 600 Вт. Ускоритель работает с форматами данных OCP MX (Microscaling Formats) и обеспечивает до 2400 Тфлопс в MXINT8-вычислениях или 9600 Тфолпс в случае MXINT4. Две карты Corsair можно объединить посредством 512-Гбайт/с мостика DMX Bridge. Их, по словам компании, достаточно для задействования тензорного параллелизма. Дальнейшее масштабирование возможно посредством PCIe-коммутации. Именно поэтому d-Matrix работает с GigaIO и Liqid. В одно шасси можно поместить восемь карт Corsair, а в стойку, которая будет потреблять порядка 6–7 кВт — 64 карты.

d-Matrix уже разрабатывает ASIC следующего поколения Raptor, который должен выйти в 2026 году. Raptor будет ориентирован на «думающие» модели и получит ещё больше памяти за счёт размещения DRAM непосредственно поверх вычислительных чиплетов. SRAM-чиплеты Raptor также перейдут с 6-нм техпроцесса TSMC, который используется при изготовлении Corsair, к 4 нм без существенных изменений микроархитектуры. По словам компании, она потратила два года на работу с TSMC, чтобы создать 3D-упаковку для нового поколения ASIC.

Как отмечает EETimes, команда разработчиков ПО d-Matrix в два раза больше команды разработчиков оборудования (120 против 60). Стратегия компании в области ПО заключается в максимальном использовании open source экосистемы, включая PyTorch, OpenAI Triton, MLIR, OpenBMC и т.д. Вместе они образуют программный стек Aviator, который отвечает за конвертацию моделей в числовые форматы d-Matrix, применяет к ним фирменные методы разрежения, компилирует их, распределяет нагрузку по картам и серверам, а также управляет исполнением моделей, включая обслуживание большого количества запросов.

Постоянный URL: https://servernews.ru/1116718
19.01.2025 [23:24], Сергей Карасёв

Synology представила системы резервного копирования ActiveProtect

Компания Synology анонсировала устройства для бесшовного резервного копирования и быстрого восстановления данных семейства ActiveProtect. Решение объединяет специализированное ПО, серверы и хранилища резервных копий в единую унифицированную платформу.

Утверждается, что ActiveProtect обеспечивает надёжную защиту всех корпоративных рабочих нагрузок. Это могут быть приложения SaaS, виртуальные машины, физические серверы, компьютеры с Windows и macOS, файловые серверы и базы данных. Благодаря встроенному гипервизору ActiveProtect пользователи могут в любое время тестировать резервные копии, а интуитивно понятный интерфейс упрощает управление. ActiveProtect предполагает применение стратегии 3-2-1-1-0, где:

  • 3 — создание не менее трёх копий данных;
  • 2 — хранение информации как минимум на двух разных типах носителей;
  • 1 — хранение одной резервной копии вне организации (например, в облачном хранилище);
  • 1 — создание одной неизменяемой копии;
  • 0 — обеспечение нулевого уровня ошибок при регулярном тестировании.

Платформа ActiveProtect, как утверждается, позволяет выполнять резервное копирование с максимальной скоростью, устранять дублирование данных, увеличивать ёмкость хранилища и мгновенно восстанавливать информацию в случае необходимости. Консоль ActiveProtect Manager (APM) даёт возможность просматривать до 150 тыс. рабочих нагрузок, а также контролировать до 2500 систем. Возможно формирование среды с физической изоляцией (air-gap).

 Источник изображений: Synology

Источник изображений: Synology

В семейство устройств резервного копирования ActiveProtect вошли модели в настольном форм-факторе DP320 и DP340 на процессоре AMD Ryzen R1600. Первая оснащена 8 Гбайт RAM и двумя отсеками для LFF-накопителей (установлены два HDD по 8 Тбайт каждый). Возможна защита до 20 систем или 50 пользователей SaaS.

Вторая модификация располагает 16 Гбайт ОЗУ и четырьмя отсеками для LFF-накопителей (установлены четыре HDD по 8 Тбайт каждый). Эта версия укомплектована двумя кеширующими SSD вместимостью по 400 Гбайт. Возможна защита до 60 систем или 150 пользователей SaaS. Младшая версия получила два сетевых порта 1GbE, старшая — по одному порту 1GbE и 10GbE.

Кроме того, представлено стоечное устройство DP7400 типоразмера 2U с процессором AMD EPYC 7272 (12 ядер) и 64 Гбайт RAM (расширяется до 512 Гбайт). В оснащение входят десять LFF HDD ёмкостью 20 Тбайт каждый и два SFF SSD на 3,84 Тбайт. Есть один порт 1GbE и два порта 10GbE. Это решение может работать 2500 серверами или 150 тыс. рабочими нагрузками в кластере.

Сетевые источники также сообщают, что к выпуску готовятся стоечные системы DP5200 и DP7300 в форм-факторе 1U и 2U соответственно, но их описание на момент подготовки материала отсутствовало на сайте производителя.

Постоянный URL: https://servernews.ru/1116962
19.01.2025 [22:43], Сергей Карасёв

Германия запустила «переходный» 48-Пфлопс суперкомпьютер Hunter на базе AMD Instinct MI300A

Центр высокопроизводительных вычислений HLRS при Штутгартском университете в Германии объявил о вводе в эксплуатацию НРС-системы Hunter. Этот суперкомпьютер планируется использовать для решения широко спектра задач в области инженерии, моделирования погоды и климата, биомедицинских исследований, материаловедения и пр. Кроме того, комплекс будет применяться для крупномасштабного моделирования, ИИ-приложений и анализа данных.

О создании Hunter сообщалось в конце 2023 года: соглашение на строительство системы стоимостью примерно €15 млн было заключено с HPE. Проект финансируется Федеральным министерством образования и исследований Германии и Министерством науки, исследований и искусств Баден-Вюртемберга.

Hunter базируется на той же архитектуре, что El Capitan — самый мощный в мире суперкомпьютер. Задействована платформа Cray EX4000, а каждый из узлов оснащён четырьмя адаптерами HPE Slingshot. Суперкомпьютер использует комбинацию из APU Instinct MI300A и процессоров EPYC Genoa. Как отмечает The Register, в общей сложности система объединяет 188 узлов с жидкостным охлаждением и насчитывает суммарно 752 APU и 512 чипов Epyc с 32 ядрами. Применена СХД HPE Cray Supercomputing Storage Systems E2000, специально разработанная для суперкомпьютеров HPE Cray.

 Источник изображения: HLRS

Источник изображения: HLRS

HLRS оценивает пиковую теоретическую FP64-производительность Hunter в 48,1 Пфлопс на операциях двойной точности, что практически вдвое выше, чем у предшественника Hawk. В режимах BF16 и FP8 быстродействие, как ожидается, будет варьироваться от 736 Пфлопс до 1,47 Эфлопс. При этом Hunter потребляет на 80% меньше энергии, нежели Hawk.

 Источник изображения: Штутгартский университет

Источник изображения: Штутгартский университет

Отмечается, что Hunter задуман как переходная система, которая подготовит почву для суперкомпьютера HLRS следующего поколения под названием Herder. Ввести этот комплекс в эксплуатацию планируется в 2027 году. Предполагается, что он обеспечит производительность «в несколько сотен петафлопс».

Постоянный URL: https://servernews.ru/1116966
18.01.2025 [22:48], Сергей Карасёв

ASRock представила индустриальные мини-ПК и материнские платы на базе Intel Arrow Lake-H и AMD Ryzen 300 AI

Компания ASRock Industrial, по сообщению ресурса CNX-Software, представила индустриальные компьютеры небольшого форм-фактора NUC(S) Ultra 200 Box и материнские платы NUC Ultra 200 на новейших процессорах Intel Core Ultra 200H (Arrow Lake-H). Кроме того, дебютировали аналогичные устройства 4X4 Box AI300 и платы 4X4 AI300 на чипах AMD Ryzen AI 300.

Модели NUC Ultra 200 Box, NUCS Ultra 200 Box и платы NUC Ultra 200 в зависимости от модификации комплектуются процессором Core Ultra 7 255H (6P+8E) с частотой до 5,1 ГГц или Core Ultra 5 225H (4P+8E) с частотой до 4,9 ГГц. В первом случае используется узел Intel Arc 140T GPU (74 TOPS), во втором — Intel Arc 130T GPU (63 TOPS). Оба чипа оснащены блоком Intel AI Boost с производительностью 13 TOPS.

Новинки поддерживают до 96 Гбайт оперативной памяти DDR5-6400 в виде двух модулей SO-DIMM. Есть по одному разъёму M.2 Key M 2242 (PCIe 4.0 x4) и M.2 Key M 2242/2280 (PCIe 4.0 x4) для NVMe SSD, а также M.2 Key E 2230 (PCIe x1, USB 2.0, CNVi) для контроллера Wi-Fi/Bluetooth. Модели с обозначением NUC и материнские платы также снабжены портом SATA-3. В оснащение входят звуковой кодек Realtek ALC256 и сетевой адаптер 2.5GbE на базе Intel I226LM. Платы и модели NUC оснащены дополнительным портом 2.5GbE на основе Intel I226V. Кроме того, мини-компьютеры несут на борту комбинированный адаптер Wi-Fi 6E (802.11ax) + Bluetooth 5.3.

 Источник изображений: CNX-Software

Источник изображений: CNX-Software

Все изделия располагают двумя выходами HDMI 2.1 TMDS (4096 × 2160 точек @ 60 Гц) и двумя портами DisplayPort 2.1/1.4a, интерфейсом DP++/USB Type-C (4096 × 2160 @ 60 Гц), аудиогнездом на 3,5 мм, портами USB 3.2 Gen2 Type-A (три у NUCS и четыре у NUC), интерфейсом USB4/Thunderbolt 4, портом USB 3.2 Gen2 x2 Type-C. На плате есть разъёмы для двух портов USB 2.0 и последовательного порта RS232/RS422/RS485. Габариты NUC составляют 117,5 × 110,0 × 49 мм, NUCS — 117,5 × 110,0 × 38 мм, плат — 104 × 102 мм. Диапазон рабочих температур у мини-компьютеров простирается от 0 до +40 °C, у плат — от -20 до +70 °C.

В свою очередь, компьютеры 4X4 Box AI300 и платы 4X4 AI300 могут комплектоваться процессором AMD Ryzen AI 7 350 (8 ядер; до 5,0 ГГц; AMD Radeon 860M) или AMD Ryzen AI 5 340 (6 ядер; до 4,8 ГГц; AMD Radeon 840M). В обоих случаях задействован нейропроцессор Ryzen AI на архитектуре XDNA 2 с производительностью до 50 TOPS. Объём памяти DDR5-5600 может достигать 96 Гбайт (два модуля SO-DIMM).

Изделия наделены коннекторами M.2 Key M 2242 (PCIe 4.0 x4) и M.2 Key M 2242/2280 (PCIe 4.0 x4) для NVMe SSD, а также слотом M.2 Key E 2230 (PCIe x1, USB 2.0) для адаптера Wi-Fi/Bluetooth (мини-компьютеры несут на борту модуль Wi-Fi 6E). В оснащение входят сетевые адаптеры 2.5GbE (Realtek RTL8125BG) и 1GbE (Realtek RTL8111H), звуковой кодек Realtek ALC256. Набор разъёмов включает по два интерфейса HDMI 2.1 (7680 × 4320 @ 60 Гц) и DisplayPort 1.4a / USB Type-C (4096 × 2160 @ 60 Гц), аудиогнездо на 3,5 мм, три порта USB 3.2 Gen2 Type-A, два порта USB4/Thunderbolt 4, два порта USB 2.0 (через коннекторы на плате). Размеры компьютеров составляют 117,5 × 110,0 × 49 мм, плат — 104 × 102 мм. Диапазон рабочих температур — от 0 до +40 °C и от 0 до +70 °C соответственно.

Постоянный URL: https://servernews.ru/1116937
18.01.2025 [22:31], Владимир Мироненко

CoreWeave поставит IBM ИИ-суперкомпьютер на базе NVIDIA GB200 NVL72 для обучения моделей Granite

CoreWeave и IBM заключили соглашение о сотрудничестве, в рамках которого стартап поставит IBM один из первых своих ИИ-суперкомпьютеров на базе NVIDIA GB200 NVL72 с интерконнектом Quantum-2 InfiniBand. В качестве хранилища будет использоваться высокопроизводительная All-Flash СХД IBM Storage Scale System. IBM будет использовать облачную платформу CoreWeave для обучения семейства больших языковых моделей (LLM) Granite.

 Источник изображения: CoreWeave

Источник изображения: CoreWeave

Сообщается, что облачная платформа CoreWeave специально создана для обеспечения ведущей в отрасли производительности, надёжности и отказоустойчивости с безопасностью корпоративного уровня. Фирменный набор ПО и облачные сервисы предоставляют инструменты, необходимые для управления самой сложной и масштабной ИИ-инфраструктурой. В рамках соглашения о сотрудничестве клиенты CoreWeave получат доступ к платформе IBM Storage.

По словам вице-президента по ИИ в IBM Research, платформа CoreWeave позволит дополнить возможности IBM при разработке передовых, производительных и экономичных моделей для поддержки корпоративных приложений и ИИ-агентов. В свою очередь, IBM Storage Scale System расширяет возможности CoreWeave. «В рамках сотрудничества мы будем использовать этот суперкомпьютер для продвижения открытых технологий, таких как Kubernetes, которые будут поддерживать вычисления ИИ в гибридной облачной среде», — добавил представитель IBM.

Вероятно, IBM не хватает собственных вычислительных ресурсов — в ноябре появилась информация о том, что компания готова арендовать у AWS ИИ-ускорители за почти полмиллиарда долларов.

Постоянный URL: https://servernews.ru/1116957
Система Orphus