Материалы по тегу: ии

12.11.2025 [09:28], Владимир Мироненко

Переконфигурируемый ускоритель NextSilicon Maverick-2 с dataflow-архитектурой меняет подход к вычислениям

В конце октября стартап NextSilicon объявил о выходе Maverick-2 — интеллектуального ускорителя вычислений (Intelligent Compute Accelerator, ICA), анонсированного в прошлом году. Чип уже используется в Сандийских национальных лабораториях (SNL) Министерства энергетики США (DOE) в составе суперкомпьютера Vanguard-II, а также рядом клиентов. Как утверждает глава NextSilicon Элад Раз (Elad Raz), компании в сфере научных вычислений и HPC сталкиваются с проблемой ограниченных возможностей CPU и GPU, из-за чего приходится идти на компромиссы, но архитектура Maverick решает эту проблему.

По словам NextSilicon, нынешние массовые CPU «скованы» архитектурой фон Неймана 80-летней давности, в которой значительная часть отведена вспомогательной логике, включая предсказание ветвлений, внеочередное исполнение и т.д., а не собственно исполнительным устройствам. В свою очередь, GPU обеспечивают более высокую параллельную производительность, но для эффективного использования ускорителей требуются специализированные среды разработки (CUDA), управление сложными иерархиями памяти, когерентностью кешей и т.п. А ASIC, созданные для конкретных ИИ-задач, обеспечивают высокую производительность и эффективность, но их разработка требует больших затрат.

 Источник изображения: NextSilicon

Источник изображения: NextSilicon

NextSilicon предлагает заменить эти решения чипом с управлением потоками данных (dataflow), который можно перенастраивать во время выполнения задач для устранения узких мест кода, и у которого нет ограничений, присущих CPU и GPU. «В ресурсоёмких приложениях большую часть времени выполняется лишь небольшая часть кода, — рассказал Раз. — Мы разработали интеллектуальный программный алгоритм, который непрерывно отслеживает работу приложения. Он точно определяет, какой путь кода выполняется чаще всего, и перенастраивает чип для ускорения именно этих путей. И всё это мы делаем во время исполнения кода и за наносекунды». FPGA тоже можно перепрограммировать, но для этого нужен цикл перезагрузки.

 Источник изображений здесь и далее: ServeTheHome/NextSilicon

Источник изображений здесь и далее: ServeTheHome/NextSilicon

Аппаратная часть Maverick представляет собой реконфигурируемую структуру ALU, которой отведена большая часть «кремния». которую можно быстро перенастраивать во время выполнения кода. Это означает больше вычислений за такт (и на Ватт), при условии, что данные находятся в нужном месте в нужное время. Алгоритм анализирует код на наличие узких мест и соответствующим образом настраивает чип во время выполнения программы. Программно-определяемая архитектура управления потоками данных позволяет достичь производительности и эффективности, близких к ASIC, не привязываясь к конкретному приложению и сохраняя гибкость алгоритмов, утверждает NextSilicon.

В архитектуре NextSilicon вычислительные блоки (CB) подключены к шине памяти для получения данных, которые временно хранятся в станции резервирования (RS). Диспетчер определяет время запуска вычислительного блока. (RS и диспетчер аналогичны регистрам в процессоре.) Точки входа в память (MEP-блоки) обрабатывают операции доступа к памяти, генерируя запросы к шине, а по завершении направляют ответ в RS. MMU и TLB-кеш занимаются трансляцией адресов (при необходимости). Всё остальное пространство CB занято ALU, который в первом приближении и можно считать «инструкциями». Компания не уточняет, сколько именно CB содержится в чипе, но на фото кристалла их 224.

Из ALU компилятор NextSilicon формирует т.н. Mill-ядра (Mill Core) в рамках CB, фактически представляющие собой граф связанных между собой операций, которые и выполняются ALU — появление данных на входе ALU срабатывает как триггер, ALU отрабатывает свою единственную назначенную операцию и передаёт результат следующему ALU, тот следующему и т.д. до конца графа. Особенностью чипа является способность в ходе исполнения по необходимости автоматически реплицировать и оптимально размещать Mill-ядра внутри одного CB, и между несколькими CB. Пришло больше данных, которые можно параллельно обработать — будет больше Mill-ядер. Но касается это только наиболее «горячих» участков.

Илан Таяри (Ilan Tayari), соучредитель и вице-президент по архитектуре NextSilicon, назвал критически важным, что платформа может запускать любой код «из коробки», будь то код, написанный для CPU и GPU или ИИ-моделей. Будь то C++, Fortran, Python, CUDA, ROCm, OneAPI или даже ИИ-фреймворки, компилятор NextSilicon разделяет код на части, преобразуя их в промежуточное представление для реконфигурируемого оборудования. «Это не ограничивается тем, что существует сегодня, — сказал Таяри. — Для исследователей в сфере ИИ этот метод открывает новые захватывающие возможности. Вы получаете ускорение независимо от того, что использует ваша модель… экзотические функции активации, комплексные числа или новые математические операции: всё ускоряется сразу из коробки».

Во время выполнения приложения оперативная телеметрия на чипе непрерывно оптимизирует его. Например, в случае частого взаимодействия вычислительных подблоков граф перестраивается, чтобы приблизить их друг к другу или, например, переключиться с векторной на матричную обработку. При наличии узкого места они дублируются для обеспечения параллелизма. Это происходит автоматически, без вмешательства разработчика, в отличие, например, от VLIW-подхода.

Maverick-2 выпускается по 5-нм техпроцессу TSMC в однокристальной и двухкристальной конфигурациях, работающих на частоте 1,5 ГГц. Однокристальная модель с энергопотреблением 400 Вт разработана для карт PCIe 5.0 x16, а двухкристальная модель с энергопотреблением 750 Вт — для OAM-модулей. Однокристальный вариант с воздушным охлаждением включает 32 управляющих ядра RISC-V, 96 Гбайт HBM3E, кеш 128 Мбайт и один порт 100GbE. Двухкристальный вариант OAM с жидкостным охлаждением содержит 64 управляющих ядра RISC-V, 192 Гбайт HBM3E, кеш 256 Мбайт и два интерфейса 100GbE.

Следует отметить, что указаны максимальные значения TDP, и, как пишет ServeTheHome, ожидается, что при многих рабочих нагрузках они будут ниже. NextSilicon заявляет о возможности достижения 600 Гфлопс при потреблении 750 Вт (примерно вдвое меньше, чем у конкурентов) в бенчмарке HPCG, что составляет 4,8 Тфлопс при потреблении 6 кВт для UBB. Компания протестировала как однокристальную, так и двухкристальную версии Maverick2. В тесте STREAM пропускная способность чипа составила 5,2 Тбайт/с, в бенчмарке GUPS чип достиг 32,6 GUPS при потреблении 460 Вт, что в 22 раза быстрее, чем у CPU, и почти в шесть раз быстрее, чем у GPU для таких приложений как СУБД, агентное принятие ИИ-решений в режиме реального времени и ИИ-инференс на основе разрозненных данных.

В тесте Google PageRank (PR) чип показал результат 40 Гигастраниц/с, что в 10 раз выше, чем у ведущих GPU, при вдвое меньшем энергопотреблении. Компания отметила, что при больших размерах графов (более 25 Гбайт) ведущие GPU не смогли полностью пройти тест, в то время как Maverick-2 справился с ними без труда, продемонстрировав критическую потребность в адаптивных архитектурах, способных справиться со сложными рабочими нагрузками, лежащими в основе современных ИИ-систем, социальной аналитики и сетевого интеллекта.

«[Эти результаты были] достигнуты с использованием существующего, немодифицированного кода приложения», — подчеркнул Эяль Нагар (Eyal Nagar), соучредитель и вице-президент по исследованиям и разработкам NextSilicon. «Нашим конкурентам требуются специализированные команды для модификации кода, BIOS, прошивок, ОС и параметров, чтобы достичь заявленных бенчмарков. NextSilicon обеспечивает превосходные результаты, используя уже готовое ПО», — добавил он.

NextSilicon также представила тестовый кристалл для процессора корпоративного уровня на базе ядер RISC-V, который компания планирует использовать в качестве хост-процессора в ускорителе следующего поколения Maverick-3. Процессор Arbel, разработанный с нуля, с шириной конвейера в 10 команд представляет собой эволюцию более компактных ядер RISC-V на базе Maverick-2, обрабатывающих последовательный код. По словам компании, ядра имеют производительность ядер на уровне AMD Zen 5 или Intel Lion Cove.

NextSilicon сообщила, что Arbel обеспечивает прорывную производительность благодаря четырём ключевым архитектурным инновациям:

  • Массивный конвейер инструкций шириной 10 команд и буфером переупорядочения на 480 записей, позволяющий Arbel сразу «увидеть» больше проблем и максимально использовать ресурсы ядра.
  • Частота ядра 2,5 ГГц обеспечивает высокую производительность в однопоточном режиме при сохранении энергоэффективности.
  • Широкий исполнительный блок, поддерживающий выполнение 16 скалярных инструкций параллельно, а также четыре интегрированных 128-бит векторных блока для «исключительной» производительности при параллельной обработке данных.
  • Сложная подсистема памяти с L1-кешем 64 Кбайт, L2-кешем 1 Мбайт и большим общим кэшем L3 (2 Мбайт на ядро) обеспечивает близость данных и непрерывную подачу данных на ядра, устраняя узкие места в пропускной способности памяти и задержках, которые сдерживают работу современных приложений.
  • Современный алгоритм предсказания ветвлений TAGE обеспечивает более быстрое и точное принятие решений с меньшим количеством неверных предсказаний и меньшим количеством ненужной работы.

«Это настоящий кремний, созданный по 5-нм техпроцессу TSMC — наша собственная запатентованная интеллектуальная собственность, а не лицензированная или заимствованная. Создан инженерами NextSilicon для воплощения видения будущего NextSilicon», — заявил Элад Раз.

По данным компании, флагманский ускоритель Maverick2, помимо SNL, уже используется «десятками» заказчиков. Его массовые поставки начнутся в начале 2026 года, чтобы обеспечить значительный портфель заказов. NextSilicon сотрудничает с различными организациями, от Министерства энергетики США до ведущих научно-исследовательских институтов, а также коммерческих клиентов в сфере финансовых услуг, энергетики, производства и биологических наук. Программы раннего внедрения для новых клиентов уже доступны через партнёров Penguin Solutions и Dell Technologies.

Ускоритель следующего поколения NextSilicon Maverick3 будет поддерживать вычисления с пониженной точностью для ИИ-задач и, как ожидается, появится в продаже в 2027 году, пишет EE Times.

Постоянный URL: http://servernews.ru/1131387
12.11.2025 [08:45], Руслан Авдеев

ZincFive представила аккумуляторную систему для ИИ ЦОД — BC 2 AI на основе никель-цинковых элементов

Компания ZincFive представила аккумуляторы для ИИ ЦОД, выполненные по никель-цинковой (NiZn) технологии вместо распространённой литий-ионной (Li-Ion). Аккумуляторы объединяются в аккумуляторную систему BC 2 AI, сообщает компания.

Аккумуляторный шкаф BC 2 AI ёмкостью 90 А·ч специально разработан для обеспечения энергией ИИ-серверов для выполнения ресурсоёмких задач в имеющих критическое значение дата-центрах. Модель разработана для работы в «двойном» режиме — она может использоваться как аккумуляторная система резервного питания, так и для активного управления энергией (Battery Management System), когда резервное питание не используется.

По словам разработчика, система обеспечивает «ультрабыстрый» отклик на перепады нагрузки, исключительную «энергетическую плотность» и непревзойдённую энергобезопасность и экоустойчивость благодаря специфике NiZn-технологий. Это позволяет дата-центрам уверенно адаптироваться к меняющимся потребностям ИИ-инфраструктуры, говорит компания.

 Источник изображения: ZincFive

Источник изображения: ZincFive

Система разработана для компенсации скачков нагрузки от кластеров ИИ-ускорителей во время обучения моделей. Одновременно она обеспечивает стабильное электропитание для стандартных IT-нагрузок. Утверждается, что она, управляя питанием на уровне ИБП (UPS), снижает нагрузку на внешнюю энергоинфраструктуру, сокращает капитальные затраты (CAPEX) и улучшает взаимодействие с общей энергосетью.

Ещё одним преимуществом называется довольно компактная конструкция. Конкурирующие решения требуют в два-четыре раза больше пространства для сглаживания скачков потребления при ИИ-нагрузках, которые могут составить до 150 % от номинальной мощности ИБП. Система рассчитана на гиперскейлеров, колокейшн-провайдеров и OEM-партнёров, выпускающих ИБП. Она уже заслужила ряд престижных отраслевых премий.

Летом 2024 года сообщалось, что совокупная мощность отгруженных и заказанных никель-цинковых аккумуляторов компании уже превысила 1 ГВт.

Постоянный URL: http://servernews.ru/1132199
12.11.2025 [00:28], Владимир Мироненко

Nebius заключила сделку с Meta✴ на $3 млрд, распродав все свои вычислительные мощности и нарастив выручку на 355 %

Поставщик облачных ИИ-решений Nebius Group N.V. (бывшая материнская структура «Яндекса» Yandex N.V.) заключил сделку с Meta на $3 млрд на предоставление гиперскейлеру доступа к ИИ-инфраструктуре в течение пяти лет. Об этом сообщил основатель и генеральный директор Nebius Аркадий Волож в письме акционерам, посвящённом итогам III квартала 2025 финансового года, завершившегося 30 сентября 2025 года.

Не раскрывая подробностей, Волож сообщил, что размер контракта был ограничен объёмом имеющихся мощностей. По его словам, компания в течение трёх месяцев развернёт все необходимые для его обслуживания мощности. Волож добавил, что, как и в случае со сделкой с Microsoft, экономические условия этого соглашения привлекательны и помогут ускорить рост облачного ИИ-бизнеса Nebius. По словам Воложа, выручка от сделки с Microsoft на сумму до $19,4 млрд, тоже заключённой на пять лет, начнёт расти в 2026 году.

 Источник изображения: Nebius

Источник изображения: Nebius

Nebius также опубликовала неаудированные результаты за III квартал 2025 финансового года. Выручка компании составила $146,1 млн, что на 355 % больше год к году и на 39 % больше, чем в предыдущем квартале. Nebius завершила квартал с чистым убытком в размере $119,6 млн, что больше убытка годом ранее, составившего $43,6 млн. Скорректированный чистый убыток вырос с $39,7 млн в прошлом году до $100,4 млн. Капитальные затраты компании взлетели на 455 % — до $955,5 млн со $172,1 млн годом ранее. Скорректированная EBITDA составила −$5,2 млн против −$45,9 млн годом ранее.

В 2026 году компания планирует достичь годовой доходности (Annualized Run Rate, ARR) в пределах $7–$9 млрд. Также было объявлено, что в настоящее время все доступные мощности Nebius распроданы. Волож заявил, что 2025 год стал годом развития, поскольку компания создала инфраструктуру и основу для будущего быстрого роста. В следующем году Nebius должна прочно занять место в числе ведущих мировых компаний в сфере облачных ИИ-технологий, считает глава компании.

«И в то же время 2026 год — это только начало», — добавил он. Волож сообщил, что для поддержки амбициозных планов роста в 2026 году и сохранения этих темпов роста в 2027 году компания будет использовать как минимум три источника финансирования: корпоративный долг, финансирование под залог активов и акционерный капитал.

«В прошлом квартале мы прогнозировали 1 ГВт законтрактованной мощности к концу 2026 года. В настоящее время мы занимаемся поиском дополнительных площадок, которые доведут нашу общую законтрактованную мощность (т.е. закреплённую за электроэнергией землю) примерно до 2,5 ГВт к концу 2026 года, — рассказал Волож. — Из этого контрактного объёма мы ожидаем, что к концу 2026 года будет подключено от 800 МВт до 1 ГВт электроэнергии (т.е. электроэнергии, подключенной к построенным ЦОД)».

Постоянный URL: http://servernews.ru/1132227
11.11.2025 [21:00], Владимир Мироненко

iKS-Consulting: российский рынок облачных сервисов вырастет в 2025 году до 416,5 млрд рублей

Компания iKS-Consulting опубликовала отчёт, посвящённый результатам исследования «Российский рынок облачный инфраструктурных сервисов 2025», целью которого была оценка текущего состояния и динамики развития отечественного рынка облачных услуг, а также анализ конкурентной ситуации и позиций ведущих игроков рынка. В ближайшие пять лет облачный рынок в России будет расти высокими темпами и к 2030 году достигнет 1,2 трлн руб. при среднегодовых темпах роста в 24,4 %, прогнозируют в iKS-Consulting.

В отчёте указаны результаты анализа рынка сегмента IaaS и PaaS в публичных и гибридных облаках. Ранее рассматриваемый в едином отчёте по облачным услугам сегмент SaaS (аренда ПО и приложений) был выделен в отдельное исследование. Исследование было проведено в августе-ноябре 2025 года.

Как указано в отчёте, в 2025 году на российском рынке облачных услуг сохраняются тренды, сложившиеся в предыдущие годы, включая активный рост и трансформацию, обусловленные импортозамещением, развитием ИИ и повышением требований к безопасности. В основе роста рынка лежит расширение областей цифровизации и рост уровня проникновения аутсорсинга в ИТ-инфраструктуру. Также продолжающаяся цифровая трансформация экономики сопровождается внедрением ИИ-технологий в различные бизнес-процессы.

 Источник изображений: iKS-Consulting Рынок облачных услуг (IaaS, PaaS и SaaS) в России в 2015-2025 гг., млрд руб.

Источник изображений: iKS-Consulting Рынок облачных услуг (IaaS, PaaS и SaaS) в России в 2015-2025 гг., млрд руб.

Уход из России западных гиперскейлеров ускорил переход на российские облачные решения и вызвал высокий спрос на услуги по миграции с зарубежных облачных платформ на отечественные решения, что потребовало аудита инфраструктуры и переноса данных. Также спрос на высокотехнологичные платформы потребовал активного развития отечественных разработок в области IaaS, PaaS и SaaS-платформ, в первую очередь, для госсектора, сферы финансов и для критически важной инфраструктуры.

 Рынок облачных услуг (IaaS, PaaS и SaaS) в России в 2015-2025 гг., $ млн

Рынок облачных услуг (IaaS, PaaS и SaaS) в России в 2015-2025 гг., $ млн

Начавшийся в 2022 году процесс перехода в облака российских провайдеров продолжается в текущем. В настоящее время, как следует из результатов опроса участников рынка, вопросы поставок облачными провайдерами решены, хотя сроки и условия поставки стали менее комфортными для покупателей. Также отмечен значительный рост роли государственного заказчика (B2G) на российском ИТ-рынке, что обусловлено централизованной политикой по миграции органов власти на единую облачную инфраструктуру и развитием цифровых госуслуг.

 Итоговый рейтинг ТОП-24 на рынке IaaS, 2024 г., % выручки

Итоговый рейтинг ТОП-24 на рынке IaaS, 2024 г., % выручки

Некоторые компании начинают активно развивать собственную ИТ-инфраструктуру: строят частные облака, как полностью на собственной инфраструктуре, так и с использованием предложений облачных провайдеров. По мнению исследователей iKS-Consulting, этот тренд сохранится в ближайшие годы, сдерживая развитие сегмента публичных облаков. Неопределённость экономической перспективы делает аренду облака более предпочтительным вариантом, чем инвестиции в собственную инфраструктуру (on-premise). В пользу этого выбора свидетельствует и фактор высокой цикличности спроса на ресурсы при обучении и использовании больших языковых моделей (LLM), утверждают исследователи.

 Предварительный рейтинг игроков IaaS в 2025 году, % выручки

Предварительный рейтинг игроков IaaS в 2025 году, % выручки

По оценкам iKS-Consulting, объём российского рынка облачных сервисов, включая IaaS, PaaS и SaaS, в 2024 году увеличился в годичном исчислении на 32,8 % до 322,3 млрд руб. Предполагается, что в 2025 году рынок составит 416,5 млрд руб. или $4,84 млрд (рост год к году на 29,2 и 37,5 % соответственно). В числе факторов роста рынка в 2024–2025 гг. исследователи назвали:

  • увеличение проникновения облачных услуг;
  • миграцию значительной доли пользователей в российские облака из зарубежных после начала действия западных санкций в отношении России с весны 2022 года;
  • слабые инвестиции в инфраструктуру в условиях высокой ключевой ставки ЦБ РФ, актуальности замены CAPEX на OPEX;
  • государственные меры по защите национального рынка;
  • рост доверия к облачным услугам со стороны крупного бизнеса;
  • политику многих компаний оп оптимизации затрат на ИТ-инфраструктуру.
 Итоговый рейтинг игроков PaaS в 2024 году, % выручки

Итоговый рейтинг игроков PaaS в 2024 году, % выручки

Крупнейшими игроками рынка IaaS в 2024 года были компании Cloud.ru, ГК «РТК-ЦОД», Selectel, MWS и Yandex Cloud с 66 % всей выручки от услуг IaaS в публичных и гибридных облаках. Вышедшая в лидеры Cloud.ru значительно увеличила долю рынка за счёт предоставления услуг, связанных с ИИ, а также услуг в публичных и гибридных облаках. Сместившаяся на второе место ГК «РТК-ЦОД» имеет собственную сеть дата-центров, являясь крупнейшим игроком на рынке коммерческих ЦОД и предлагая услуги колокации в Москве, Санкт-Петербурге и многих других городах РФ.

 Предварительный рейтинг игроков PaaS в 2025 году, % выручки

Предварительный рейтинг игроков PaaS в 2025 году, % выручки

На рынке PaaS, составившем в 2024 году 33 млрд руб., лидируют Cloud.ru с долей рынка 45,53 % и Yandex.Cloud (23,65 %). Драйвером роста Cloud.ru является доступ к сервисам для создания и работы с ИИ-моделями, облачные сервисы для реализации отраслевых сценариев и разработки. В свою очередь Yandex.Cloud предлагает платформы для баз данных и услуги по управлению кластерами Kubernetes. Обе компании также лидируют в сегменте синтеза и распознавания речи и изображений.

 Предварительный рейтинг ТОП-20 на рынке IaaS+PaaS, 2025 г., % выручки

Предварительный рейтинг ТОП-20 на рынке IaaS+PaaS, 2025 г., % выручки

Согласно прогнозу iKS-Consulting, в 2025 году по совокупной выручке от услуг IaaS и PaaS первые два места останутся за лидерами сегмента IaaS — Cloud.ru и «РТК-ЦОД». Третье место у Yandex Cloud благодаря высоким темпам роста в обоих сегментах рынка. Замыкают пятёрку Selectel и МWS. Суммарно на первую пятёрку приходится около 70 % рынка.

Постоянный URL: http://servernews.ru/1132212
11.11.2025 [19:36], Руслан Авдеев

AMD приобрела ИИ-стартап MK1, созданный ветеранами Neuralink

Компания AMD объявила о покупке ИИ-стартапа MK1 для наращивания своих комптенций в сфере ИИ, сообщает CRN. MK1 занимается созданием ПО для инференса и корпоративного ИИ. MK1 основали соучредитель Neuralink Пол Меролла (Paul Merolla), который руководил проектированием чипов и разработкой алгоритмов для декодировки мозговой активности, а также бывший тимлид в Neuralink Тонг Вэй Ко (Thong Wei Koh). Также в команду входят бывшие разработчики Neuralink, Meta, Tesla и Apple.

MK1 сосредоточена на «высокоскоростных» технологиях инференса и «рассуждений», оптимизированных для крупномасштабных проектов на базе оборудования AMD. Решения уже обрабатывают более 1 трлн токенов ежедневно. Технологии разработаны для использования преимуществ архитектуры памяти ускорителей AMD Instinct. Последние становятся всё популярнее на рынке ИИ-инфраструктуры — AMD заключила с OpenAI сделку о развёртывании на базе Instinct мощностей на 6 ГВт в рамках стратегического партнёрства.

 Источник изображения: Arlington Research/unsplash.com

Источник изображения: Arlington Research/unsplash.com

Сочетание ПО MK1 и ускорителей AMD позволит, как ожидается, обеспечить «точные, полностью отслеживаемые рассуждения в любом масштабе». Вместе AMD и MK1 ускорят появление следующего поколения корпоративного ИИ, это позволит клиентам автоматизировать даже сложные бизнес-процессы и др.

AMD объявила о покупке MK1 после отчёта о потраченных на покупку других компаний $36 млн, помимо нашумевшей сделки с ZT Systems на $4,9 млрд, заключённую ранее в этом году. Ранее компания приобрела стартап Enosemi, занимающийся кремниевой фотоникой, стартап Brium, специализировавшийся на инструментах разработки и оптимизации ИИ ПО, а также команду стартапа Untether AI, занимавшуюся разработкой ИИ-ускорителей.

Ранее портал CRN сообщал, что в последние годы AMD активно занималась покупками бизнесов для расширения возможностей ИИ-ускорителей, оборудования и ПО в условиях растущей конкуренции с NVIDIA в сфере искусственного интеллекта. ZT Systems уже используется для разработки стоечных ИИ-решений на базе ускорителей Instinct, это очень помогло AMD получить контракты с крупными клиентами, включая OpenAI. В октябре компания продала производственный сегмент ZT Systems американской Sammina за $3 млрд, сохранив проектно-конструкторское и сервисное клиентское подразделения компании.

Постоянный URL: http://servernews.ru/1132203
11.11.2025 [15:39], Руслан Авдеев

Tapestry, «ИИ-управляющий» энергосетями от Google X, поможет обеспечить надёжное питание кампуса Rio AI City мощностью 1,8 ГВт

Один из инновационных проектов Google X — компания Tapestry заключила соглашение с властями Рио-де-Жанейро. Компания поможет в создании и поддержке энергетической инфраструктуры 1,8-ГВт кампуса ЦОД Rio AI City, создаваемого при участии NVIDIA и Oracle, сообщает Datacenter Dynamics. Tapestry подключилась к проекту по приглашению мэра Рио Эдуардо Паэса (Eduardo Paes).

В рамках сделки Tapestry поможет в оценке и планировании энергетической инфраструктуры AI City. Для управления сетями в проекте будет применяться инструмент GridAware, предлагаемый Tapestry — он обеспечит проверку состояния физической электросети в AI City. Позже инструмент Grid Planning Tool будет применяться для расчёта сценариев, позволяющих нарастить генерирующие мощности и пропускную способность сетей с сохранением почти 100 % надёжности. Также в проекте принимает участие Axia Energia (Electrobras), крупнейшая в Латинской Америке компания по генерации и передаче электроэнергии, оператор и застройщик ЦОД Elea Data Centers, и местная энергокомпания Light SA.

 Источник изображения: Elea Data Centers

Источник изображения: Elea Data Centers

Tapestry — инновационный проект под «зонтиком» Google X, который с помощью ИИ создаёт «первую унифицированную модель энергосети». Компания надеется помочь всем, планирующим и строящим электросети, а также управляющим ими. Пользователи ПО смогут оптимизировать энергопотоки и подключать к сети энергию из различных источников.

Развитие Rio AI City уже началось. Ожидается, что второй объект кампуса RJO2 получит 80 МВт в 2026 году. Позже в эксплуатацию введут площадки RJO3 и RJO4, ещё на 120 МВт. В дальнейшем на первом этапе мощность можно будет увеличить до 1,5 ГВт (включая существующий объект RJO1), а в будущем — до 3,2 ГВт и 27 объектов.

Постоянный URL: http://servernews.ru/1132194
11.11.2025 [15:14], Руслан Авдеев

Облака и ЦОД Northern Data будут проданы Rumble для создания экосистемы Freedom-First с упором на свободу слова и приватность, а майнинговые мощности достанутся Elektron Energy

Немецкая IT-компания Northern Data Group будет продана видеоплатформе и облачному провайдеру Rumble Inc. Последняя купит 100 % акций Northern Data. Сделка предусматривает покупку всего бизнеса, включая облачные и ИИ-подразделения, и будет закрыта во II половине 2026 года, сообщает Datacenter Dynamics. В Rumble сообщают, что намерены расширить облачный бизнес за счёт активов Northern Data, получив одни из крупнейших массивов ИИ-ускорителей в Европе наряду с ЦОД. Это поможет компании построить собственную экосистему Freedom-First.

Экосистема Freedom-First, в отличие от классических гиперскейлеров, якобы предполагает поддержку свободы слова, приватности, независимости и надёжности. В будущем планируется расширить портфолио сервисов, предложив Rumble Wallet, ИИ-ботов и агентов и др. Основанная в 2022 году Rumble включает видеоплатформу, а также облачный сервис Rumble Cloud. Последний распоряжается ЦОД в несколкьих американских штатах.

В рамках сделки каждый совладелец Northern Data получит по 2,0281 акций Rumble класса A в обмен на каждую акцию Northern Data. Также среди акционеров распределят $200 млн. На сегодня крупным акционером Northern и Rumble является криптомайнинговая компания Tether. Она, наряду с другими инвесторами, и приняла решение о продаже. В минувшие выходные Northern Data объявила о продаже доли в Lancium, задействованной в проекте Stargate, за $30 млн. Кроме того, упомянуто соглашение с Tether об аренде ИИ-ускорителей на сумму до $150 млн в течение двух лет.

Параллельно Northern Data избавится от подразделения, ответственное за майнинг криптовалют, чтобы полностью сосредоточиться на облачных сервисах и ЦОД, сообщает Datacenter Dynamics. Первоначальный платёж за майнинговый бизнес Peak Mining должен был составить $50 млн. Имя покупателя не называлось, но в августе появилась информация, что майнинговое подразделение продадут Elektron Energy за $350 млн. Ещё $150 млн будет выплачено, если прибыль подразделения после сделки достигнет заданных показателей. Вырученные средства пойдёт на расширение облачных и ИИ-сервисов.

 Источник изображения: Kanchanara/unsplash.com

Источник изображения: Kanchanara/unsplash.com

Northern Data была основана в Германии в 2009 году под именем Northern Bitcoin AG. Бизнес позиционировал себя как «зелёного» майнера биткоинов. В 2020 году компанию переименовали в Northern Data Group и переориентировали на HPC-проекты в целом. Летом 2023 года компания запустила три бернда: Taiga Cloud, Ardent Data Centers и Peak Mining. Облаку Taiga Cloud досталось более 22 тыс. ИИ-ускорителей.

Что касается Ardent Data Centers, то восемь ЦОД по всему миру к 2027 году совокупно достигнут мощности порядка 250 МВт. Ardent управляет дата-центрами в Будене (Boden) в Швеция, а также в Норвегии — в Лефдале (Lefdal) на мощностях Lefdal Mine и Кристиансанне (Kristiansand) на мощностях Bulk. В США летом 2025 года компания открыла дата-центр в Питтсбурге (Пенсильвания). Также планируется масштабное строительство в Мейсвилле (Maysville, Джорджия). Также упоминаются мощности для размещения оборудования в Великобритании и Португалии. Дополнительно упомянуто о площадке мощностью 6 МВт в Амстердаме (Нидерланды).

В мае Northern Data сообщала о получении от компаний, «зарегистрированных на бирже в США», заявлений о заинтересованности в обсуждении о слиянии с подразделениями Taiga Cloud и Ardent или их приобретении. В августе компания Rumble Inc. объявила, что заинтересована в рассмотрении покупке, в качестве средства оплаты предлагая свои акции взамен активов.

Положение Northern Data на рынке не вполне стабильно. Если в июле 2024 года сообщалось, что компания рассматривает вывод на IPO подразделений ЦОД и ИИ, то в сентябре 2025 года появилась информация о том, что европейских офисах компании прошли обыски и аресты. Сообщалось, что компанию подозревают в неуплате €100 млн налогов от деятельности, связанной с криптомайнингом.

Постоянный URL: http://servernews.ru/1132185
11.11.2025 [13:00], Сергей Карасёв

Стартап Spectral Compute по переносу CUDA-приложений на сторонние платформы получил на развитие $6 млн

Компания Spectral Compute, занимающаяся разработкой программной платформы SCALE для запуска CUDA-приложений на любых GPU-ускорителях, сообщила о проведении посевного раунда финансирования на сумму в $6 млн. Инвестиционная программа проведена при участии Costanoa, Crucible и ряда бизнес-ангелов.

Стартап Spectral основан в 2018 году инженерами Майклом Сёндергаардом (Michael Søndergaard), Крисом Китчингом (Chris Kitching), Николасом Томлинсоном (Nicholas Tomlinson) и Франсуа Суше (Francois Souchay). Они обладают богатым опытом работы в сферах НРС, программирования GPU и пр. Штат компании на сегодняшний день насчитывает около 20 человек.

Spectral развивает решение SCALE, которое обеспечивает компиляцию исходного кода CUDA напрямую в машинные инструкции для ускорителей на базе GPU, отличных от NVIDIA. На начальном этапе реализована возможность использования CUDA-приложений с изделиями AMD, а в дальнейшем планируется добавить поддержку ускорителей других производителей, включая Intel. Таким образом, компании смогут использовать одну и ту же кодовую базу для оборудования разных поставщиков, формируя кластеры ИИ и НРС на основе любых GPU, а не только решений NVIDIA.

 Источник изображения: Spectral Compute

Источник изображения: Spectral Compute

«Цель проекта SCALE заключается в том, чтобы предоставить организациям возможность использовать существующий код CUDA на любом графическом процессоре, будь то NVIDIA, AMD, Intel или другие изделия — без потери производительности или дорогостоящего переписывания кода», — говорит Сёндергаард. Привлечённые средства стартап намерен направить на дальнейшее развитие платформы SCALE, а также на увеличение численности персонала.

Постоянный URL: http://servernews.ru/1132192
11.11.2025 [12:03], Сергей Карасёв

Стартап Majestic Labs обещает ИИ-серверы со 128 Тбайт RAM

Компания Majestic Labs, занимающаяся разработкой серверов нового поколения для наиболее ресурсоёмких задач ИИ, объявила о выходе из скрытого режима (Stealth) и проведении раунда финансирования Series A. В общей сложности стартап на сегодняшний день получил на развитие $100 млн. Majestic Labs основана бывшими сотрудниками Google и Meta. Компания разрабатывает серверы высокой плотности, способные справляться с самыми масштабными и сложными задачами ИИ, для которых в настоящее время требуются несколько стоек с вычислительным оборудованием и коммутаторами.

По оценкам Стэнфордского университета (Stanford University), размер кластеров для обучения ИИ-моделей удваивается каждые пять месяцев, объём наборов данных — каждые восемь, а энергопотребление — ежегодно. При этом узким местом, по заявлениям Majestic Labs, является память ИИ-систем: наблюдается разрыв между её объемом и производительностью и собственно вычислительными возможностями ускорителей. В результате, компании вынуждены приобретать избыточные дорогостоящие ИИ-карты только для того, чтобы получить доступ к большему объёму памяти.

 Источник изображения: unsplash.com / Immo Wegmann

Источник изображения: unsplash.com / Immo Wegmann

Majestic Labs рассчитывает решить проблему путём использования принципиально новой архитектуры ИИ-серверов, меняющей баланс памяти и вычислительных мощностей. Стартап заявляет, что каждый сервер нового типа сможет нести на борту столько же памяти, сколько 10 или более современных стоек. Разрабатываемая архитектура позволит радикально сократить затраты на охлаждение, сетевое оборудование и другие компоненты, которые используются в традиционных системах.

«Серверы Majestic будут обладать всеми вычислительными возможностями современных устройств на базе GPU и TPU в сочетании с 1000-кратным увеличением объёма памяти», — говорит соучредитель и генеральный директор стартапа Офер Шахам (Ofer Shacham).

Архитектура Majestic Labs предусматривает разделение памяти и вычислительных ресурсов. В серверах будут применяться специализированные ИИ-ускорители и блоки «чрезвычайно быстрой и энергоэффективной памяти с высокой пропускной способностью» (тип не уточняется). Каждый сервер сможет нести на борту до 128 Тбайт RAM, что позволит работать с самыми крупными моделями LLM с огромными контекстными окнами. При этом будет обеспечиваться значительное снижение энергопотребления по сравнению с традиционными системами сопоставимого уровня, объединяющими несколько стоек с оборудованием.

Программу финансирования Series A на сумму в $71 млн возглавляет Bow Wave Capital. Предыдущим посевным раундом руководила инвестиционная компания Lux Capital. Кроме того, поддержку стартапу оказывают SBI, Upfront, Grove Ventures, Hetz Ventures, QP Ventures, Aidenlair Global и TAL Ventures.

Majestic Labs планирует продавать своё оборудование гиперскейлерам, операторам крупных дата-центров, финансовым учреждениям и фармацевтическим компаниям. Стартап рассчитывает выпустить первые коммерческие серверы в 2027 году. Привлечённые средства будут также использованы для расширения команды инженеров и улучшения программного стека, обеспечивающего работу систем нового типа.

Постоянный URL: http://servernews.ru/1132177
11.11.2025 [09:20], Андрей Крупин

Postgres Professional представила ProGate — инструмент для миграции данных из Oracle Database и PostgreSQL в Postgres Pro

Компания Postgres Professional объявила о выпуске нового продукта ProGate, предназначенного для упрощения переноса корпоративных систем с Oracle Database и PostgreSQL на СУБД Postgres Pro отечественной разработки.

ProGate закрывает полный цикл задач по переносу и синхронизации данных. В составе программного решения представлены три компонента:

  • инструмент первоначальной загрузки ProCopy (поддерживает скорость до 41 Тбайт в сутки по маршруту Oracle → Postgres Pro и до 80 Тбайт в сутки при миграции PostgreSQL → Postgres Pro);
  • модуль ProSync для репликации изменений в режиме near-real-time (минимизирует время простоя и обеспечивает непрерывный перенос данных на работающей базе);
  • модуль ProCheck для проверки качества переноса (сравнивает данные построчно и по агрегатам, снижая риск ошибок перед запуском целевой системы).

ProGate поддерживает репликацию в аналитические хранилища и parquet-файлы, а также упрощает мажорные апгрейды между версиями Postgres Pro и PostgreSQL.

 Источник изображения: postgrespro.ru

Источник изображения: postgrespro.ru

По словам команды разработчиков Postgres Professional, инструмент ProGate может быть востребован при реализации проектов импортозамещения ПО и работе с крупными корпоративными системами, где важны минимальный простой и высокая точность передачи данных.

«Миграция из Oracle Database — это один из самых рискованных этапов цифрового перехода. На кону — данные организаций, от которых напрямую зависит работа банков, госсектора и промышленности. Ошибки в процессе переноса несут риски повреждения или потери данных, а также прямые финансовые убытки. ProGate снимает эту проблему, позволяя выполнять перенос данных быстро, контролируемо и без потерь», — отмечает Postgres Professional.

Постоянный URL: http://servernews.ru/1132183

Входит в перечень общественных объединений и религиозных организаций, в отношении которых судом принято вступившее в законную силу решение о ликвидации или запрете деятельности по основаниям, предусмотренным Федеральным законом от 25.07.2002 № 114-ФЗ «О противодействии экстремистской деятельности»;

Система Orphus