Лента новостей

20.04.2026 [00:50], Владимир Мироненко

Строительство гигантского ИИ ЦОД им. Трампа застопорилось: заказчиков нет, гендиректор сбежал, акции падают

Крупнейший в мире проект по строительству кампуса ИИ ЦОД Project Matador (HyperGHrid), поддерживаемый союзниками Трампа и формально носящий его имя (The President Donald J. Trump Advanced Energy and Intelligence Campus), застопорился из-за задержек в реализации и логистических проблем, сообщил ресурс Axios. Вдобавок в пятницу стало известно, что свой пост внезапно покинул генеральный директор стоящей за проектом компании Fermi America Тоби Нойгебаргер (Toby Neugebarger). Это привело к резкому падению акций компании на внебиржевых торгах, которые уже потеряли 75 % своей стоимости за последние шесть месяцев.

За день до этого Нойгебаргер в интервью Axios защищал проект, признавая при этом существование некоторых недостатков, т.е. ничто не предвещало его скорого ухода. Он сообщил, что недооценил сложности реализации таких проектов, особенно систем охлаждения, необходимых для отвода тепла от ИИ-чипов. Также Нойгебаргер отметил, что, возможно, «неправильно понял, где находится цепочка поставок» оборудования для охлаждения: «Я приму это как неудачу».

Одной из главных проблем, стоящих перед компанией, является отсутствие публично подтверждённого якорного арендатора — как правило, крупного провайдера, — наличие которого считается необходимым для дальнейшего развития проекта, в том числе и в отношении таких компонентов, как система охлаждения. Препятствия в продвижении проекта указаны в независимом отчёте аналитической компании Cleanview, предоставленном Axios, а также в финансовых отчётах, публичных документах и комментариях руководителей компании.

 Источник изображения: Fermi America  Источник изображения: Fermi America

Источник изображения: Fermi America Источник изображения: Fermi America

Нойгебауэр признал в интервью Axios, что проект не может двигаться вперед без арендатора, вместе с тем отметив, что вопрос арендаторов «не является проблемой» для компании. Один из потенциальных арендаторов отказался от участия в проекте в декабре прошлого года, и инвесторы подали в связи с этим к компании коллективный иск. Вопрос об отсутствии публично объявленных арендаторов был снова поднят аналитиками во время годового финансового отчёта Fermi. Нойгебауэр тогда ответил, что компания подписывает новые письма о намерениях, но он не может публично разглашать подробности, пока не будет окончательного решения.

При этом финансовый директор Майлз Эверсон (Miles Everson) сообщил аналитикам, что дальнейшее строительство не будет продолжено до тех пор, пока не будет заключено окончательное соглашение с арендатором и обеспечено финансирование проекта. Согласно отчёту Cleanview, даже если Fermi сейчас найдёт якорного арендатора и будет следовать другим аналогичным срокам строительства крупных ЦОД, первые здания в Амарилло (Amarillo, Техас) будут введены в эксплуатацию только в мае 2027 года — примерно на год позже, чем первоначально предполагалось. Ранее компания планировала ввести в эксплуатацию около 1,1 ГВт к концу 2026 года, но в недавнем заявлении для SEC она сообщила об отказе от этой цели.

Компания преодолела ряд ключевых препятствий, в том числе получение разрешения на выбросы в атмосферу в начале этого года. Вместе с тем она столкнулась с задержкой с подтверждением систем охлаждения, которые обычно проектируются арендаторами и должны быть окончательно утверждены до начала строительства. «Я думаю, что это более серьёзное препятствие, чем мы первоначально предполагали», — сказал Нойгебауэр аналитикам. При этом компания уже заказала четыре ядерных реактора для питания своих дата-центров.

Постоянный URL: https://servernews.ru/1140273
19.04.2026 [21:20], Владимир Мироненко

Google договаривается с Marvell о разработке двух кастомных чипов для ИИ-инференса

Компания Google (Alphabet) ведёт переговоры с Marvell Technology о совместной разработке двух кастомных чипов, предназначенных для более эффективного ИИ-инференса, сообщил ресурс The Information со ссылкой на информированные источники.

Как отметил The Information, эти переговоры свидетельствуют о стремлении Google, исторически зависящей от Broadcom в отношении базовой инфраструктуры TPU, к диверсификации поставщиков. Этот потенциальный альянс в области разработки чипов является прямым ответом на меняющуюся экономику ИИ, когда огромные вычислительные затраты на обучение масштабных моделей быстро уступают место постоянным ежедневным расходам на инференс.

Один из чипов относится к подсистеме памяти TPU, второй — собственно TPU следующего поколения, созданный специально для запуска ИИ-моделей. Эти чипы предназначены для совместной работы, при этом каждый из них выполняет свою часть задачи. Как подчёркивается в публикации, «текущие обсуждения направлены на разработку полупроводников исключительно для нужд Google».

 Источник изображения: Marvell Technology

Источник изображения: Marvell Technology

Помимо технической оптимизации ИИ-инференса, привлечение Marvell — это классическая тактика диверсификации поставщиков, пишет Startup Fortune. Broadcom долгое время занимала исключительно доминирующее положение на рынке заказных чипов, тесно сотрудничая с Google в разработке TPU. Но сильная зависимость от одного партнёра по проектированию неизбежно создаёт ценовые разногласия и узкие места. Добавление ещё одного партнёра даёт Google более сильные рычаги влияния во время переговоров по контрактам, а также защищает её ЦОД от геополитических и логистических сбоев.

Следует отметить, что авторитет Marvell заметно вырос за последнее время. Компания недавно заключила многомиллиардное партнёрство с NVIDIA, ориентированное на оптические сети и кастомные чипы. Её акции выросли более чем на 50 % с начала года, в основном благодаря доверию инвесторов к её опыту в области инфраструктуры данных и проектирования заказных чипов. Вместе с тем Broadcom остается ключевым партнёром в реализации планов Google. В этом месяце компании подписали соглашение о продолжении работы над новыми чипами до 2031 года, сообщается в документе, направленном Broadcom регулятору.

Если переговоры пройдут успешно, Marvell укрепит свой статус ведущей альтернативы Broadcom в сегменте разработки кастомных ИИ-микросхем. Также следует ждать, что капитальные затраты гиперскейлеров будут всё больше смещаться в сторону оптимизации инференса, а не просто увеличения вычислительной мощности. Аналитики отрасли в настоящее время прогнозируют, что поставки серверных ASIC для ИИ-вычислений утроятся к 2027 году, и эта тенденция почти полностью обусловлена потребностями в развёртывании больших языковых моделей.

Постоянный URL: https://servernews.ru/1140271
19.04.2026 [14:20], Владимир Мироненко

TD Synnex арендовала у Nebius кластеры NVIDIA B300, чтобы дать ИИ-мощности партнёрами и клиентам

TD Synnex, американский дистрибьютор и агрегатор IT-решений, объявил о расширении своего портфеля услуг ИИ-инфраструктуры (AI Infrastructure-as-a-Service) в Северной Америке за счёт резервирования более тысячи ускорителей в составе выделенных кластеров NVIDIA HGX B300, развёрнутых в ИИ-облаке Nebius. Мощности в Nebius AI Cloud предназначены для партнёров и клиентов TD Synnex, и это, по словам компании, первая сделка такого рода.

Дистрибьютор отметил, что заблаговременное выделение GPU-мощностей помогает партнёрам преодолеть один из наиболее существенных барьеров на пути внедрения ИИ в корпоративной среде: непостоянный доступ к вычислениям. Партнёры смогут напрямую выделять зарезервированные мощности для рабочих нагрузок клиентов, ускоряя переход от экспериментов в области ИИ к продуктовым решениям.

Облачная платформа TD Synnex x Nebius AI Cloud соответствует эталонной архитектуре NVIDIA Enterprise Reference Architecture (Enterprise RA) и поддерживает непрерывные рабочие нагрузки обучения и инференса. Встроенные функции безопасности, изоляции и операционной надёжности обеспечивают готовую основу для партнёров, предоставляющих корпоративные решения в области ИИ. Благодаря партнёрской экосистеме TD Synnex, инфраструктура может быть объединена с ПО NVIDIA AI Enterprise и продуктами независимых поставщиков ПО (ISV) для предоставления комплексных, готовых к использованию в корпоративной среде решений на основе ИИ.

 Источник изображения: TD Synnex

Источник изображения: TD Synnex

«Спрос на ИИ в корпоративной среде реален, но реализация застопоривается, когда инфраструктура не гарантирована», — говорит вице-президент по глобальному партнёрству Nebius. Как сообщил ресурсу CRN старший вице-президент по облачным технологиям, безопасности и ИИ в TD Synnex, сделка с Nebius вызвала такой большой интерес у партнёров по каналу продаж, что, по его мнению, первая партия инстансов «вероятно, будет раскуплена довольно быстро», и компания уже думает о будущем расширении.

В прошлом месяце было объявлено о стратегическом партнёрстве NVIDIA и Nebius, в рамках которого производитель чипов инвестирует в стартап $2 млрд для разработки и строительства ИИ ЦОД.

Постоянный URL: https://servernews.ru/1140261
19.04.2026 [13:51], Сергей Карасёв

AAEON выпустила систему CEXD-INTRBL на базе Intel Panther Lake для разработки ИИ-роботов

Компания AAEON представила индустриальный компьютер небольшого форм-фактора CEXD-INTRBL, предназначенный для разработки человекоподобных роботов с функциями ИИ и платформ для автономных транспортных средств. В основу новинки положен процессор Intel поколения Panther Lake.

Устройство заключено в корпус с габаритами 137 × 135 × 86 мм. Задействован чип Core Ultra X7 358H с 16 ядрами в конфигурации 4Р+8Е+4LPE (максимальная частота — 4,8 ГГц). В состав изделия входят графический блок Intel Arc B390 (до 2,5 ГГц) с ИИ-производительностью до 122 TOPS в режиме INT8 и NPU с быстродействием до 50 TOPS (INT8). Суммарная ИИ-производительность (CPU+GPU+NPU) достигает 180 TOPS.

Компьютер может нести на борту до 64 Гбайт LPDDR5-8533 и NVMe SSD формате M.2 2280 (PCIe x4) вместимостью 256 Гбайт. Есть коннектор M.2 2280 B-Key (PCIe x2) для сотового модема и разъём M.2 2230 E-Key для адаптера Wi-Fi/Bluetooth. В оснащение входят звуковой кодек Realtek ALC897 и четыре сетевых порта 2.5GbE RJ45 на основе контроллера Intel I226-V.

 Источник изображений: AAEON

Источник изображений: AAEON

Устройство располагает интерфейсами HDMI 1.4 (3840 × 2160 точек; 30 Гц) и DP 1.4 (3840 × 2160 пикселей; до144 Гц), двумя коннекторами FAKRA с возможностью подключения до восьми камер GMSL2, двумя внутренними разъёмами MIPI CSI, четырьмя портами USB 3.0 Type-C и двумя портами USB 2.0 Type A, четырьмя последовательными портами (по два RS-232 и RS-485), 40-контактным HAT-коннектором (22 × GPIO), а также 3,5-мм аудиогнёздами. Имеется модуль TPM 2.0.

Питание 19–24 В подаётся через DC-разъём. Диапазон рабочих температур простирается от 0 до +50 °C. Заявлена совместимость с Windows 11 и Ubuntu 25.04/24.04. Компьютер предлагается по ориентировочной цене $3200.

Постоянный URL: https://servernews.ru/1140256
18.04.2026 [20:33], Владимир Мироненко

Lenovo открыла региональную штаб-квартиру в Эр-Рияде

Компания Lenovo объявила об открытии своей региональной штаб-квартиры в Эр-Рияде (Riyadh) для координации деятельности на Ближнем Востоке, в Турции и Африке, подчеркнув, что это «знаменует собой стратегическую веху в долгосрочных инвестициях компании в королевство и её приверженность поддержке целей программы Vision 2030 Саудовской Аравии».

На церемонии открытия штаб-квартиры, размещённой в бизнес-центре Al-Majdoul Tower, присутствовали министр инвестиций Саудовской Аравии, а также высокопоставленные правительственные чиновники страны, стратегические партнёры и представители руководства Lenovo. Министр отметил, что решение Lenovo открыть региональную штаб-квартиру в Эр-Рияде отражает прочность партнёрства королевства с ведущими мировыми технологическими компаниями и эффективность программы создания региональных штаб-квартир, запущенной в 2021 году.

По его словам, продолжающиеся инвестиции Lenovo в передовое производство, локализацию цепочки поставок, развитие талантов и региональные операции демонстрируют твёрдую уверенность в Саудовской Аравии как долгосрочной базе для инноваций и роста и напрямую способствуют достижению целей программы Vision 2030 по построению конкурентоспособной, диверсифицированной и экспортно-ориентированной экономики.

 Источник изображения: Youssef Abdelwahab/unsplash.com

Источник изображения: Youssef Abdelwahab/unsplash.com

В рамках мероприятия Lenovo также организовала визит высокопоставленных лиц на свою производственную площадку в Эр-Рияде, где прошла встреча с 28 саудовскими инженерами, недавно вернувшимися из Китая после завершения обучения по программе Saudi Smart Manufacturing Graduate Program, реализуемой в партнёрстве с Фондом развития человеческих ресурсов (Human Resources Development Fund, HRDF), Министерством промышленности и минеральных ресурсов Саудовской Аравии и компанией ALAT. Комментируя открытие, региональный президент Lenovo, заявил, что это важный момент для Lenovo и подтверждение долгосрочной приверженности компании партнёрству с Саудовской Аравией.

Компания отметила, что региональная штаб-квартира в Эр-Рияде также является ключевым элементом более широкого стратегического сотрудничества Lenovo с ALAT и дополняет её текущие инвестиции в королевство, которые обеспечили создание передового комплекса с производственной мощностью до двух миллионов персональных компьютеров и смартфонов, научно-исследовательского центра, центра обслуживания клиентов и запуск программы развития талантов.

Постоянный URL: https://servernews.ru/1140243
18.04.2026 [15:44], Сергей Карасёв

Трейдинговая компания Jane Street закупит облачные ИИ-мощности CoreWeave на $6 млрд

Частная американская фирма Jane Street, специализирующаяся на количественном трейдинге (квантовой торговле), по сообщению ресурса Datacenter Dynamics, заключила соглашение об использовании вычислительных мощностей ИИ-облака CoreWeave. Стоимость сделки составляет $6 млрд.

Количественный трейдинг — это метод торговли на финансовых рынках, основанный на математическом моделировании, статистическом анализе и обработке больших данных. Такой подход исключают эмоциональные и иррациональные решения. Для осуществления квантовой торговли требуются огромные вычислительные ресурсы, которые применяются в том числе для обучения сложных ИИ-моделей.

 Источник изображения: Jane Street

Источник изображения: Jane Street

По условиям договора, CoreWeave предоставит компании Jane Street мощности в нескольких ЦОД. Речь идёт, в частности, об оборудовании NVIDIA Vera Rubin. Соглашение также предполагает $1 млрд инвестиций со стороны Jane Street в CoreWeave (в виде обыкновенных акций класса А по цене $109 за бумагу).

Информация о собственной сети дата-центров Jane Street не раскрывается. Но в настоящее время компания ищет инженеров в области ЦОД в Нью-Йорке и Чикаго (США), Лондоне (Великобритания), Гонконге, Сингапуре и Мумбаи (Индия). От соискателей требуется опыт развёртывания крупных GPU-кластеров «многомегаваттного класса».

Нужно отметить, что Jane Street участвовала в раунде финансирования CoreWeave на сумму $650 млн в 2024 году: тогда оператор ИИ-облака получил оценку на уровне $23 млрд. Кроме того, Jane Street вкладывает средства в другие перспективные компании, среди которых — стартап по разработке ИИ-чипов MatX, создатель малых модульных реакторов X-energy и др.

Постоянный URL: https://servernews.ru/1140216
18.04.2026 [15:04], Сергей Карасёв

Intel представила процессоры Core Series 3 Wildcat Lake для периферийных устройств

Корпорация Intel анонсировала процессоры Core Series 3 семейства Wildcat Lake, предназначенные для периферийного оборудования. Среди ключевых сфер применения названы индустриальная робототехника, оборудование для энергетической, транспортной и медицинской отраслей, решения для умного города и ретейла и пр.

Чипы производятся в США по техпроцессу Intel 18A. Конфигурация включает до шести вычислительных ядер (2P+4LPE) без поддержки многопоточности с максимальной тактовой частотой в турбо-режиме до 4,8 ГГц. Объём кеша Intel Smart Cache LLC у всех изделий новой серии составляет 6 Мбайт. Базовый показатель TDP равен 15 Вт, максимальный — 35 Вт.

 Источник изображений: Intel

Источник изображений: Intel

В состав процессоров (кроме модели Intel Core 5 305) входит нейропроцессорный движок (NPU) с производительностью от 15 до 17 TOPS. Кроме того, используются одно или два графических ядра Intel Xe с частотой от 2,3 до 2,6 ГГц (в зависимости от модификации) и быстродействием от 9 до 21 TOPS. Таким образом, суммарная производительность чипов на операциях ИИ достигает почти 40 TOPS.

Изделия Core Series 3 могут работать с памятью LPDDR5Х-7467 объёмом до 48 Гбайт или DDR5-6400 объёмом до 64 Гбайт. Для платформы заявлена поддержка шести линий PCIe 4.0 (две можно отдать PCIe-свитчу Microchip PCI 1008, чтобы получить шесть пар PCIe 3.0), двух интерфейсов Thunderbolt 4, а также Wi-Fi 7 R2 и Bluetooth 6.

Разработчик заявляет, что по сравнению с изделиями NVIDIA Jetson Orin Nano топовый процессор семейства Wildcat Lake — Intel Core 7 350 — обеспечивает 1,5-кратный прирост производительности на задачах обнаружения объектов и 1,9-кратный прирост при классификации изображений. А на операциях видеоаналитики достигается 2,2-кратное преимущество.

Устройства на процессорах Core Series 3 планируют вывести на рынок такие компании, как Posiflex, AAEON и Advantech. Intel гарантирует доступность новых чипов в течение 10 лет. Заявлена поддержка TSN, Intel TCC, лёгкое профилирование под нагрузки/окружение, удалённое управление посредством Intel Standard Manageability и т.п.

Постоянный URL: https://servernews.ru/1140214
17.04.2026 [23:32], Владимир Мироненко

Храним здесь, запускаем там: OCI и AWS подружили свои облачные сети

Oracle и Amazon решили объединить усилия для создания частного высокоскоростного соединения между OCI и AWS. Благодаря установлению связи между Oracle Interconnect и AWS Interconnect–multicloud клиенты обеих компаний получат доступ к быстрому, частному, управляемому соединению для бесперебойного запуска приложений и перемещения данных между OCI и AWS.

Как отмечено в пресс-релизе, благодаря созданию ранее облачного сервиса Oracle AI Database@AWS компании впервые предложили клиентам более простой способ запуска Oracle AI Database в ЦОД AWS с теми же функциями, архитектурой и производительностью, что и в локальной среде. «Теперь мы развиваем это направление, устанавливая соединение между нашим популярным межоблачным соединением и AWS Interconnect–multicloud. Это поможет нашим общим клиентам модернизировать свои приложения, объединить данные и открыть новые возможности генеративного ИИ», — сообщила Oracle.

Этот шаг отражает переход предприятий к мультиоблачным инфраструктурам, использующим десятки отдельных облачных платформ и сервисов, пишет ресурс SiliconANGLE. Современные ИИ-приложения обычно работают на архитектуре с разделённым стеком — например, компания может использовать высокопроизводительную базу данных в OCI вместе с AWS SageMaker. Изменить что-либо после запуска системы непросто, и без высокопроизводительного моста между двумя облаками клиенты будут сталкиваться с экстремальными задержками, что будет отражаться на возможностях ИИ-приложений.

 Источник изображения: Oracle

Источник изображения: Oracle

SiliconANGLE назвал нынешний анонс довольно неожиданным, учитывая, что отношения компаний долгое время были напряжёнными. Однако, похоже, обе компании только выиграют от партнёрства, обеспечив передачу данных между своими облаками как между единой интегрированной платформой. С этой целью Oracle интегрирует свой собственный сервис межсетевого взаимодействия со спецификацией AWS Interconnect-multicloud для создания безопасного и приватного соединения, полностью обходящего публичный интернет. Это позволит компаниям поддерживать развёртывание с разделением стека, так что организации смогут запускать приложение в OCI и хранить его данные в AWS, или наоборот.

Примечательно, что Oracle охарактеризовала новое решение как «управляемое» и «нативное», то есть, клиентам не нужно настраивать вручную маршрутизацию или разрабатывать сложные стратегии репликации данных. Соблюдая спецификации AWS, Oracle, по сути, стандартизирует способ взаимодействия своего облака с платформой конкурента.

 Источник изображения: AWS

Источник изображения: AWS

Роб Стречай (Rob Strechay), ведущий аналитик theCUBE Research и Smuget Consulting, сообщил ресурсу SiliconANGLE, что сегодняшний шаг подчеркивает убеждение в том, что мультиоблачные решения — это уже не просто стратегия, а реальность для каждого предприятия. «Устраняя сложность сетевого взаимодействия между двумя крупнейшими доменами, Oracle и AWS делают межоблачную отказоустойчивость и ИИ-архитектуры гораздо более достижимыми для предприятий», — сказал он.

«Будущее ИИ — это когда ваши данные хранятся в одном месте, ваши модели работают в другом, и сеть не мешает, — отметил Стречай. — Это также позволяет организациям легко осуществлять аварийное восстановление в разных облаках. Хотя на бумаге это всегда имело смысл для баз данных, Oracle делает это достижимым на практике без создания масштабного проекта в области сетевых технологий».

Следует отметить, что Google Cloud ещё в мае 2023 года запустил мультиоблачное соединение Cross-Cloud Interconnect, а затем, в декабре прошлого года, — выделенное частное соединение с AWS. Со своей стороны, Oracle уже установила межсетевые соединения с Google Cloud и Azure от Microsoft. Oracle отметила, что сотрудничество между OCI и AWS Interconnect–multicloud станет последним дополнением к её комплексным мультиоблачным возможностям, планируя запуск высокопроизводительного канала позже в этом году в регионе AWS us-east-1.

Постоянный URL: https://servernews.ru/1140209
17.04.2026 [22:53], Владимир Мироненко

ИИ-стартап Cerebras поставит OpenAI ускорители ещё на $20 млрд

Компания OpenAI заключила соглашение с ИИ-стартапом Cerebras, согласно которому она выплатит более $20 млрд в течение следующих трёх лет за поставку ИИ-ускорителей, сообщило издание The Information. В рамках сделки OpenAI получит варранты на миноритарную долю в Cerebras, при этом её доля может увеличиться по мере роста расходов, утверждают источники The Information. По их данным, OpenAI также согласилась предоставить Cerebras около $1 млрд для финансирования развёртывания ЦОД на базе её ИИ-ускорителей.

До этого, в январе Cerebras договорилась с OpenAI о поставке в течение трёх лет своих ускорителей общей мощностью 750 МВт. Стоимость этой сделки оценивается в $10 млрд. Новое соглашение подчеркивает растущий интерес отрасли к вычислительным мощностям для инференса, отметило агентство Reuters. По его данным, Cerebras может раскрыть некоторые подробности своего соглашения с OpenAI, когда предоставит регулятору документы для проведения первичного публичного размещения (IPO).

 Источник изображения: Cerebras

Источник изображения: Cerebras

Исходя из общей суммы контрактов The Information допускает, что OpenAI может получить варранты, представляющие до 10 % доли в Cerebras. Сотрудничество с OpenAI является ключевым элементом в планах Cerebras по выходу на биржу, планирующего провести листинг во II квартале этого года. Cerebras, чья рыночная стоимость, по последним оценкам, составляет $23,1 млрд, планирует привлечь $3 млрд в ходе первичного публичного размещения акций в следующем месяце при оценке примерно в $35 млрд, сообщил The Information.

Выход на биржу неоднократно откладывался. Сначала компанию подозревали в опосредованных связях с Китаем и зависимости от ближневосточных нефтедолларов, а потом компания дважды получила крупные инвестиции и нарастила капитализацию. Сделки с AWS и OpenAI укрепили её позиции и успокоили инвесторов.

В пятницу Cerebras объявила о подаче заявки на первичное публичное размещение акций (IPO) в США. Компания планирует разместить свои акции на Nasdaq под тикером CBRS. Ведущими андеррайтерами размещения являются Morgan Stanley, Citigroup, Barclays и UBS.

Ранее на этой неделе Morgan Stanley открыл Cerebras возобновляемую кредитную линию с доступом до $250 млн, с возможностью увеличения лимита до $850 млн после IPO, сообщил CNBC.

Согласно документам, поданным в пятницу, среди инвесторов Cerebras — Alpha Wave, Benchmark, Eclipse, Fidelity и Foundation Capital. На сайте Cerebras также указан генеральный директор OpenAI Сэм Альтман (Sam Altman) в качестве инвестора.

Cerebras указала в заявке, что не владеет ЦОД, которые использует для предоставления облачных услуг, но может построить собственные в будущем. В документе также сообщается, что чистая прибыль Cerebras за 2025 год составила $87,9 млн при выручке в $510 млн (рост год к году на 76 %). Компания получила прибыль в размере $1,38 на акцию, по сравнению с убытком в $9,90 на акцию годом ранее.

По состоянию на 31 декабря 2025 года у Cerebras оставалось $24,6 млрд невыполненных обязательств, и ожидается, что 15 % этой суммы будет учтено в 2026 и 2027 годах.

Постоянный URL: https://servernews.ru/1140190
17.04.2026 [17:20], Андрей Крупин

«Группа Астра» выпустила инструмент для бесшовной миграции с Windows на Astra Linux

«Группа Астра» объявила о коммерческом релизе Astra Migration — инструмента для автоматизированного и управляемого переноса рабочих станций с операционной системы Windows на российскую платформу Astra Linux.

Astra Migration представляет собой комплексное клиент-серверное решение для массового перевода рабочих мест на ОС отечественной разработки. Клиентский модуль продукта — Astra Migration App — централизованно устанавливается на исходную Windows, инвентаризирует рабочую станцию и информирует пользователя о ходе миграции на всех этапах перехода при минимальном участии с его стороны. Серверная часть — Astra Migration Server — предоставляет IT-администратору единую панель управления: настройку сценариев миграции, формирование волн перехода, мониторинг статусов устройств в режиме реального времени и контроль блокеров.

Astra Migration обеспечивает перенос пользовательских данных и настроек, проверку совместимости программного обеспечения и оборудования, а также возможность отката к исходной ОС в случае необходимости. В текущей версии поддерживается режим параллельной установки Dualboot — Windows и Astra Linux сосуществуют на одном устройстве, с переносом пользовательских данных и настроек в рамках поддерживаемого сценария. Режим полной замены ОС с переносом данных появится в следующих обновлениях продукта. Все этапы миграции — от инвентаризации исходной системы до финального перехода на Astra Linux — полностью управляемы и прозрачны для IT-администратора.

По заверениям «Группы Астра», продукт кратно — в десятки раз — ускоряет процесс миграции по сравнению с ручным переводом на Astra Linux, обеспечивая при этом параллельную обработку более 100 рабочих станций одновременно.

Постоянный URL: https://servernews.ru/1140195