Материалы по тегу: hardware

01.04.2026 [09:06], Руслан Авдеев

Японская Tokyu испытает «железнодорожный» ЦОД

Один из железнодорожных маршрутов японского конгломерата Tokyu может стать пристанищем для дата-центров. На днях Tokyu Corporation, Tokyu Electric Railway, iTSCOM и Tokyu Construction объявили о начале эксперимента по созданию ЦОД вдоль линии Oimachi Line, связывающей районы Токио (Tokyo) и Кавасаки (Kawasaki, префектура Канагава), сообщает Datacenter Dynamics.

Компания намерена более полно использовать проложенную вдоль путей ВОЛС, поэтому в рамках эксперимента летом 2026 года под эстакадой Oimachi Line разместят небольшой модульный ЦОД. Компания рассчитывает оценить влияние на серверы условий, характерных для окрестностей железных дорог — состояние звуко- и виброизоляции, а также проанализировать эффективность охлаждения корпуса сервера. Полученные результаты позволят оценить целесообразность строительства дата-центров.

 Источник изображения: Snowscat/unsplash.com

Источник изображения: Snowscat/unsplash.com

Также компания намерена оценить возможность создания в перспективе дата-центров вдоль линии Tokyu Line, включая специальный район Токио —Сибую (Shibuya), а также создания вдоль линии городской цифровой инфраструктуры. Многие железнодорожные компании по всему миру тянут оптоволоконные сети вдоль собственных путей, но как правило такие ВОЛС сдаются в аренду другим компаниям.

 Источник изображения: Toyku

Источник изображения: Toyku

Tokyu была основана в 1910 году, тогда она носила имя Musashi Electric Railway Company. Нынешнее название компания получила в 1942 году после серии слияний. Бизнесу принадлежат многие железные дороги в районе «Большого Токио». Дополнительно она владеет несколькими автобусными компаниями, подразделением, занимающимся недвижимостью, а также торговым центром и несколькими отелями.

Постоянный URL: http://servernews.ru/1139187
31.03.2026 [23:55], Владимир Мироненко

Rebellions привлёк $400 млн для выхода на международный рынок и дальнейшей разработки ИИ-ускорителей

Разработчик ИИ-чипов Rebellions планирует расширить своё присутствие за пределами Южной Кореи с помощью поставок новой стоечной вычислительной платформы, которая не потребует от предприятий использования жидкостного охлаждения или сверхмощных стоек, пишет The Register. Основанный в конце 2020 года стартап производит ИИ-ускорители, которые используются многими компаниями Южной Кореи.

Главный коммерческий директор Rebellions Маршалл Чой (Marshall Choy) сообщил The Register, что поначалу компания сосредоточились на телекоммуникационных предприятиях, поставщиках услуг и корпоративных пользователях на южнокорейском рынке. «Мы разработали сценарии использования для всего, от колл-центров и обслуживания клиентов до систем видеонаблюдения для национальной системы автомагистралей», — отметил он, добавив, что компания сейчас находится в сильной позиции, а накопленный ею опыт и возможности позволяют расширять поставки в другие регионы.

 Источник изображения: Rebellions

Источник изображения: Rebellions

После выпуска ИИ-ускорителя Rebel Quad, переименованного в Rebel100, компания начала предпринимать шаги по выходу на международный рынок. За последние несколько месяцев Rebellions открыла офисы в Японии, Саудовской Аравии, на Тайване и в США, где надеется завоевать доверие предприятий с помощью своих стоечных систем RebelRack и RebelPods на базе Rebel100.

Ускоритель Rebel100, в отличие от NVIDIA H200, базирующегося на монолитном вычислительном кристалле, изготовленном TSMC, использует чиплетную архитектуру с четырьмя вычислительными кристаллами, произведёнными и упакованными Samsung. К нему подключены четыре стека памяти HBM3e общей ёмкостью 144 Гбайт и пропускной способностью 4,8 Тбайт/с. Благодаря тому, что Rebellions — южнокорейская компания, тесно связанная как с чеболем SK, так и с Samsung, крупнейшими поставщиками HBM, у неё нет проблем с закупкой этой памяти.

Сам Rebel100 выпускается в виде PCIe-карты с TDP 600 Вт и производительностью до 1 Пфлопс в режиме FP16 и до 2 Пфлопс на операциях FP8. Референсный дизайн Rebellions предусматривает размещение восьми таких карт в одном 19″ узле с воздушным охлаждением. Опора на стандартные форм-факторы была ключевым приоритетом при проектировании Rebellions, поскольку это позволяет развернуть системы в существующих корпоративных ЦОД, тогда как последние поколения ускорителей NVIDIA требуют СЖО.

 Источник изображения: Rebellions

Источник изображения: Rebellions

Стоечная система RebelRack будет включать четыре таких узла, объединённых 400GbE-сетью, что в сумме даст 32 ускорителя с общей производительностью 64 Пфлопс (FP8) и 4,6 Тбайт HBM3e с агрегированной ПСП 153,6 Тбайт/с. Для более крупных развёртываний предназначена стоечная система RebelPod, которая может масштабироваться от 8 до 128 узлов, каждый из которых имеет восемь ускорителей Rebel100, соединённых 800GbE-интерконнектом. Чой говорит, что в дальнейшем компания будет уделять первостепенное внимание сетевой инфраструктуре.

The Register отметил на примере стоечных систем от AMD и NVIDIA, что вычислительные ресурсы и сетевые возможности — это лишь две части решения задачи. Также необходимо ПО, которое сможет объединить всё это. Программный стек Rebellions работает на основе open source фреймворков, таких как vLLM, PyTorch и Triton. Для дезагрегированного инференса используется llm-d, ещё один открытый инструмент, позволяющий выполнять предварительное заполнение на одном наборе ускорителей, а декодирование — на другом. «Всё — open source, от vLLM до самого высокого уровня стека, Red Hat, OpenShift и т.д., — сказал Чой. — Если вы использовали какие-либо из этих технологий в другом контексте, вы уже знаете, как использовать Rebellions».

В понедельник стартап привлёк $400 млн в рамках предварительного раунда финансирования, который возглавили Mirae Asset Financial Group и Корейский национальный фонд развития, как для поддержки своей экспансии на международном рынке, так и для дальнейшего развития более совершенных и эффективных акселераторов и систем ИИ. По данным The Register, компания может подать заявку на IPO уже в этом году или в начале следующего.

Постоянный URL: http://servernews.ru/1139224
31.03.2026 [15:53], Руслан Авдеев

Selectel запустил защищённый катастрофоустойчивый облачный регион ru-6 с тремя зонами доступности

Российский провайдер облачной инфраструктуры Selectel запустил геораспределённый (Multi-AZ) облачный регион ru-6. Новое решение подойдёт корпоративным клиентам с крупными цифровыми проектами и сложными внутренними информационными системами, требующими высокопроизводительной вычислительной инфраструктуры, говорит компания. Регион включает три независимых зоны доступности (AZ) в Москве, с расстоянием до 15 км между дата-центрами. Связь площадок обеспечит высокоскоростная сеть с временем отклика менее 1 мс.

Если раньше для распределения нагрузок между зонами было необходимо ручное конфигурирование, то теперь устойчивость сетевых и PaaS-сервисов можно получить «из коробки». Мастер-ноды Managed Kubernetes и ноды облачных баз данных в геораспределённых кластерах автоматически размещаются в разных AZ. Аналогичным образом организовано и распределённое резервное копирование. Подобная архитектура обеспечит работоспособность клиентских нагрузок, даже если из строя выйдет одна из зон доступности целиком. В случае инцидента задержка восстановления сервисов будет минимальной, всего от нескольких минут.

В компании говорят о получении доступа к «отказоустойчивости как сервису». Связанные с работой ЦОД риски будут минимизироваться с помощью автоматической системы аварийного восстановления. Утверждается, что это обойдётся минимум вдвое дешевле обычного DR-механизма. В то же время сохранится возможность выбора того, где именно размещать критически важные сетевые компоненты с учётом требований к RTO и RPO.

 Источник изображения6 Selectel

Источник изображения6 Selectel

Уже организован доступ к инфраструктуре ru-6 по предварительному заказу на её сайте. Сегодня компании размещают критически важные информационные системы сразу в нескольких ЦОД, а в некоторых случаях — у нескольких облачных провайдеров. Новое решение обеспечивает устойчивые PaaS: Managed Kubernetes, облачные СУБД, S3-хранилище и др.

В основе нового региона — увеличенные лимиты произвольных конфигураций, выделенные ядра и возможность управлять топологией CPU. Облако построено на современном оборудовании с использованием собственной серверной платформы Selectel и процессоров AMD EPYC 9754 (Turin) и Intel Xeon 6747P (Granite Rapids-SP), сетевых дисков с производительностью 75 тыс. IOPS, а также ИИ-ускорителей NVIDIA H200 и RTX PRO 6000 Blackwell Server Edition.

Компания рассчитывает дополнить систему геораспределённым хранилищем S3 с высокоскоростным подключением к облачным серверам, появится и специальное файловое хранилище. Планируется добавить функцию резервирования выделенных хостов виртуализации для конфиденциальных вычислений и экспорт бэкапов в другие географические регионы.

Постоянный URL: http://servernews.ru/1139192
31.03.2026 [14:57], Владимир Мироненко

Nebius построит в Финляндии крупнейший в Европе ИИ ЦОД

Провайдер облачных ИИ-сервисов Nebius (ранее Yandex N.V.) объявил о строительстве новой «ИИ-фабрики» мощностью до 310 МВт в финском городе Лаппеенранта (Lappeenranta). Как сообщает Reuters, новый ИИ ЦОД стоимостью более $10 млрд станет крупнейшим на континенте. Это уже десятый объект компании, который финский девелопер Polarnode строит в Лаппеенранте. Ввод мощностей ИИ ЦОД будет производиться поэтапно, начиная с 2027 года. Сообщается, что он не будет привязан ни к одному из клиентов компании.

Строительство ЦОД в Лаппеенранте следует за недавним расширением Nebius своего первого ЦОД в Финляндии в Мянтсяля (Mäntsälä) до 75 МВт, завершённым ранее в этом году. Компания планирует дальнейшее расширение в Финляндии, чему способствуют благоприятные условия — низкие цены на энергоносители, возобновляемые источники электроэнергии и прохладный климат, позволяющий снизить затраты на охлаждение. Компания отметила, что Лаппеенранта отвечает всем требованиям для строительства ИИ ЦОД, включая доступность оформления участка под объект и пропускную способность сетей.

«Мы считаем, что и общая экосистема здесь очень благоприятна», — сказала компания агентству Reuters. ЦОД в Лаппеенранте станет крупнейшим объектом Nebius за пределами США, превзойдя недавно анонсированный проект мощностью 240 МВт невдалеке от Лилля (Lille, Франция). «Мы много лет работаем в Финляндии и рады расширению нашего присутствия здесь. Лаппеенранта станет значительным дополнением к нашей глобальной инфраструктуре ИИ и внесет существенный вклад в достижение наших целей по мощности», — заявил основатель и генеральный директор Nebius Аркадий Волож.

 Источник изображения: Nebius

Источник изображения: Nebius

ЦОД Nebius в Лаппеенранте представляет собой многокорпусный комплекс на промышленной площадке площадью около 40,5 га. Его строительство и дальнейшая эксплуатация создадут новые рабочие места в регионе Южная Карелия в Финляндии. Ожидается, что появится около 100 рабочих мест после ввода ЦОД в эксплуатацию, а также сотни косвенных вакансий в сфере эксплуатации и технического обслуживания. Ключевым принципом проектирования ЦОД в Лаппеенранте будет экологичность, как и в ЦОД в Мянтсяля, который входит в число самых энергоэффективных объектов в мире, сообщила Nebius.

Серверы будут охлаждаться с помощью замкнутой СЖО, что исключит необходимость использования воды из местных источников. Как и в Мянтсяля, система охлаждения будет спроектирована с учётом системы рекуперации тепла, что позволит передавать избыточное тепло от серверов в местную теплосеть. В Мянтсяля такой подход позволил избежать выбросов примерно 4 тыс. т CO2-эквивалента, связанных с производством тепла, в 2025 году и снизить затраты на отопление для подключённых домохозяйств примерно на 10 %.

Nebius сообщила, что создаёт одну из крупнейших в мире сетей специализированных вычислительных мощностей для ИИ и планирует к концу 2026 года обеспечить более 3 ГВт контрактной мощности. В рамках реализации этих планов компания недавно получила разрешение на строительство своей первой гигаваттной ИИ-фабрики в Индепенденсе (Independence, штат Миссури). В регионе EMEA компания законтрактовала более 750 МВт на своих собственных площадках и в других ЦОД. В ЦОД в Мянтсяля размещена платформа NVIDIA GB300 NVL72, позже в этом году Nebius предложит и Vera Rubin NVL72.

Постоянный URL: http://servernews.ru/1139189
31.03.2026 [14:48], Руслан Авдеев

Разработчик космических ЦОД Starcloud привлёк $170 млн, став «единорогом» всего за полтора года

Starcloud, занимающаяся созданием космических ЦОД, привлекла $170 млн в рамках раунда финансирования Series A при оценке капитализации на уровне $1,1 млрд. Участнице бизнес-акселератора Y Combinator удалось добиться статуса «единорога» через 17 месяцев после первой презентации. Пока это самый быстрорастущий стартап в истории Y Combinator, сообщает HPC Wire. Раунд возглавили Benchmark и EQT.

Статус «единорога» обычно получают компании с капитализацией выше $1 млрд, при этом ещё не вышедшие на биржу и не принадлежащие крупным корпорациям. Общий объём привлечённого компанией капитала увеличился до $200 млн. Новые средства позволят быстро масштабировать орбитальную инфраструктуру и удовлетворить спрос на экобезопасные ИИ-мощности, говорит компания. Новые инвестиции ускорят проектирование и строительство спутников нового поколения Starcloud-3, создание специализированного производства, расширение штата и заключение новых контрактов на вывод ЦОД в космос.

Поскольку ИИ стимулирует спрос на вычислительные мощности, наземной инфраструктуры для него не всегда достаточно, тем более что на получение разрешений на строительство новых ЦОД и получение электропитания может уйти до пяти лет. Starcloud предложила обойти эти ограничения, построив ЦОД на низкой околоземной орбите с доступом к практически неограниченной солнечной энергии.

 Источник изображения: Starcloud

Источник изображения: Starcloud

Starcloud запустила первый спутник Starcloud-1 с NVIDIA H100 на борту в ноябре 2025 года — он приблизительно в 100 раз производительнее всех предыдущих вычислителей на орбите. Компания первой дообучила ИИ-модель в космосе и успешно запустила инференс LLM Gemini. Имея всего $3 млн предварительного финансирования, Starcloud спроектировала, построила и запустила первый спутник за рекордный срок — всего 21 мес.

В конце 2026 года ожидается запуск спутника Starcloud-2. Его оснастят самым крупным коммерческим радиатором из когда-либо отправленных в космос, а сам спутник получит в 100 раз больше энергии в сравнении со Starcloud-1. Starcloud-2 станет первым спутником компании, выполняющим коммерческие периферийные и облачные вычисления. Первым клиентом стала Crusoe, также заключены партнёрства с AWS, Google Cloud и NVIDIA.

Раунд финансирования прошёл в два этапа. Первый и основной возглавила Benchmark (при участии EQT), дополнительный второй этап совместно возглавили оба инвестора. EQT представляет собой второй по величине фонд прямых инвестиций в мире, управляющий активами стоимостью более $100 млрд. Компания владеет более 70 ЦОД. Benchmark — один из наиболее успешных в мире фондов венчурных инвестиций.

В новом раунде финансирования спрос значительно превысил предложение. В нём также приняли участие крупнейший в мире инфраструктурный фонд Macquarie Capital, фондв NFX, Nebular, Y Combinator, Adjacent, 776 Ventures, Fuse Ventures, Manhattan West, Monolith Power Systems и частные инвесторы. Помимо прочих, в космосе желают разместить огромное количество микро-ЦОД компании SpaceX и Blue Origin.

Постоянный URL: http://servernews.ru/1139181
31.03.2026 [13:34], Руслан Авдеев

Mitsui и Hitachi готовятся размещать дата-центры на старых судах

Японские промышленные гиганты Mitsui и Hitachi предложили размещать плавучие дата-центры на подержанных судах. Компании намерены оценить целесообразность реализации такого подхода и его привлекательность до принятия окончательного решения о его развитии, сообщает Datacenter Dynamics.

Ставка делается на то, что такие ЦОД можно возводить в короткие сроки, их проще охлаждать с использованием морской и речной воды, а затрат на покупку земли и вовсе не будет. Согласно утверждениям Mitsui и Hitachi, строительство дата-центров на баржах даст возможность обойти ряд требований, предъявляемых к дата-центрам на суше. Ранее Mitsui прорабатывала похожий проект с турецкой Kinetics (Karpowership), выступающей оператором кораблей-электростанций

Если проект Floating Data Center одобрят, работы начнутся уже в 2027 году. Решение будет ориентировано на Японию, Малайзию и США. За морские аспекты реализации проекта будет отвечать «дочка» Mitsui — судоходная компания Mitsui OSK Lines, а Hitachi будет отвечать за собственно ЦОД. Потенциальные партнёры не уточнили, будет ли поставлять подержанные суда сама Mitsui или сторонние компании.

 Источник изображения: Mitsui

Источник изображения: Mitsui

Впрочем, Mitsui далеко не первая, кто рассматривает размещение дата-центров на судах. В 2008 году Google направила в патентное ведомство заявку, предлагающую создавать ЦОД на судах, использующих энергию морских волн для генерации электричества и морскую воду для охлаждения оборудования. Впрочем, Google пока не имеет на воде ни одного из подобных объектов.

Основанная в 2014 году американская Nautilus Data Technologies построила дата-центр мощностью 6,5 МВт и площадью 1,858 м2 на барже в Стоктоне (Stockton, Калифорния). Впрочем, в ноябре 2024 года флагманский проект выставили на продажу за $45 млн, а сама компания сменила профиль, занявшись системами охлаждения. Главным преимуществом проекта Mitsui и Hitachi являются размеры ЦОД. По данным Mitsui, предполагается использование судна-автовоза с доступной площадью 54 тыс. м2, это почти втрое больше баржи Nautilus.

Также плавучий ЦОД, в этом случае в Сингапуре, планирует построить компания Keppel. Согласно её отчёту за 2025 год, объект представляет собой четырёхэтажный модуль мощностью 19,2 МВт с охлаждением морской водой, а также береговую инфраструктуру. Всего 9870 м2 земли и 7580 м2 морского пространства.

Небольшой контейнерный ЦОД разместила Denv-R на плавучей платформе в Нанте (Nantes) и др. На фоне роста спроса на ЦОД реализуются разнообразные, в том числе необычные проекты. Китайская HiCloud предоставляет мощности ЦОД, размещённых как на морском дне, так и под самой поверхностью воды.

Постоянный URL: http://servernews.ru/1139165
31.03.2026 [13:09], Руслан Авдеев

Норвежская майнинговая ферма Bitdeer превратится в 180-МВт ИИ ЦОД для NVIDIA Vera Rubin

Bitdeer Technologies Group заключила соглашение с Data Center Installations AS (DCI), предусматривающее трансформацию своего ЦОД Tydal Data Center (TDC) в Норвегии в крупный ИИ-объект. Установленная мощность должна составить в итоге 180 МВт, работы планируется завершить к декабрю 2026 года, сообщает Converge Digest. В основном площадку намерены использовать для новейшей ИИ-платформы NVIDIA Vera Rubin.

Сингапурская Bitdeer Technologies Group специализируется на майнинговой вычислительной инфраструктуре. Основанная в 2020 году компания строит и эксплуатирует вертикально интегрированные платформы ЦОД. В последние годы Bitdeer всё чаще позиционирует себя как поставщика цифровой инфраструктуры широкого профиля. Среди её последних инициатив — преобразование в ИИ-объекты крупных майнинговых предприятий и организация поддержки новейших ИИ-платформ.

Расположенный в норвежском Трёнделаге (Trøndelag) ЦОД Tydal получит эталонную архитектуру NVIDIA для обеспечения рабочих ИИ-нагрузок. Bitdeer называет объект краеугольным камнем своей стратегии по расширению бизнеса и переходу от майнинга биткоинов к ИИ-проектам. Впрочем, истинна причина может быть прозаичней — Норвегия с недавних пор охладела к майнинговым дата-центрам.

 Источник изображения: Benjamin Davies/unsplash.com

Источник изображения: Benjamin Davies/unsplash.com

Партнёром проекта выступит дочерняя структура Sparc Group AB — компания DCI, которая имеет опыт развёртывания крупных ЦОД в Северной Европе. Она обеспечит проектирование, монтаж и ввод в эксплуатацию обновлённого объекта. После завершения строительства объект должен стать крупнейшим действующим ИИ ЦОД в Норвегии и одним из крупнейших в Европе.

Но в целом изменение бизнес-модели Bitdeer в пользу инфраструктурных ИИ-проектов отражает общую тенденцию рынка криптомайнинга — операторы соответствующих ЦОД меняют профиль своих энергоёмких площадок для выполнения задач, связанных с искусственным интеллектом. Соответствующие изменения зарегистрированы в Северной Америке и Европе — дело в высоком спросе на кластеры ИИ-ускорителей и близости отдельных регионов к недорогим, в том числе возобновляемым источникам энергии.

В последнее время переход компаний вроде CoreWeave и др. с майнинга на ИИ вот-вот приобретёт характер эпидемии. Так, в феврале появилась информация о том, что Bitfarms переоборудует свои ЦОД под NVIDIA Vera Rubin, а падение курса биткоина ведёт к разорению компаний вроде NFN8 при малейших неприятностях — стартап подал заявление о банкротстве после пожара, не сумев справиться с последствиями.

Постоянный URL: http://servernews.ru/1139169
31.03.2026 [11:53], Сергей Карасёв

Foremay представила космический SSD серии InterStellar с защитой от радиации

Компания Foremay анонсировала SSD семейства InterStellar, которые рассчитаны на работу в составе коммерческих и военных спутников, располагающихся на низких, средних, геостационарных и высоких орбитах. Особенностью накопителей является защита от космической радиации (космического излучения).

Отмечается, что стандартные SSD индустриального класса часто выходят из строя в течение нескольких месяцев после вывода на орбиту. Устройства InterStellar обладают повышенной надёжностью при работе в условиях космического пространства благодаря использованию архитектуры экранирования Graded-Z на основе проприетарных и запатентованных технологий Foremay.

Применённое решение, как утверждается, эффективно замедляет протоны и захватывает вторичные нейтроны, снижая исходную дозу облучения в 10 тыс. килорад (100 тыс. Гр) до приемлемого порога в 500 килорад. Устройства способны противостоять мощным выбросам высокоэнергетических заряженных частиц из атмосферы Солнца, а также галактическим космическим лучам в открытом и дальнем космосе.

 Источник изображения: Foremay

Источник изображения: Foremay

SSD серии InterStellar получили фирменную технологию IABM (Interstellar AI-Driven Block Management) на основе ИИ. Специальное ПО с алгоритмами машинного обучения формирует карту «радиационного риска» в реальном времени. Отслеживая частоту ошибок и показания от датчиков, система заблаговременно перемещает критически важные данные из «горячих зон», наиболее подверженных воздействию высокоэнергетических тяжёлых частиц, в более безопасные области.

Накопители доступны в различных вариантах исполнения — SFF SATA, U.2 (NVMe), 1.8″ SATA, BGA NAND DOC (Disk-on-Chip), M.2 2230, M.2 2242, M.2 2260, M.2 2280 (NVMe), 3U VPX. Диапазон рабочих температур простирается от -55 до +125 °C. Упомянута поддержка шифрования данных.

Постоянный URL: http://servernews.ru/1139161
30.03.2026 [14:21], Руслан Авдеев

Французская Mistral AI привлекла в долг $830 млн для оснащения ИИ ЦОД и конкуренции с американскими техногигантами

Ведущий европейский ИИ-провайдер Mistral AI привлёк $830 млн долгового финансирования для покупки 13,8 тыс. ускорителей NVIDIA для крупного дата-центра в окрестностях Парижа. Европа стремится масштабировать ИИ-инфраструктуру для конкуренции с США и Китаем, сообщает Reuters.

Сделка является первым привлечением долгового финансирования компанией Mistral и указывает на растущую уверенность инвесторов в европейских ИИ-компаниях, желающих бросить вызов доминированию на рынке искусственного интеллекта американским техногигантам вроде Microsoft, Google и Amazon в сфере облачных и ИИ-сервисов.

Средства на финансирование Mistral выделил консорциум из семи банков, включая BNP Paribas, Crédit Agricole CIB, HSBC и MUFG. Дата-центр в коммуне Брюйер-ле-Шатель (Bruyeres-le-Chatel) должен заработать во II квартале 2026 года.

 Источник изображения: Pedro Lastra/unspalsh.com

Источник изображения: Pedro Lastra/unspalsh.com

Mistral выбрала площадку под свой первый дата-центр в феврале 2025 года. В прошлом месяце компания представила планы строительства второго объекта, на этот раз в Швеции, и объявила, что к концу 2027 года ей потребуется зарезервировать 200 МВт в Европе. По словам представителя компании, масштабирование инфраструктуры в Европе имеет критическое значение для расширения возможностей её клиентов. В частности, это необходимо для обеспечения ИИ-инноваций «в сердце Европы».

Парижский стартап, обеспечивающий ИИ-модели французским вооружённым силам, позиционировал себя как европейская альтернатива американским гиперскейлерам, предложив как ИИ-модели, так и инфраструктурные сервисы для государственных структур и корпоративных клиентов, пытающихся добиться большего технологического суверенитета.

В сентябре 2025 года компания уже привлекла на развитие €1,7 млрд при участии ASML в ходе раунда финансирования Series C. Летом того же года сообщалось, что она ведёт переговоры с базирующимся в Абу-Даби (ОАЭ) фондом MGX и другими структурами о привлечении до $1 млрд акционерного капитала для обеспечения конкуренции с OpenAI.

Постоянный URL: http://servernews.ru/1139119
30.03.2026 [12:01], Сергей Карасёв

Производительность ирландского суперкомпьютера CASPIr составит 15 Пфлопс

Европейское совместное предприятие по развитию высокопроизводительных вычислений (EuroHPC JU) объявило тендер на создание в Ирландии суперкомпьютера CASPIr (Computation Analysis and Simulation Platform for Ireland). Система будет обслуживать широкий круг пользователей в научном сообществе, промышленной сфере и государственном секторе в Европе.

CASPIr — это вычислительный комплекс среднего уровня. Его технические характеристики пока не раскрываются, но известно, что производительность составит около 15 Пфлопс. Использовать суперкомпьютер планируется для решения задач в области ИИ, включая обучение моделей и инференс.

Система CASPIr будет находиться в совместной собственности EuroHPC JU и Университета Голуэя (University of Galway). За управление будет отвечать Ирландский центр высокопроизводительных вычислений (ICHEC). Инвестиции в проект оцениваются в €25 млн, из которых 35% предоставит EuroHPC JU, а оставшиеся 65% — власти Ирландии через свои национальные фонды. Подрядчику предстоит осуществить поставку и монтаж вычислительного комплекса с последующим техническим обслуживанием.

 Источник изображения: EuroHPC JU

Источник изображения: EuroHPC JU

Отмечается, что EuroHPC JU продолжает развивать инфраструктуру высокопроизводительных вычислений в Европе. На сегодняшний день приобретены в общей сложности 12 суперкомпьютеров, включая JUPITER — первую европейскую машину экзафлопсного класса. Кроме того, EuroHPC JU курирует развёртывание так называемых ИИ-фабрик — площадок, ориентированных на ресурсоёмкие задачи в области ИИ: такие объекты создаются в Финляндии, Германии, Греции, Италии, Люксембурге, Испании, Швеции и пр. Ещё одним направление работ является формирование инфраструктуры квантовых вычислений.

Постоянный URL: http://servernews.ru/1139115