Материалы по тегу: hardware

07.03.2026 [22:57], Владимир Мироненко

Oracle и OpenAI передумали расширять флагманский ИИ ЦОД Stargate в Техасе, чем может воспользоваться Meta✴

Oracle и OpenAI отказались от планов расширения флагманского ИИ ЦОД в Абилине (Abilene, Техасе), одного из первый объектов проекта Stargate, сообщил Bloomberg. Строительство этого ЦОД на территории Clean Campus компании Lancium осуществляет разработчик проекта Crusoe Energy. Объект находится в ведении Oracle в интересах OpenAI.

В сентябре прошлого года были введены в эксплуатацию два здания ЦОД, а в этом году планируется запуск ещё шести, в результате чего его мощность составит около 1,2 ГВт. Далее Oracle и OpenAI планировали увеличить мощность до 2 ГВт. Переговоры об этом между Oracle, Crusoe и OpenAI велись с середины 2025 года, но планы изменились. По словам источников, переговоры затянулись из-за проблем с финансированием, а также в связи с часто меняющимися прогнозами спроса OpenAI и изменением взглядов на Stargate, что в итоге привело к их срыву.

Также на отношения между Oracle и Crusoe повлияли проблемы с надёжностью функционирования объекта. По словам источников, ранее в этом году ЦОД не функционировали в течение нескольких дней из-за зимней непогоды, повлиявшей на работу части оборудования жидкостного охлаждения. Вместе с тем, компании заверили что их партнёрство по-прежнему прочное, и что арендованная Oracle площадка в Абилине быстро развивается.

«Crusoe и Oracle работают в тесном сотрудничестве, чтобы создать одну из крупнейших в мире ИИ-фабрик в Абилине, — говорится в заявлении Crusoe. — Наше сотрудничество позволяет создавать масштабную инфраструктуру быстрее, чем кто-либо другой в отрасли». Также в силе осталась договорённость OpenAI с Oracle, согласившейся поставить для неё 4,5 ГВт мощностей ЦОД. Как сообщает Bloomberg, эта сделка по-прежнему находится в процессе, и компании объявили о ряде проектов в других локациях, например, об объекте недалеко от Детройта, принадлежащем Related Digital.

 Источник изображения: Crusoe Energy

Источник изображения: Crusoe Energy

Что касается отказа от расширения проекта в Абилине, то после публикации статьи Bloomberg руководитель отдела инфраструктуры OpenAI Сачин Катти (Sachin Katti) сообщил в соцсетях следующее: «Наша флагманская площадка Stargate — один из крупнейших кампусов ИИ ЦОД в Соединённых Штатах. Мы рассматривали возможность дальнейшего расширения, но в конечном итоге решили разместить дополнительные мощности в других местах». «Сегодня у нас в разработке более полудюжины площадок в нескольких штатах, включая площадку, которую мы строим совместно с Oracle в Висконсине, где на этой неделе были установлены первые стальные балки», — добавил он, о чём сообщил Data Center Dynamics.

По данным The Information, полноценное электроснабжение на площадке в Абилине будет доступно только через год, к тому времени OpenAI надеется использовать ускорители NVIDIA Vera Rubin вместо ускорителей Blackwell, которые будут установлены в Абилине, поэтому компания предпочла изменить планы. Кроме того, недалеко от первого техасского кампуса Stargate строится и второй — 1,4-ГВт ИИ ЦОД в округе Шакелфорд (Shackelford, Техас) возводится под началом Vantage Data Centers.

 Источник изображения: Crusoe Energy

Источник изображения: Crusoe Energy

Как рассказали источники, когда Crusoe начала подыскивать арендаторов для своего ЦОД в Абилине, к процессу подключилась NVIDIA. Чтобы избежать появления на этой площадке продукции конкурирующего разработчика чипов AMD, компания, как сообщается, внесла Crusoe депозит в размере $150 млн для обеспечения аренды площадки. Сообщается, что провал переговоров между Oracle и OpenAI создал возможность для Meta по аренде запланированной для расширения площадки в Абилине, и NVIDIA ведёт с ней переговоры по этому поводу. Сделка между Crusoe и Meta пока не подписана.

Добавим, что только в этом году Meta планирует направить на капитальные затраты до $135 млрд. В свою очередь, OpenAI намерена инвестировать в вычислительные мощности около $600 млрд к 2030 году, что гораздо меньше ранее заявленных $1,4 трлн к 2033 году. При этом до $300 млрд из этой суммы планируется выделить Oracle, которая сама испытывает трудности с финансированием строительства своих ЦОД, накапливает долги и планирует уволить тысячи сотрудников для снижения расходов.

Постоянный URL: http://servernews.ru/1137954
07.03.2026 [22:20], Сергей Карасёв

640 Кбайт хватит для ИИ: микроконтроллеры STM32U3B5/C5 со сверхнизким энергопотреблением могут работать даже без батарей

STMicroelectronics анонсировала микроконтроллеры STM32U3B5 и STM32U3C5, ориентированные на автономные устройства с функциями ИИ и машинного обучения. Изделия отличаются сверхнизким энергопотреблением и возможностью перехода в режим глубокого сна при отсутствии данных. Таким образом, допускается работа без батарей — исключительно за счёт преобразования энергии окружающей среды (свет, тепло, вибрации, радиоволны) в электрическую.

Микроконтроллеры используют 32-бит ядро Arm Cortex-M33 с частотой 96 МГц. Заявленная производительность достигает 1,5 DMIPS/МГц (Dhrystone 2.1) и 395,4 CoreMark (4,12 CoreMark/МГц). В оснащение входит так HSP (Hardware Signal Processor) — специальный блок, предназначенный для ускорения определенных вычислений, связанных с ИИ. Есть 640 Кбайт SRAM и 2 Мбайт флеш-памяти. Предусмотрены интерфейсы SDMMC и OCTOSPI с поддержкой внешней памяти SRAM, PSRAM, NOR, NAND и FRAM.

 Источник изображения: STMicroelectronics

Источник изображения: STMicroelectronics

Реализована поддержка 114 × GPIO, USB 2.0, SAI (Serial Audio Interface), 4 × I2C FM+, SMBus/PMBus, 3 × I3C (SDR), 3 × USART и 2 × UART (SPI, ISO 7816, LIN, IrDA, Modem), 1 × LPUART, 4 × SPI, 2 × CAN FD, GPDMA (12 каналов), 2 × 12-bit ADC, 12-bit DAC и др. Возможны различные варианты исполнения, в том числе UFQFPN48 (7 × 7 мм), LQFP48  (7 × 7 мм), LQFP64 (10 × 10 мм), WLCSP72  (3,67 × 3,58 мм), WLCSP99 (3,67 × 3,58 мм), LQFP100 (14 × 14 мм), WLCSP126 (3,67 × 3,58 мм), UFBGA132 (7 × 7 мм) и LQFP144 (20 × 20 мм). Диапазон рабочих температур простирается от -40 до +105 °C.

В микроконтроллеры встроены развитые средства безопасности, включая Arm TrustZone, генератор случайных чисел TRNG, защиту от несанкционированного доступа и пр. Единственное различие между решениями STM32U3B5 и STM32U3C5 заключается в том, что второе включает криптографическое ядро для ускорения операций шифрования и дешифрования. Цена варьируется от $2,9298 до $4,6829 за штуку в зависимости от конфигурации при заказах партий от 10 тыс. единиц.

Постоянный URL: http://servernews.ru/1137935
06.03.2026 [17:26], Владимир Мироненко

Акции Marvell подскочили после отчёта о росте продаж чипов для ИИ ЦОД

Американская компания Marvell Technology, специализирующаяся на производстве процессоров, микроконтроллеров и телекоммуникационных решений, сообщила результаты IV квартала и всего 2026 финансового года, завершившегося 31 января 2026 года. Результаты превысили ожидания аналитиков. Также Marvell прогнозирует доходы в 2028 финансовом году выше оценок Уолл-стрит, что свидетельствует о высоком спросе на специализированные микросхемы и решения для интерконнекта, используемые в ИИ ЦОД, в результате чего ее акции подскочили на 15 % на дополнительных торгах, сообщило агентство Reuters.

Выручка Marvell за IV квартал составила $2,22 млрд, что на 22 % больше год к году и $19,0 млн выше среднего значения прогноза компании, представленного 2 декабря 2025 года. Также это превысило консенсус-прогноз аналитиков, опрошенных FactSet, в размере $2,21 млрд (по данным Investors.com). Скорректированная прибыль на разводнённую акцию (non-GAAP) составила $0,80 при среднем прогнозе аналитиков в $0,79. Чистая прибыль (GAAP) составила $396,1 млн, или $0,46 на разводнённую акцию против $1,90 млрд и $2,20 на разводнённую акцию годом ранее.

 Источник изображений: Marvell Technology

Источник изображений: Marvell Technology

Выручка сегмента решений для ЦОД, на который пришлось 74 % от общего дохода компании, составила $1,65 млрд, увеличившись год к году на 21 %. Сегмент связи и прочих услуг принёс $567,4 млн, что на 26 % больше, чем годом ранее.

Выручка за 2026 финансовый год составила $8,195 млрд, что на 42 % больше, чем годом ранее. Чистая прибыль (GAAP) равняется $2,67 млрд или $3,07 на разводнённую акцию, тогда как годом ранее у компании были убытки в размере $885 млн или $1,02 на разводнённую акцию. Скорректированная чистая прибыль (Non-GAAP) за 2026 финансовый год равна $2,47 млрд или $2,84 на разводненную акцию.

Компания отметила, что выручка от коммутаторов превысила $300 млн в 2026 финансовом году и ожидается, что она превысит $600 млн в 2027 финансовом году. За прошедший год выручка от кастомных микросхем удвоилась и ожидается сильный рост в 2027 финансовом году.

В I квартале 2027 года Marvell прогнозирует скорректированную прибыль в размере $0,79 на разводнённую акцию +/- $0,05 при выручке в $2,40 млрд ±5 %. Аналитики Уолл-стрит ожидают прибыль в размере $0,74 на разводнённую акцию при выручке в $2,28 млрд. За аналогичный период прошлого года Marvell заработала $0,62 на акцию прибыли при выручке в $1,9 млрд. Компания заявила, что квартальный прогноз включает ожидаемые результаты Celestial AI и XConn Technologies, приобретённых в конце прошлого и начале этого года.

Marvell ожидает, что существенный вклад в выручку от Celestial AI начнётся во II половине 2028 финансового года, достигнув $500 млн в IV квартале 2028 финансового года и удвоившись до $1 млрд к IV кварталу 2029 финансового года. Также Marvell ожидает, что первоначальный вклад в выручку от XConn начнется в III квартале 2027 финансового года, достигнув $50 млн в годовом исчислении в IV квартале 2027 финансового года. В 2028 финансовом году Marvell ожидает, что XConn принесет $100 млн выручки.

«Мы ожидаем, что рост выручки в годовом исчислении будет ускоряться каждый квартал в 2027 финансовом году благодаря устойчивому росту нашего бизнеса в сфере ЦОД, при этом объёмы заказов продолжают расти рекордными темпами. В дополнение к нашим сильным результатам и перспективам, количество заключенных нами контрактов на проектирование в 2026 финансовом году достигло исторического максимума, что, как мы ожидаем, будет и дальше способствовать нашему будущему росту», — заявил Мэтт Мерфи (Matt Murphy), председатель совета директоров и генеральный директор Marvell.

Ожидается, что крупные технологические компании, включая Alphabet, Microsoft, Amazon и Meta, потратят в этом году не менее $630 млрд на развитие ИИ-инфраструктуры, что повысит спрос на чипы, используемые в серверах и сетевом оборудовании таких компаний, как Marvell. «Мы изучаем планы капитальных затрат крупных компаний на этот год и можем оценить темпы нашего привлечения клиентов, и мы очень уверены в достижении этих показателей», — заявил в интервью Reuters президент и главный операционный директор Крис Купманс (Chris Koopmans).

Marvell также ожидает, что выручка вырастет почти на 40 % и приблизится к $15 млрд в 2028 финансовом году, что выше средней оценки аналитиков, по данным LSEG, в $12,92 млрд. Компания также повысила свой прогноз выручки на $2027 финансовый год, ожидая роста более чем на 30 % в годовом исчислении, до $11 млрд, по сравнению с предыдущим прогнозом в $10 млрд. Broadcom, приямой конкурент Marvell, рассчитывает изрядно заработать на кастомных ИИ-ускорителях.

Постоянный URL: http://servernews.ru/1137904
06.03.2026 [17:01], Руслан Авдеев

Инференс-нагрузки Perplexity прописались в облаке CoreWeave

Компания CoreWeave объявила о заключении долгосрочного соглашения с Perplexity. Стратегическое партнёрство призвано обеспечить выполнение рабочих ИИ-нагрузок последней, также предусмотрено пилотное внедрение в обеих организациях новых сервисов. Утверждается, что CoreWeave позволяет клиентам переходить от разработки непосредственно к внедрению без перепроектирования систем и инструментов.

Соглашение предусматривает, что платформа CoreWeave будет использоваться Perplexity для инференса нового поколения. Выделенные кластеры на основе суперускорителей NVIDIA GB200 NVL72 гарантируют соответствие инфраструктуры облачного провайдера изменению задач Perplexity и высоким требованиям экосистемы на основе Sonar и Search API. В своё время Perplexity начинала с выполнения задач инференса с помощью CoreWeave Kubernetes Service и применения платформы W&B Models для (до-)обучения моделей и управления ими на всех этапах, от экспериментального до ввода в эксплуатацию.

Дополнительно CoreWeave повсеместно внедрит в своей организации инструменты Perplexity Enterprise Max, что позволит её специалистам искать информацию в интернете и внутренней базе данных, проводить углублённые исследования, анализировать данные и визуализировать их. Партнёрство является свидетельством «мультиоблачной» стратегии Perplexity. Чуть более месяца назад Microsoft заключила крупную облачную сделку с Perplexity, но ключевым провайдером ИИ-поисковика останется AWS.

 Источник изображения: CoreWeave/Perplexity

Источник изображения: CoreWeave/Perplexity

Это лишь последняя из удачных сделок CoreWeave, сдающей в аренду мощности даже таким компаниям, как Microsoft, Meta и OpenAI. В 2025 году компания получила средства от NVIDIA, которая арендовала свои же ускорители у CoreWeave. В сентябре 2025 года компания обязалась выкупить у неооблачного оператора все нераспроданные мощности. CoreWeave на волне роста спроса на облачные услуги удвоит в 2026 году капитальные затраты, хотя некоторые инвесторы сомневаются в целесообразности таких мер.

Постоянный URL: http://servernews.ru/1137879
06.03.2026 [16:22], Руслан Авдеев

LG разработала модульные ИИ ЦОД AI Box, из которых соберёт 60-МВт дата-центр в Пусане

Южнокорейская LG представила контейнерные дата-центры — занимающееся ИИ-проектами и облачными технологиями подразделение LG CNS создало модуль AI Box, вмещающий до 576 ИИ-ускорителей IT-мощностью до 1,2 МВт, сообщает Datacenter Dynamics. Каждый модуль включают системы энергоснабжения и охлаждения. По словам LG, полностью готовые к развёртыванию модули можно подготовить за шесть месяцев.

AI Box состоит из «электрощитовой», отвечающей за силовую инфраструктуру, включающей ИБП, трансформаторы и распределительные щиты, а также машинный зал с серверами, ИИ-ускорителями и охлаждающим оборудованием. Извне подключается электрогенератор, блок аккумуляторов и внешний контур охлаждения. Модульный дизайн позволяет легко масштабировать ЦОД до десятков контейнеров, формируя ИИ-объект гиперскейл-уровня.

Первый AI Box компания построит на пусанской площадке Busan Global Cloud Data Center. В планах создание крупного кампуса, вмещающего около 50 контейнеров на территории более 27 тыс. м2 для удовлетворения местного спроса на ИИ-инфраструктуру. Компания объявила, что с выход AI Box знаменует переход к новой парадигме в связанном с ЦОД бизнесе. После успеха на локальном рынке LG намерена расширить глобальное присутствие, в частности, в Юго-Восточной Азии и Северной Америке.

 Источник изображения: LG CNS

Источник изображения: LG CNS

Подразделения одной только LG, связанные с телекоммуникациями и технологиями, управляют в Южной Корее многочисленными дата-центрами. Основанная в 1987 году LG CNS является провайдером IT-сервисов. Она ещё в 1992 году ввела в эксплуатацию первое в Южной Корее специализированное здание ЦОД — Incheon Data Center. Теперь она управляет дата-центрами в Сеуле и Пусане, а также четырьмя площадками за рубежом. Телеком-подразделение LG Uplus управляет несколькими колокейшн-ЦОД, включая три объекта в Сеуле и один в Аняне (Anyang).

Конечно, модульные ЦОД активно внедряют и в других странах. Так, например, в феврале 2026 года французский стартап Policliud пообещал развернуть тысячу суверенных модульных микро-ЦОД за пять лет, а в начале марта появилась новость о более экзотическом решении — Aikido объединила морские ветряки с модульными ИИ ЦОД.

Постоянный URL: http://servernews.ru/1137897
06.03.2026 [16:01], Сергей Карасёв

10-узловой сервер Gigabyte B683-Z80-LAS1 на платформе AMD EPYC Turin оснащён СЖО

Компания Gigabyte Technology анонсировала сервер B683-Z80-LAS1 высокой плотности, предназначенный для облачного хостинга, вычислительных ИИ-нагрузок и других ресурсоёмких приложений. Устройство выполнено в форм-факторе 6U с десятью узлами.

Каждый узел рассчитан на установку двух процессоров AMD EPYC 9005 Turin или EPYC 9004 Genoa в исполнении Socket SP5 (LGA 6096), показатель TDP которых может достигать 500 Вт. Реализована 12-канальная подсистема оперативной памяти с 24 слотами для модулей DDR5-4800/6400.

Конфигурация узлов включает контроллер ASPEED AST2600 с интерфейсом Mini-DP, сетевой порт управления 1GbE (RJ45), три коннектора для низкопрофильных карт расширения PCIe 5.0 x16, два порта USB 3.2 Gen1 Type-A (5 Гбит/с) и два посадочных места для накопителей типоразмера E3.S (NVMe).

Сервер оснащён системой прямого жидкостного охлаждения, которая охватывает не только CPU, но и все другие ключевые компоненты, в том числе модули ОЗУ, накопители, а также карты расширения. Утверждается, что применённое решение позволяет отводить до 90 % генерируемого тепла, что обеспечивает высокую эффективность даже при больших нагрузках. Кроме того, задействованы четыре системных вентилятора диаметром 80 мм. Диапазон рабочих температур — от +10 до +35 °C.

 Источник изображений: Gigabyte Technology

Источник изображений: Gigabyte Technology

Питание обеспечивают 12 блоков мощностью 3200 Вт с сертификатом 80 PLUS Titanium. Собственно серверное шассе оборудовано двумя дополнительными сетевыми портами управления. Габариты устройства составляют 447 × 262,3 × 900 мм, масса — около 38 кг.

Постоянный URL: http://servernews.ru/1137898
06.03.2026 [14:36], Руслан Авдеев

Шведская Alfa Laval представила экологичную СЖО для ЦОД FreeWaterLoop

Шведская промышленная группа Alfa Laval выходит на рынок оборудования для дата-центров. Она анонсировала выпуск новую внешнюю систему жидкостного охлаждения FreeWaterLoop. По словам компании, в новой СЖО используется комбинация передовых инженерных решений с сфере насосостроения, высокопроизводительных технологий теплообмена и фильтрации — они объединены в единый, полностью интегрированный модуль.

Alfa Laval сообщила, что система использует стабильные температуры и теплопроводность природных водоёмов и минимизирует водопотребление, возвращая чистую воду туда, откуда она была забрана. Кроме того, FreeWaterLoop позволяет уменьшить размер охладительных установок дата-центров, занимая меньше пространства, чем классические системы воздушного охлаждения оборудования.

По словам Alfa Laval, наблюдаются беспрецедентные изменения на рынке ЦОД, поскольку развитие ИИ ведёт к росту тепловых нагрузок, заказчику тем временем требуют всё более устойчивую инфраструктуру. Alfa Laval использует свои сильные стороны для создания нового поколения эффективных и надёжных решений в сфере терморегулирования.

 Источник изображения: Alfa Laval

Источник изображения: Alfa Laval

Основанная в 1883 году шведская компания Alfa Laval занимается как разработкой, так и производством. Она поставляет бойлеры, вентили, насосы, теплообменники и прочие компоненты для судостроения, энергетики и пищевой промышленности. Компания заявила, что в случае с FreeWaterLoop речь идёт об одном из самых быстрых циклов разработки для решений такого масштаба. Это отражает общие амбиции Alfa Laval, свидетельствует о быстром процессе принятия решений в компании и активной поддержке ЦОД с помощью масштабируемых инноваций.

Ещё в 2024 году сообщалось, что через несколько лет СЖО займут треть рынка систем охлаждения для ЦОД. Впрочем, новости февраля 2026 года свидетельствуют о том, что с повсеместным внедрением придётся повозиться. AWS резко сократила развёртывание СЖО для Trainium3, решив обойтись преимущественно воздушным охлаждением, хотя ранее сама с нуля разработала собственную систему жидкостного охлаждения в кратчайшие сроки.

Постоянный URL: http://servernews.ru/1137891
06.03.2026 [11:22], Сергей Карасёв

QNAP представила сетевое хранилище TS-h1077AFU типа All-Flash на базе AMD Ryzen PRO 7000

Компания QNAP Systems анонсировала NAS-систему TS-h1077AFU типа All-Flash, рассчитанную на монтаж в стойку. Устройство выполнено в форм-факторе 1U с применением аппаратной платформы AMD, а в качестве ОС используется QuTS hero h5.2.8 с файловой системой ZFS.

Новинка несёт на борту процессор Ryzen 7 7000 с восемью ядрами (16 потоков; до 5,3 ГГц) и ускорителем AMD Radeon Graphics. Объём оперативной памяти DDR5 с поддержкой ECC в стандартной конфигурации составляет 32 Гбайт, в максимальной — 192 Гбайт (4 × 48 Гбайт UDIMM). В оснащение входят 5 Гбайт встроенной флеш-памяти для ОС.

Во фронтальной части расположены 10 отсеков для SSD типоразмера SFF с интерфейсом SATA-3; допускается горячая замена. Суммарная внутренняя вместимость может достигать 153 Тбайт при использовании SSD ёмкостью 15,36 Тбайт. Возможно подсоединение до четырёх модулей расширения TL-R2400PES-RP на 24 накопителя каждый, что позволяет формировать хранилища петабайтного класса.

 Источник изображения: QNAP Systems

Источник изображения: QNAP Systems

Устройство располагает двумя сетевыми портами 2.5GbE и двумя портами 10GbE. Есть два слота PCIe 4.0 х8, в которые могут быть установлены дополнительные сетевые адаптеры (например, 25GbE) или карты с поддержкой M.2 SSD. Есть два порта USB 3.2 Gen2 Type-A (10 Гбит/с). Питание обеспечивают два блока мощностью 350 Вт. Габариты составляют 44 × 430 × 582 мм, масса — 9,43 кг. Диапазон рабочих температур — от 0 до +40 °C. На хранилище предоставляется пятилетняя гарантия. Производитель обещает рыночную доступность модели TS-h1077AFU как минимум до 2030 года.

Постоянный URL: http://servernews.ru/1137873
06.03.2026 [10:16], Руслан Авдеев

Атака беспилотников на ближневосточные дата-центры AWS заставит пересмотреть подход к отказоустойчивости облаков

Прогноз бывшего главы Google Эрика Шмидта (Eric Schmidt) о том, что в будущем критические важные ИИ ЦОД будут защищены военными базами, может оказаться не такими уж фантастическим. Атаки на дата-центры AWS на Ближнем Востоке наглядно показали, что до сих пор в проектах по обеспечению отказоустойчивости некоторые факторы практически игнорировались, сообщает Datacenter Knowkedge.

Хотя объекты гиперскейлеров, несмотря на периодические сбои, обычно устойчивее, чем большинство частных ЦОД, облачная инфраструктура обычно противостоит привычным техническим неполадкам — отключение оборудования, перебои в электроснабжении и потеря связности. Планы большинства корпораций, вероятно, не предусматривают защиты от скоординированных атак на физическую инфраструктуру. Если ранее выбор облачного региона был вопросом задержки, суверенитета данных или соответствия местным нормативным требованиям, то теперь остро встают вопросы политической стабильности, вероятности эскалации и возможностей защиты КИИ, в том числе военным путём.

Облачные регионы из весьма абстрактных понятий (только у AWS есть более 900 ЦОД различного формата) перешли в категорию физических объектов в конкретных локациях с высокой стоимостью активов. Особенно привлекательны такие цели во время асимметричных конфликтов, когда удар несколькими беспилотниками может вывести из строя критически важный объект, обеспечивающий работу в регионе самых разных структур.

 Источник изображения: Yang🙋‍♂️🙏❤️ Song / Unsplash

Источник изображения: Yang🙋‍♂️🙏❤️ Song / Unsplash

Удары по AWS показали, что в геополитических конфликтах концентрация инфраструктуры в одном месте может стать скорее минусом, чем плюсом. В дооблачную эпоху существовали тысячи разнообразных ЦОД с той или иной степенью защиты, но большинство из них не были критически важными для жизни и работы великого множества людей сразу. В эпоху гиперскейлеров нормой стали огромные кампусы, поэтому чрезвычайно надёжные в обычное время дата-центры являются привлекательной целью, поражение которой может принести серьёзный ущерб.

Хотя отказываться от облачных технологий уже поздно, возможно, придётся переосмыслить их архитектуру. По словам Datacenter Knowledge, IT-инфраструктура должна служить подспорьем бизнесу и не предназначена для апокалиптических сценариев без экономического обоснования. Другими словами, отраслевые руководители должны выявить уязвимости своих организаций, поскольку игнорирование таких угроз можно назвать «концептуальной» халатностью. IT-управленцы должны оценить, можно ли перенести рабочие нагрузки и важнейшие данные между регионами или даже на другие континенты к альтернативным облачным провайдерам. В расчёт необходимо принимать финансовые ограничения, требования к максимальной задержке, сложность эксплуатации и геополитические риски.

 Источник изображения: Kristof Morlion/unsplash.com

Источник изображения: Kristof Morlion/unsplash.com

Не исключено, что в будущем для пользователей станут привлекательнее не высокоэффективные централизованные ЦОД, а децентрализованные архитектуры с централизованным управлением. Хотя они менее эффективны, рабочие нагрузки будут рассеяны по географически рассредоточенным объектам, что помешает нанести масштабный урон в случае наступления непредвиденных обстоятельств. Пока что отрасль внимательно наблюдает за восстановлением работы AWS в пострадавших зонах доступности, чтобы скорректировать свои планы на будущее.

Не исключено, что гораздо востребованнее станут и подземные дата-центры, нередко расположенные в бывших бункерах, оставшихся с прошлых конфликтов, или шахтах и рудниках. Как минимум несколько проектов есть в США и Европе (Швеции, Германии, России и др.). Впрочем, в Израиле подземные ЦОД строят с нуля.

Постоянный URL: http://servernews.ru/1137829
06.03.2026 [08:58], Руслан Авдеев

Akamai развернёт тысячи ускорителей NVIDIA RTX Blackwell для распределённого инференса

Облачный провайдер Akamai анонсировал покупку «тысяч» ИИ-ускорителей для развития своей распределённой облачной инфраструктуры по всему миру. Развёртывание новых чипов позволит создать единую оптимизированную ИИ-платформу для быстрого и распределённого инференса в глобальной сети Akamai. По словам компании, она готовит базовую инфраструктуру для «физического» и «агентного» ИИ, где решения необходимо принимать в режиме реального времени. Ранее компания анонсировала проект Akamai Inference Cloud.

Как заявляет Akamai, пока крупные облачные бизнесы расширяют проекты обучения ИИ, компания сосредоточилась на удовлетворении потребностей эпохи инференса. Централизованные ИИ-фабрики имеют важное значение для создания моделей, но для их масштабной эксплуатации необходима децентрализованная «нервная система». Внедрение NVIDIA Blackwell в распределённая инфраструктуру, как ожидается, позволит ИИ взаимодействовать с «физическим» миром на местах — с системами автономной доставки, умными энергосетями, роботами-хирургами, антифрод-системами т.п. — без географических и финансовых ограничений, характерных для классических облаков.

Интеграция ускорителей Blackwell обеспечит:

  • предсказуемый, высокопроизводительный инференс на выделенных кластерах для получения быстрых ответов;
  • оптимизацию ИИ-моделей на месте для обеспечения конфиденциальности данных в соответствии с локальными требованиями;
  • дообучение — тонкую настройку базовых ИИ-моделей с использованием собственных данных пользователей.
 Источник изображения: Akamai

Источник изображения: Akamai

Предоставляя инструментарий для выполнения задач ближе к конечным пользователям, Akamai обеспечивает высокую пропускную способность и, как утверждается, одновременно снижает задержку до 2,5 раз. Это позволит бизнесам экономить до 86 % на инференсе в сравнении с обычными облачными компаниями-гиперскейлерами. Платформа объединяет серверы на основе ускорителей NVIDIA RTX Pro 6000 Blackwell Server Edition с DPU NVIDIA BlueField-3 и распределённую облачную инфраструктуру Akamai с 4,4 тыс. точек присутствия.

Cloudflare применяет платформу с «бессерверным» инференсом в более чем 200 городах. Её Workers AI обеспечивают глобальный инференс с задержкой менее 100 мс без специального выделения кластеров ускорителей. Fastly применяет платформу периферийных вычислений, но предлагает меньшее количество локальных точек присутствия (PoP) для выполнения задач на GPU/CPU.

Постоянный URL: http://servernews.ru/1137818

Входит в перечень общественных объединений и религиозных организаций, в отношении которых судом принято вступившее в законную силу решение о ликвидации или запрете деятельности по основаниям, предусмотренным Федеральным законом от 25.07.2002 № 114-ФЗ «О противодействии экстремистской деятельности»;