Материалы по тегу:

15.03.2026 [11:46], Руслан Авдеев

Microsoft ведёт переговоры об аренде мощностей в техасском кампусе Stargate на сотни мегаватт

По данным The Information, компания Microsoft ведёт переговоры об аренде сотен мегаватт мощностей дата-центров во флагманском кампусе проекта Stargate в Абилине (Техас). Некоторые резиденты площадки готовы отказаться от планов расширения бизнеса, поэтому предложение IT-гиганта может оказаться весьма кстати.

Кампус строит компания Crusoe на площадке Clean Campus, принадлежащей Lancium. Именно здесь располагается флагманская площадка Stargate — первые ЦОД совместного предприятия стоимостью $500 млрд, представленного в 2025 году.

Дата-центры уже работают и управляются Oracle в интересах OpenAI. Два здания ввели в эксплуатацию в сентябре 2025 года, ещё шесть должны заработать в 2026-м. Совокупная мощность кампуса должна достичь 1,2 ГВт.

Ранее предполагалось, что Oracle и OpenAI расширят площадку до 2 ГВт, однако от этих планов решили отказаться, в том числе из-за финансовых ограничений. Кроме того, OpenAI регулярно пересматривает прогнозы спроса и собственное видение развития проекта Stargate. Ожидается, что дополнительные мощности компании получат на других площадках.

 Источник изображения: Crusoe

Источник изображения: Crusoe

Полноценное электроснабжение кампуса в Абилине, по всей видимости, станет доступно лишь примерно через год. К тому времени OpenAI рассчитывает использовать ускорители Nvidia Vera Rubin вместо ускорителей Nvidia Blackwell, которые планируется установить в Абилине, поэтому планы по развитию площадки были скорректированы.

По информации The Information, переговоры Microsoft об аренде мощностей находятся на продвинутой стадии.

Microsoft в целом быстро наращивает инфраструктуру дата-центров. В последнем финансовом отчёте компания сообщила, что только за последний квартал ввела в эксплуатацию около 1 ГВт мощностей. Всего за 2025 год инфраструктура выросла примерно на 2 ГВт. Капитальные затраты за квартал также достигли рекордных $37,5 млрд, хотя вряд ли компания продолжит увеличивать инвестиции такими же темпами.

Помимо Microsoft, переговоры о размещении в кампусе Stargate, по данным источников, ведёт и Meta Platforms. Потенциальные соглашения могут предусматривать использование в общей сложности около 600 МВт с поэтапным вводом мощностей.

По слухам, Nvidia уже выплатила Crusoe депозит в размере $150 млн, чтобы зарезервировать мощности после того, как Oracle отказалась от первоначальных планов расширения. Компания рассчитывает, что в дата-центрах кампуса будет использоваться именно её оборудование, а не решения конкурентов.

Постоянный URL: http://servernews.ru/1138331
15.03.2026 [11:16], Сергей Карасёв

GigaDevice представила чипы SPI NOR Flash серии GD25UF для периферийных и ИИ-устройств

Компания GigaDevice сообщила о расширении семейства чипов флеш-памяти SPI NOR Flash GD25UF: теперь в него входят изделия со сверхнизким энергопотреблением ёмкостью от 8 до 256 Мбит. Они предназначены для использования в периферийном оборудовании, маломощных ИИ-устройствах, электронике с питанием от батареи и пр.

Чипы GD25UF работают при напряжении от 1,14 В до 1,26 В, что обеспечивает бесшовную интеграцию с «системами на чипе» (SoC), рассчитанными на 1,2 В. В частности, устраняется необходимость в дополнительных преобразователях или сложном управлении питанием. Благодаря этому сокращается количество вспомогательных компонентов в конечных устройствах, что способствует снижению стоимости при одновременном повышении энергоэффективности.

 Источник изображения: GigaDevice

Источник изображения: GigaDevice

Изделия семейства GD25UF поддерживают режимы Single, Dual, Quad и DTR Quad SPI. Максимальная тактовая частота составляет 120 МГц в режиме STR и 80 МГц в режиме DTR. Пропускная способность достигает 80 Мбайт/с.

Отмечается, что по сравнению с традиционной флеш-памятью, рассчитанной на напряжение 1,8 В, у чипов GD25UF это значение снижено примерно на 33 %, что способствует сокращению энергопотребления на 50–70 %. Допускается работа в обычном режиме и с пониженным энергопотреблением. Заявленное количество циклов записи/стирания находится на отметке 100 тыс., тогда как сохранность данных гарантирована в течение 20 лет. Диапазон рабочих температур в зависимости от модификации простирается от -40 до +85 °C, от -40 до +105 °C или от -40 до +125 °C. Массовое производство изделий GD25UF уже началось: они доступы в исполнениях SOP8, WSON8, USON8 и WLCSP. 

Постоянный URL: http://servernews.ru/1138329
15.03.2026 [11:15], Сергей Карасёв

Выпуск ИИ-чипов DeepX DX-M2 отложен из-за проблем у Tesla

Изменение графика разработки ИИ-ускорителя Tesla следующего поколения, по сообщению ресурса DigiTimes, привело к тому, что южнокорейская компания DeepX вынуждена отложить выпуск своих чипов DX-M2, массовое производство которых изначально было запланировано на II квартал 2027 года.

Отмечается, что задержки возникли с разработкой изделия Tesla AI6. Предполагается, что это решение будет применяться для поддержания разнообразных нагрузок в инфраструктуре Tesla, включая платформы автономного вождения, системы человекоподобного робота Optimus и дата-центры для ИИ-задач. В 2025 году Tesla подписала контракт с Samsung на изготовление AI6 вплоть до декабря 2033-го: стоимость соглашения составляет $16 млрд. Первоначальный договор предусматривал производство около 16 тыс. пластин в месяц, однако затем Tesla запросила дополнительно 24 тыс. пластин, что в сумме предполагает объем до 40 тыс. пластин ежемесячно.

Для Tesla AI6 планируется применение 2-нм техпроцесса Samsung. По такой же методике будут выпускаться чипы DeepX DX-M2. Для обоих этих изделий оговорено использование услуги Multi-Project Wafer (MPW), при которой на одной кремниевой пластине в рамках получения прототипов размещаются изделия нескольких разных заказчиков. Такой подход позволяет снизить затраты на разработку перед организацией массового производства.

Однако, по информации DigiTimes, с выходом Tesla AI6 на этап MPW возникли задержки. С чем именно связаны сложности, не уточняется. Отраслевые эксперты полагают, что пересмотр графика может быть обусловлен изменением сроков инвестиций в автономные транспортные средства, роботизированные платформы и суперкомпьютеры с ИИ. Компания Samsung отказалась от комментариев, сославшись на конфиденциальность проектов заказчиков.

Между тем из-за задержек Tesla выпуск чипов DeepX DX-M2 по программе MPW, который планировалось начать в апреле, переносится на более поздний срок. В соответствии с новым графиком, тестирование качества этих решений будет организовано не ранее III квартала текущего года. Ожидается, что DX-M2 обеспечит ИИ-производительность на уровне 80 TOPS при максимальном энергопотреблении примерно 5 Вт. Чип поддерживает память LPDDR5X. Утверждается, что процессор способен работать с ИИ-моделями, насчитывающими до 100 млрд параметров.

Постоянный URL: http://servernews.ru/1138322
14.03.2026 [18:42], Владимир Мироненко

AWS и Cerebras готовят решение для пятикратного ускорения инференса ИИ

Amazon Web Services (AWS) и Cerebras Systems объявили о сотрудничестве, «которое позволит создать в ближайшие месяцы самые быстрые решения для инференса в системах генеративного ИИ и рабочих нагрузок машинного обучения».

Решение, которое будет развернуто на платформе Amazon Bedrock в ЦОД AWS, объединяет серверы на базе AWS Trainium, системы Cerebras CS-3 на базе чипов WSE-3 и сетевое оборудование Amazon Elastic Fabric Adapter (EFA). Ожидается, что эта технология увеличит скорость генерации результатов ИИ-моделями в пять раз.

AWS сообщила, что также позже в этом году предложит ведущие решения машинного обучения с открытым исходным кодом и собственные ИИ-модели Amazon Nova, использующие оборудование Cerebras.

Как отметил Дэвид Браун (David Brown), вице-президент по вычислительным и машинным сервисам AWS, при инференсе критическим узким местом для ресурсоёмких рабочих нагрузок, таких как помощь в кодировании в реальном времени и интерактивные приложения, остаётся скорость: «Решение, которое мы разрабатываем совместно с Cerebras, решает эту проблему: разделяя рабочую нагрузку по инференсу между Trainium и CS-3 и соединяя их с помощью адаптера Amazon Elastic Fabric, каждая система делает то, что у неё лучше всего получается. В результате инференс будет на порядок быстрее и производительнее, чем то, что доступно сегодня».

 Источник изображения: Amazon

Источник изображения: Amazon

Совместное решение использует «дезагрегацию вывода данных» — метод, который разделяет ИИ-инференс на два этапа: этап интенсивной обработки подсказок, или «предварительного заполнения» (процесс обработки запроса LLM), и этап генерации выходных данных, известный как «декодирование», на котором модель формирует ответ на вопрос пользователя.

Предварительное заполнение является параллельным, вычислительно интенсивным процессом и не требует большой пропускной способности памяти. Декодирование, с другой стороны, является последовательным процессом с минимальными требованиями к вычислительным ресурсам, но интенсивно использует пропускную способность памяти. Декодирование обычно занимает большую часть времени при инференсе, поскольку каждый выходной токен должен генерироваться последовательно, отметила AWS.

 Источник изображений: Cerebras

Источник изображений: Cerebras

Задачи предварительного заполнения и декодирования обычно выполняются одним и тем же чипом. В дезагрегированной архитектуре AWS процессоры Trainium обеспечивают этап предварительного заполнения, а Cerebras CS-3 на базе чипов WSE-3 выполняют декодирование.

«Дезагрегированный подход идеален, когда у вас большие, стабильные рабочие нагрузки, — сообщил в блоге директор по маркетингу продукции Cerebras Джеймс Ванг (James Wang). — Большинство клиентов используют смешанные рабочие нагрузки с различными коэффициентами предварительного заполнения/декодирования, где традиционный агрегированный подход по-прежнему идеален. Мы ожидаем, что большинство клиентов захотят иметь доступ к обоим вариантам».

Одним из главных преимуществ WSE-3 является то, что он может передавать данные между своими логическими схемами и цепями памяти быстрее, чем многие другие чипы. По данным Cerebras, WSE-3 обеспечивает внутреннюю пропускную способность памяти в 21 Пбайт/с, что значительно превышает пропускную способность межсоединения NVLink для ускорителей от NVIDIA.

Несколько недель назад Cerebras заключила с OpenAI сделку на $10 млрд по поставке чипов общей мощностью 750 МВт до 2028 года. Сделка была объявлена в период ​​между двумя раундами финансирования, которые в совокупности принесли Cerebras более $2 млрд. Ожидается, что компания подаст заявку на первичное публичное размещение акций уже во II квартале 2026 года. Сделки с AWS и OpenAI могут способствовать повышению интереса инвесторов к листингу, отметил SiliconANGLE.

Постоянный URL: http://servernews.ru/1138316
14.03.2026 [10:20], Сергей Карасёв

Silicon Motion представила контроллер SM8008 для загрузочных SSD в дата-центрах

Компания Silicon Motion анонсировала контроллер SM8008, предназначенный для создания загрузочных SSD в дата-центрах и накопителей корпоративного класса со сверхнизким энергопотреблением. Изделие, выполненное на фирменной платформе MonTitan, поддерживает интерфейс PCIe 5.0 x4 (протокол NVMe 2.0a).

Отмечается, что стремительное развитие ИИ и облачной инфраструктуры сопровождается развёртыванием большого количества новых серверов, каждый из которых нуждается в надёжном и энергоэффективном загрузочном накопителе. В масштабах гиперскейлеров и крупных облачных провайдеров эксплуатируются миллионы серверов. В таких условиях даже незначительная экономия электроэнергии в расчёте на один SSD может привести к существенному снижению общего энергопотребления и уменьшению эксплуатационных расходов ЦОД.

 Источник изображения: Silicon Motion

Источник изображения: Silicon Motion

Контроллер SM8008 изготавливается с применением 6-нм технологии TSMC. Он обеспечивает скорость последовательной передачи информации до 14 Гбайт/с, а показатель IOPS (операций ввода/вывода в секунду) достигает 2,3 млн. При этом энергопотребление в активном режиме составляет менее 5 Вт. Используется восьмиканальная архитектура NAND с поддержкой ONFI и Toggle DDR 5.0 со скоростью до 3600 МТ/с (MT/s). Говорится о возможности применения одноканальной памяти DDR4-3200 и LPDDR4-3200 ECC DRAM.

Изделие соответствует спецификации OCP Hyperscale NVMe Boot SSD Version 1.0. Реализована поддержка TCG Opal 2.0, а также AES-256, SHA2-512 и RSA-3072b с аппаратным ускорением. Чип использует технологию Silicon Motion NANDCommand и усовершенствованный механизм коррекции ошибок LDPC, благодаря чему достигаются долговечность и стабильность производительности. На базе контроллера могут создаваться SSD в различных форм-факторах, включая M.2, U.2, E1.S и E3.S.

Постоянный URL: http://servernews.ru/1138297
14.03.2026 [10:16], Сергей Карасёв

MediaTek представила чипы Genio Pro 5100 и Genio 420 для AIoT-приложений

Компания MediaTek представила процессоры Genio Pro 5100 и Genio 420 с архитектурой Arm для AIoT-приложений и встраиваемых систем. Первый из названных чипов подходит, в частности, для автономных мобильных роботов, дронов, периферийного оборудования и автомобильных платформ, второй — для устройств умного дома, интерактивных дисплеев и пр.

Изделие Genio Pro 5100 изготавливается по 3-нм технологии. Оно содержит восемь вычислительных ядер в конфигурации 1 × Arm Cortex-X925, 3 × Arm Cortex-X4 и 4 × Arm Cortex-A720. Присутствуют графический блок Arm Immortalis-G925 MC11 с поддержкой OpenGL, Vulkan и OpenCL, а также нейропроцессорный узел (NPU) с ИИ-производительностью более 50 TOPS. Модуль VPU обеспечивает возможность кодирования материалов H.264 и H.265 (до 8K30) и декодирования H.264, H.265, AV1 и VP9 (до 8K30).

 Источник изображений: MediaTek

Источник изображений: MediaTek

Реализована поддержка оперативной памяти LPDDR5x-8533 (до 30 Гбайт), а также флеш-памяти UFS 4.1, SD 3.0 и SPI-NOR. Допускается вывод изображения одновременно на три дисплея формата 4Kp60 через интерфейсы eDP 1.5 (4 линии), DisplayPort 1.4 (MST) и 3 × MIPI DSI (4 линии). Благодаря четырём интерфейсам MIPI-CSI (4 линии) возможно использование до 16 камер (1080p30). Среди прочего упомянута поддержка 2 × 2.5GbE, Wi-Fi 7 и Bluetooth 5.4 (через внешний модуль), 1 × PCIe 4.0 (2 линии) и 2 × PCIe 4.0 (1 линия), 6 × UART, 7 × I2C, 8 × I3C, 4 × PWM, 7 × I2S/TDM, 3 × PDM, 1 × USB 3.2 Gen2 (10 Гбит/с), 2 × USB 2.0 (Host/Device) и 1 × USB 2.0 (Host). Изделие выполнено в корпусе ETFC TFBGA с размерами 15,9 × 16,6 мм. Диапазон рабочих температур простирается от -40 до +105 °C.

Вторая новинка, Genio 420, производится по 6-нм технологии. Процессор объединяет восемь ядер (2 × Arm Cortex-A78 с тактовой частотой 1,8 ГГц и 6 × Arm Cortex-A55 с частотой 1,6 ГГц) и графический ускоритель Arm Mali-G57 MC2. Модуль MediaTek NPU восьмого поколения обеспечивает ИИ-производительность на уровне 6,1 TOPS. Блок VPU поддерживает кодирование материалов H.264/H.265 (до 4Kp30) и декодирование H.264/H.265/VP9 (до 4Kp60) и MPEG4/VP8 (до 1080p60).

Чип позволяет использовать оперативную память LPDDR4X-4266 (до 8 Гбайт) и LPDDR5/LPDDR5X-6400 (до 16 Гбайт), а также флеш-память UFS 3.1 (2 линии), eMMC 5.1, SD 3.0 / SDIO 3.0, SPI-NOR. Возможен вывод изображения на монитор 4Kp60  или два дисплея 2.5Kp60 через интерфейсы eDP, DP, LVDS и MIPI-DSI. Допускается использование до шести камер 1080p30 через 2 × MIPI-CSI. Прочие характеристики процессора таковы: контроллер 1GbE, опциональные адаптеры Wi-Fi 6 (1×1) + Bluetooth 5.3 на базе MT6631X или Wi-Fi 6E (2×2) + Bluetooth 5.3 на основе MT6637X, 1 × PCIe 2.0 (1L, RC, WoWLan), 4 × UART, 9 × I2C, 6 × SPI Master, 3 × PWM, GPIO, JTAG, 3 × USB 2.0, 1 × USB 3.2 Gen1 (5 Гбит/с; Host), 1 × USB 3.2 Gen1 (Host/Device). Чип выполнен в корпусе VFBGA с размерами 13,8 × 11,8 × 0,9 мм. Диапазон рабочих температур — от -20 до +95 °C.

Процессоры поддерживают такие средства обеспечения безопасности, как Arm TrustZone, Security Boot (RSA4096), Crypto Engine и RNG. Говорится о совместимости с различными вариантами Linux, включая Yocto и Ubuntu. 

Постоянный URL: http://servernews.ru/1138293
13.03.2026 [23:19], Владимир Мироненко

VK Tech нарастила выручку в 2025 году на 38,0 %, а облако VK Cloud — на 13,5 %

Разработчик корпоративного программного обеспечения VK Tech (входит в экосистему VK) опубликовал аудированные финансовые результаты за 2025 год. Выручка компании выросла на 38,0 % год к году — до 18,8 млрд руб. Наиболее высокий рост показали сервисы продуктивности VK WorkSpace (+75,1 % год к году) и бизнес-приложения (+65,7 % год к году).

Компания сообщила, что рекуррентная (не связанная с оказанием единоразовых услуг клиентам) выручка выросла более чем в 2 раза год к году — до 12,8 млрд руб. (68 % от общего объёма выручки), что связано как с увеличением количества клиентов, использующих сервисы по модели On-Cloud, так и с ростом выручки от технической поддержки в рамках модели поставки On-Premise.

 Источник изображения: VK

Источник изображения: VK

Скорректированная EBITDA увеличилась на 21,6 % — до 4,8 млрд руб., рентабельность по скорректированной EBITDA составила 26 %. Количество клиентов выросло в 2,7 раза — до 31,9 тыс. VK Tech отметила, что среди них есть крупные, средние и малые компании из всех отраслей экономики.

Выручка облачной платформы VK Cloud, объединяющей более 50 облачных сервисов для разработки и работы с данными в рамках направления «Облачная платформа», выросла на 13,5 % — до 6,5 млрд руб., в том числе выручка от продаж по модели On-Cloud увеличилась на 51,3 %.

Выручка направления «Дата-сервисы» увеличилась на 15,5 % год к году — до 2,5 млрд руб., в том числе выручка от продаж в формате On-Premise — на 16,1 %. Драйвером роста стали решения Tarantool и VK Data Platform, выручка от которых увеличилась на 61,8 %.

Компания отметила, что в 2025 году был запущен первый в России облачный Data Lakehouse — новый подход к хранению и анализу данных. Также была представлена новая версия Tarantool DB 3.0 с механизмом «охлаждения данных», а решение для обработки и хранения данных Tarantool подтвердило соответствие требованиям ФСТЭК России (№ 11).

VK Tech сообщила, что в 2026 году усилит направление дата-сервисов за счёт ИИ-сервисов и инструментов аналитики больших данных на базе решений VK Predict, которые включают сервисы аналитики и системы поддержки принятия решений на основе анализа больших данных, технологий машинного обучения и ИИ.

Постоянный URL: http://servernews.ru/1138286
13.03.2026 [18:31], Владимир Мироненко

Выручка Yandex B2B Tech в 2025 году выросла в 1,5 раза

Yandex B2B Tech (бизнес-группа «Яндекса»), опубликовала финансовые результаты за 2025 год в соответствии с международными стандартами финансовой отчётности (МСФО). Показатели отражают деятельность группы по двум ключевым направлениям: платформа для создания ИТ-продуктов Yandex Cloud и виртуальный офис «Яндекс 360».

Выручка Yandex B2B Tech по двум направлениям за год выросла на 48 % — до 48,2 млрд руб. По оценке «Яндекса», Yandex B2B Tech растёт в 1,9 раза быстрее российского рынка корпоративных ИТ-решений.

При этом выручка Yandex Cloud увеличилась на 39 % — до 27,6 млрд руб. Среднегодовой темп роста выручки платформы за последние 4 года составляет 52 % и четвёртый год подряд она показывает положительную маржинальность по EBITDA.

В 2025 году 93 % выручки Yandex Cloud получено за счёт внешнего потребления. Большую часть (84 %) принесли клиенты из крупного и среднего бизнеса. Общее количество внешних клиентов платформы достигло 51 тыс. (рост год к году — на 17 %). Количество активных партнёров Yandex Cloud составляло 883 (+31 %). Выручка в партнёрском канале выросла год к году на 56 %.

На ИИ- и ИБ-сервисы приходится 9 % от общей выручки Yandex Cloud за 2025 год (рост — почти вдвое).

Выручка платформы для создания ИИ-решений Yandex AI Studio составила 2 млрд руб. (рост — почти в 2 раза). Клиенты платформы потребили через API 234 млрд токенов (в 7 раз больше год к году), в том числе, более 150 млрд — в IV квартале.

Выручка ИБ-сервисов Yandex Cloud выросла в 2,5 раза год к году. Ими пользовался каждый четвёртый клиент платформы.

На решения в формате on-premises пришлось 3,4 % общей выручки. Формат on-premises стал доступен для всех приоритетных направлений Yandex Cloud: ИИ, информационной безопасности, платформы данных и инфраструктурных решений.

Также сообщается, что выручка от решений для создания и масштабирования инфраструктуры выросла год к году в 1,3 раза. По состоянию на конец 2025 года в Yandex Cloud насчитывалось более 300 тыс. запущенных виртуальных машин, а в облачном хранилище S3 находилось 4 Эбайт данных и около 3 млн объектов.

Что касается второго направления, то выручка «Яндекса 360» составила за год 18,4 млрд руб. (рост — 59 % год к году). Среднегодовой темп роста выручки за последние 4 года равен 66 %. Ежемесячная аудитория «Яндекса 360», объединяющего 13 интегрированных между собой сервисов, превышала 102 млн пользователей. Его сервисами пользовались более 170 тыс. организаций. К концу года в виртуальном офисе насчитывалось 8,1 млн платных учётных записей, из них 2,2 млн приходилось на крупные организации.

Компания сообщила, что в 2026 году в формате on-premises станут доступны все ключевые сервисы «Яндекса 360».

Постоянный URL: http://servernews.ru/1138274
13.03.2026 [17:10], Руслан Авдеев

Crusoe представила периферийные зоны доступности Crusoe Edge Zones для внедрения ИИ-решений где угодно

Компания Crusoe анонсировала запуск периферийных зон доступности Crusoe Edge Zones на базе модульных ЦОД Crusoe Spark, обеспечивающих ИИ-вычисления практически в любой локации. Edge Zones предоставят ИИ-инфраструктуру с низкой задержкой и позволят внедрять суверенные ИИ-решения клиентам со всего мира.

Благодаря Crusoe Edge Zones клиентам доступно развёртывание модулей Crusoe Spark в таких местах, которые недоступны традиционным гиперскейлерам и облачным провайдерам.

Модули ЦОД Crusoe Spark для зон доступности выпускаются на недавно представленном заводе Spark Factory. Благодаря контролю над полным стеком работы над ИИ-инфраструктурой — от заводской сборки до облачной оркестрации — компания Crusoe способна развёртывать новые периферийные облака всего за три месяца. При этом это обойдётся значительно дешевле, чем классические варианты ЦОД. Благодаря этому можно будет предоставлять мощности для ИИ в тех локациях, где ограничены возможности имеющейся устаревшей инфраструктуры.

 Источник изображения: Crusoe

Источник изображения: Crusoe

Crusoe Edge Zones на базе Crusoe Spark — дальнейшее масштабирование вертикально интегрированной концепции «ИИ-фабрик». Зоны оптимизированы для работы с облачной платформой Crusoe Cloud и инференс-службой Managed Inference. Благодаря запатентованной технологии Crusoe MemoryAlloy можно сократить «время до первого токена» в 9,9 раза. Кроме того, система обеспечит в 5 раз более высокую пропускную способность, чем стандартные конфигурации для инференса. В результате периферийные пользователи получат доступ к сверхэффективной инфраструктуре с высоким быстродействием.

Ключевые сценарии применения:

  • развёртывание Crusoe Edge Zones близ конечных потребителей для обеспечения сверхнизкой задержки — особенно важно там, где помощь ИИ нужна в режиме реального времени;
  • создание для клиентов выделенных корпоративных кластеров для обучения ИИ и инференса, сочетающих возможность использования собственной инфраструктуры и простоту управляемого облака;
  • внедрение суверенного ИИ на базе передовой инфраструктуры Crusoe государственными органами и отдельными отраслями, требующими специальной защиты данных — зоны Crusoe можно развёртывать без утечки данных за пределы той или иной юрисдикции.

В компании уверены, что в будущем ИИ-инфраструктура будет включать как гигантские кампусы гигаваттного масштаба для обучения ИИ, так и распределённые модули для обработки информации на периферии. На данный момент Crusoe инвестирует в оба направления.

Концепция сетей модульных ЦОД, практически независимых от крупных кампусов, в последнее время на фоне конфликта на Ближнем Востоке становится всё популярнее. Независимо от этих событий недавно Akamai пообещала развернуть тысячи ускорителей NVIDIA RTX Blackwell для распределённого инференса, а LG разработала модульные ИИ ЦОД AI Box, из которых соберёт 60-МВт дата-центр в южнокорейском Пусане.

Постоянный URL: http://servernews.ru/1138257
13.03.2026 [15:42], Сергей Карасёв

Пропускная способность сети фильтрации Curator превысила 6 Тбит/с

Компания Curator, специализирующаяся на обеспечении доступности интернет-ресурсов и нейтрализации DDoS-атак, объявила об увеличении пропускной способности своей глобальной сети фильтрации. В результате модернизации инфраструктуры она превысила 6 Тбит/с, что позволяет эффективно противостоять растущему масштабу современных DDoS-атак и гарантировать устойчивость и постоянную доступность сервисов клиентов.

За последний год интенсивность DDoS-атак резко увеличилась. Если в 2024 году максимальная мощность атак в пике достигала 1,14 Тбит/с, то к концу 2025 года специалисты Curator фиксировали уже несколько атак интенсивностью более 3 Тбит/с.

В ответ на эту тенденцию компания провела масштабную работу по развитию своей инфраструктуры. В течение последних месяцев были расширены мощности сети, а также увеличено количество центров фильтрации и география присутствия системы.

 Источник изображения: unsplash.com / Julio Lopez

Источник изображения: unsplash.com / Julio Lopez

На данный момент сеть фильтрации Curator включает 9 собственных и 12 партнёрских центров очистки трафика. Центры фильтрации расположены в ключевых точках концентрации интернет-трафика и подключены к трансконтинентальным Tier-1 провайдерам, а также ведущим региональным магистральным интернет-провайдерам, что позволяет компании поддерживать самый высокий среди аналогов гарантированный уровень доступности приложений на уровне 99,95% и нивелировать любые сетевые атаки, достигшие в прошлом году рекордных уровней.

«Мы постоянно совершенствуем защиту, гарантируя клиентам устойчивость бизнеса даже при росте угроз. Если ещё недавно атаки свыше терабита считались исключением, то сегодня атаки в несколько Тбит/с уже становятся новой реальностью. Расширение пропускной способности сети Curator до более чем 6 Тбит/с — ответ на эту динамику и необходимый шаг для обеспечения стабильной работы сервисов наших клиентов. Мы действуем на опережение, ведь наша философия — непрерывная доступность», — комментирует Дмитрий Ткачев, генеральный директор Curator.

Постоянный URL: http://servernews.ru/1138255

Входит в перечень общественных объединений и религиозных организаций, в отношении которых судом принято вступившее в законную силу решение о ликвидации или запрете деятельности по основаниям, предусмотренным Федеральным законом от 25.07.2002 № 114-ФЗ «О противодействии экстремистской деятельности»;