Материалы по тегу:

10.11.2025 [15:46], Руслан Авдеев

Большой дата-центр для маленького острова: Google хочет построить ИИ ЦОД для военных на Острове Рождества в Индийском океане

Google намерена построить большой ИИ ЦОД на маленьком австралийском Острове Рождества (Кристмас) в Индийском океане после подписания соглашения с Министерством обороны Австралии, сообщает Reuters. ЦОД на острове, расположенном в 350 км к югу от Индонезии, станет ценным активом — остров всё чаще рассматривается западными военными как важнейший пункт мониторинга движения китайских подводных лодок и прочей военно-морской активности в Индийском океане.

По данным представителей властей острова и согласно протоколам заседания местного совета, Google активно ведёт переговоры об аренде земли неподалёку от местного аэропорта для строительства дата-центра и о поставках энергии. Google заявила, что проект является частью работы по созданию подводной кабельной инфраструктуры для обеспечения повышенной цифровой устойчивости в Австралии и Индо-Тихоокеанском регионе.

Впрочем, в компании утверждают, что речь идёт о небольшом ЦОД. По словам пожелавшего остаться анонимным источника, Google запрашивает запросила поставку 7 МВт с использованием дизельной генерации и возобновляемых источников. Местные власти желают, чтобы это никак не сказалось на доступности энергии для местных жителей и компаний. В доступной документации указано, что Google предлагает построить дополнительную кабельную систему, которая свяжет остров с материками. Власти Австралии подтвердили планы Google по постройке ЦОД и прокладке кабеля до города Дарвин (Darwin). В Министерстве обороны страны информацию не комментируют.

 Источник изображения: Duskfall Crew/unsplash.com

Источник изображения: Duskfall Crew/unsplash.com

В ходе недавних учений с участием США, Австралии и Японии Острову Рождества отводилась роль передовой линии обороны Австралии в любом региональном конфликте. Его преимуществом называют возможность запуска безэкипажных оружейных систем и дронов. Бывший представитель ВМС США, руководивший учениями, заявлял, что наличие на Острове Рождества узла командования и управления будет играть решающую роль в случае противостояния с Китаем или другим противником. По его словам, ЦОД отчасти позволит осуществлять командование и управление с помощью ИИ в будущем, особенно в случае применения беспилотных систем для наблюдения, целеуказания и даже боевых действий.

Министерство обороны Австралии уже заключило трёхлетнюю облачную сделку с Google, аналогичный договор имеется и у британских военных — это укрепит обмен разведданными с США. В октябре Google подала заявку австралийским регуляторам на прокладку подводного кабеля, соединяющего Остров Рождества с Дарвином (север Австралии) — именно там шесть месяцев в году базируется морская пехота Соединённых Штатов, не считая австралийских подразделений.

Руководство острова изучает предполагаемое воздействие ЦОД на местное сообщество, лишь после этого оно согласится дать окончательное разрешение на строительство. Остров площадью 135 км2 до недавнего времени не имел качественных телекоммуникационных каналов, а 1,6 тыс. его жителей не имели возможности найти хорошую работу. Утверждается, что идея пользуется поддержкой, поскольку ЦОД действительно принесёт пользу местным — для него построят инфраструктуру, создадут рабочие места и в целом экономическая ценность острова повысится.

 Источник изображения: Raphael Bick/unsplashc.com

Источник изображения: Raphael Bick/unsplashc.com

Правда, жители обеспокоены влиянием дата-центра на энергетику острова, находящегося в 1,5 тыс. км от Австралии. Сегодня там применяются дизельные генераторы, а также ограниченное число источников возобновляемой энергии. В «материковой» Австралии считают, что проект Google поможет диверсифицировать экономику острова, хотя для реализации проекта необходимо будет соблюдать все экологические требования.

По словам источников Reuters, дата-центр коммерчески привлекателен для Google, поскольку расположен в Индийском океане между Африкой, Азией и Австралией. Военным же они интересен потому, что позволяет контролировать несколько ближайших проливов. Развитие оборонного сектора, как ожидается, улучшит экономику острова, однако местные жители опасаются, что это же отпугнёт туристов. Сейчас на острове активно развивается направление экотуризма.

По данным Datacenter Dynamics, Минобороны Австралии заключило крупные контракты с американскими гиперскейлерами. В июле 2025 года с Microsoft подписана сделка на AU$495 млн ($324,71 млн) об использовании облачных вычислительных сервисов компании. В 2024 году появились данные, что AWS строит кампус для австралийского правительства для хранения совершенно секретной информации. Дата-центр и облачная система будет строиться в партнёрстве с AWS и австралийским правительством, последнее намерено вложить AU$2 млрд ($1,3 млрд) в новую систему в следующие десять лет. В 2023 году стало известно, что Пентагон оплатил треть стоимости подводного интернет-кабеля SubCo OAC от Омана до Австралии в обмен на секретное подключение военной базы на острове Диего-Гарсия.

Постоянный URL: http://servernews.ru/1132142
10.11.2025 [15:00], Владимир Мироненко

Фирменные ИИ-ускорители Amazon всё ещё не могут конкурировать с чипами NVIDIA, считают некоторые стартапы

Некоторые стартапы считают, что ИИ-чипы Trainium и Inferenetia собственной разработки Amazon менее конкурентоспособны, чем ускорители NVIDIA, сообщил ресурс Business Insider со ссылкой на внутреннюю документацию AWS. Согласно июльскому «конфиденциальному» внутреннему документу Amazon, ИИ-стартап Cohere обнаружил, что чипы Amazon Trainium 1 и 2 «уступают по производительности» ускорителям NVIDIA H100. Стартап отметил, что доступ к Trainium2 был «крайне ограничен», а в работе наблюдались частые перебои.

Amazon и её подразделение Annapurna Labs всё еще изучают возникшие у Cohere «проблемы с производительностью», но прогресс в решении этих проблем был «ограниченным», отмечено в официальном документе. Также в нём упоминается стартап Stability AI, разработавший, в том числе, ИИ-генератор изображений Stable Diffusion, который высказывал схожие претензии. В частности, говорится, что чипы Amazon Trainium2 уступают NVIDIA H100 по задержке, что делает их «менее конкурентоспособными» с точки зрения скорости и стоимости.

Ставка Amazon на чипы собственной разработки является частью её усилий по обеспечению конкурентоспособности в ИИ-гонке. Её прибыльность основана в том числе на использовании собственных процессоров Graviton вместо дорогостоящих чипов Intel. И сейчас Amazon тоже стремится задействовать собственные чипы для обработки ИИ-нагрузок. Если некоторые клиенты AWS не захотят использовать Trainium и будут настаивать на том, чтобы AWS запускала свои облачные ИИ-системы с использованием чипов NVIDIA, которые гораздо дороже её собственных решений, это отразится на её прибыли от облачных вычислений, отметил Business Insider.

 Источник изображений: AWS

Источник изображений: AWS

Рынок стартапов давно является важным для AWS, поэтому их претензии имеют большое значение для компании. Представитель Amazon заявил, что компания «благодарна» клиентам за отзывы, которые помогают сделать её чипы «еще лучше и более широко используемыми». Он добавил, что кейс с Cohere «не является актуальным», отметив, что её чипы Trainium и Inferentia «достигли отличных результатов» с такими клиентами, как Ricoh, Datadog и Metagenomi. «Мы очень довольны ростом и внедрением Trainium2, который на данном этапе в основном используется небольшим числом очень крупных клиентов, таких как Anthropic», — написал представитель в электронном письме ресурсу Business Insider.

AWS утверждает, что ее собственные ИИ-ускорители предлагают на 30-40 % лучшие ценовые характеристики, чем нынешнее поколение GPU. Компания обладает «невероятными талантами» в области проектирования чипов и работает над новыми поколениями ускорителей. «Мы рассчитываем привлечь больше клиентов, начиная с Trainium 3, превью которого ожидается позже в этом году», — сказал представитель Amazon. Генеральный директор Amazon Энди Джасси (Andy Jassy) заявил во время отчёта о доходах компании, что чипы Trainium2 «полностью распределены по подписке» и теперь являются «многомиллиардным» бизнесом, который последовательно увеличивается на 150 % от квартала к кварталу.

Жалобы клиентов Amazon на её чипы поступали и раньше. Согласно июльскому документу, стартап Typhoon обнаружил, что устаревшие ускорители NVIDIA A100 в три раза экономичнее для определённых рабочих нагрузок, чем чипы Inferentia2 от AWS, ориентированные на инференс. В свою очередь, исследовательская группа AI Singapore установила, что серверы AWS G6, оснащённые ускорителями NVIDIA, более экономичны по сравнению с Inferentia2 при различных вариантах использования.

В прошлом году клиенты облака Amazon также отмечали «проблемы при внедрении» её пользовательских ИИ-чипов, которые создают «проблемные области», что ведёт к снижению их использования. Эти проблемы нашли отражение в доле рынка Amazon. По данным исследовательской компании Omdia, NVIDIA доминирует на рынке ИИ-чипов с долей более 78 %. За ней следуют Google и AMD, владеющие по чуть более 4 %. AWS занимает лишь шестое место с 2 % рынка.

Наглядно иллюстрирует проблемы Amazon в этом отношении соглашение AWS и OpenAI стоимостью $38 млрд. Сделка предполагает использование облачных ИИ-серверов на базе ускорителей NVIDIA, без упоминания чипов Trainium. Ускорители NVIDIA не только обеспечивают высокую производительность, но подкрепляются широко распространённой платформой CUDA. Это качество особенно ценно при разработке крупных проектов в области ИИ с высоким уровнем риска, когда надёжность и имеющийся опыт могут сыграть решающую роль.

В июльском документе сотрудники Amazon отметили, что технические ограничения и другие проблемы, связанные со сравнением пользовательских ИИ-чипов компании и ускорителей NVIDIA, стали «критическим препятствием» для клиентов, задумывающихся о переходе на чипы AWS. До публикации отчёта о доходах Amazon на прошлой неделе аналитики Bank of America соблюдали осторожность в оценке прогресса Tranium. В аналитической заметке, опубликованной в конце октября, они предупредили, что инвесторы «скептически» относятся к возможностям Trainium, и что «неясно», проявится ли высокий спрос на них «за пределами Anthropic».

Недавно AWS запустила проект Project Rainier — ИИ-кластер из полумиллиона чипов Trainium2, которые будут использоваться для обучения LLM следующего поколения Anthropic. Ожидается, что к концу года Anthropic получит более 1 млн чипов Trainium2, но решение по этому вопросу ещё не принято. Если реализация проекта будет успешной, это станет огромным подспорьем для Amazon. Вместе с тем в прошлом месяце Anthropic подписала многомиллиардный контракт на использование Google TPU, отметив, что продолжит использовать Trainium. Хотя Anthropic публично признала сложность использования архитектур с разными чипами, представитель Amazon сообщил Business Insider, что Anthropic продолжает расширять использование Trainium и подчеркнул стремление компании предлагать клиентам широкий спектр аппаратных опций в рамках своих облачных сервисов.

В ходе общения с аналитиками на прошлой неделе Джасси подчеркнул, что AWS сосредоточена на предоставлении «нескольких вариантов чипов». Он отметил, что цель состоит не в том, чтобы заменить чипы NVIDIA, а в том, чтобы предоставить клиентам больше выбора. Этой стратегии AWS придерживается и в других областях облачных вычислений, сказал он. «В истории AWS никогда не было случая, чтобы какой-то один игрок в течение длительного периода времени владел всем сегментом рынка, а затем мог удовлетворить потребности всех во всех аспектах», — сказал Джасси.

В долгосрочной перспективе не слишком удачные продажи собственных ускорителей не лучшим образом скажутся на AWS. Компания понимает, что её решения могут быть менее производительны и удобны, поэтому и предлагает их по меньшей цене, чем ускорители NVIDIA. Однако стоимость их производства сравнима со стоимостью производства чипов такого же класса, и со временем она будет только расти. Проще говоря, Amazon меньше зарабатывает на своих чипах, а в худшем случае может терять на них деньги.

Постоянный URL: http://servernews.ru/1132137
10.11.2025 [12:05], Сергей Карасёв

Фабрика токенов: Nebius, бывшая Yandex NV, запустила платформу Token Factory для инференса на базе открытых ИИ-моделей

Компания Nebius (бывшая материнская структура «Яндекса») представила платформу Nebius Token Factory для инференса: она позволяет разворачивать и оптимизировать открытые и кастомизированные ИИ-модели в больших масштабах с высоким уровнем надёжности и необходимым контролем.

Nebius отмечает, что применение закрытых ИИ-моделей может создавать трудности при масштабировании. С другой стороны, открытые и кастомизированные модели позволяют устранить эти ограничения, но управление ими и обеспечение безопасности остаются технически сложными и ресурсоёмкими задачами для большинства команд. Платформа Nebius Token Factory призвана решить существующие проблемы: она сочетает гибкость открытых моделей с управляемостью, производительностью и экономичностью, которые необходимы организациям для реализации масштабных проектов в сфере ИИ.

Nebius Token Factory базируется на комплексной ИИ-инфраструктуре Nebius. Новая платформа объединяет высокопроизводительный инференс, пост-обучение и управление доступом. Обеспечивается поддержка более 40 open source моделей, включая новейшие версии Deep Seek, Llama, OpenAI и Qwen.

 Источник изображения: Nebius

Источник изображения: Nebius

Среди ключевых преимуществ Nebius Token Factory заявлены соответствие требованиям корпоративной безопасности (HIPAA, ISO 27001 и ISO 27799), предсказуемая задержка (менее 1 с), автоматическое масштабирование пропускной способности и доступность на уровне 99,9 %. Инференс выполняется в дата-центрах на территории Европы и США без сохранения данных на серверах Nebius. Задействована облачная экосистема Nebius AI Cloud 3.0 Aether, что, как утверждается, обеспечивает безопасность корпоративного уровня, проактивный мониторинг и стабильную производительность.

Отмечается, что Nebius Token Factory может применяться для решения широкого спектра ИИ-задач: от интеллектуальных чат-ботов, помощников по написанию программного кода и генерации с дополненной выборкой (RAG) до высокопроизводительного поиска, анализа документов и автоматизированной поддержки клиентов. Интегрированные инструменты тонкой настройки и дистилляции позволяют компаниям адаптировать большие открытые модели к собственным данным. При этом достигается сокращение затрат на инференс до 70 %. Оптимизированные модели затем можно быстро разворачивать без ручной настройки инфраструктуры.

Постоянный URL: http://servernews.ru/1132134
10.11.2025 [11:59], Сергей Карасёв

Промышленный компьютер AAEON Boxer-6801-Rap получил слот PCI, COM-порты и чип Intel Raptor Lake

Компания AAEON анонсировала индустриальный компьютер Boxer-6801-Rap, предназначенный для систем машинного зрения, а также комплексов диспетчерского управления и сбора данных (SCADA). В устройстве соседствуют современные аппаратные компоненты и устаревшие технологии.

Основой изделия служит платформа Intel Raptor Lake: в максимальной конфигурации применяется процессор Core i7-1370PE с 14 ядрами (6Р+8Е; 14C/20T; до 4,8 ГГц), оснащённый графическим ускорителем Intel Iris Xe. Доступны два слота SO-DIMM для модулей оперативной памяти DDR5 суммарным объёмом до 96 Гбайт. Есть коннектор M.2 2280 M-Key для SSD с интерфейсом PCIe 4.0 x4 и посадочное место для SFF-накопителя с интерфейсом SATA.

 Источник изображений: AAEON

Источник изображений: AAEON

Компьютер оборудован классическим слотом PCI и разъёмом PCIe x1. Реализованы пять сетевых портов 2.5GbE (контроллер Intel I226-LM), четыре из которых поддерживают PoE с общим бюджетом мощности 60 Вт. Имеются коннектор M.2 2230 E-Key (PCIe) для адаптера Wi-Fi и разъём M.2 3052 B-Key (USB; SIM-слот) для сотового модема.

Устройство располагает двумя последовательными (COM) портами — RS-232/422/485, пятью гнёздами RJ45 для сетевых кабелей, двумя интерфейсами HDMI, двумя портами USB 3.2 Gen2 Type-A и двумя портами USB 2.0, комбинированным аудиогнездом на 3,5 мм, разъёмом DB-15. Питание (9–36 В) подаётся через 3-контактный разъём.

Компьютер заключён в корпус с габаритами 264 × 179 × 124 мм, а масса составляет 4,9 кг. Ребристая поверхность выполняет функции радиатора для рассеяния тепла. Диапазон рабочих температур простирается от -20 до +60 °C. Устройство может монтироваться на DIN-рейку. Заявлена совместимость с Windows 10 IoT 2021 LTSC, Windows 11 IoT LTSC, Ubuntu 24.04 и выше. Приём предварительных заказов на модель AAEON Boxer-6801-Rap уже начался.

Постоянный URL: http://servernews.ru/1132132
10.11.2025 [10:30], Руслан Авдеев

«Здоровое» питание: ExxonMobil предложила ИИ ЦОД электростанции на природном газе с интегрированной системой захвата углеродных выбросов

Одна из крупнейших нефтегазовых компаний мира — ExxonMobil активно ведёт переговоры с поставщиками электричества и технологическими компаниям. Также ведутся переговоры о поставке в дата-центры генерирующих установок на природном газе, интегрированных с системами захвата и хранения углерода, сообщает Datacenter Dynamics. По словам ExxonMobil, она намерена улавливать до 90 % выбросов CO2.

В компании надеются, что заявления гиперскейлеров о желании получить мощности с низким углеродным выбросом искренни, поскольку в краткосрочной и среднесрочной перспективе компания, вероятно, является единственным игроком, способным реально добиться этого. ExxonMobil уже «продвинулась в переговорах» и даже подобрала подходящие площадки. У неё есть инфраструктура и технологии улавливания, транспортировки и хранения углекислого газа. Также утверждается, что развитие ИИ создаст новые бизнес-возможности в «низкоуглеродных» дата-центрах, которыми Exxon намерена воспользоваться.

В декабре 2024 года компания объявила о намерении построить новую газовую электростанцию мощностью 1,5 ГВт для дата-центров. Пока реализация проекта находится на ранней стадии, это будет первая электростанция Exxon, предназначенная не для обеспечения собственных нужд.

 Источник изображения: ExxonMobil

Источник изображения: ExxonMobil

Дополнительно Exxon представила ряд продуктов для охлаждения ЦОД. В апреле она заключила партнёрское соглашение с Intel для создания новых технологий жидкостного охлаждения дата-центров. В октябре ExxonMobil сообщила о намерении выйти на рынок охлаждающих жидкостей для ЦОД, представив портфолио из синтетических и несинтетических продуктов. Дальнейшее расширение ассортимента планируется при поддержке Intel.

На сектор ЦОД ориентируются и другие нефтегазовые компании помимо Exxon. В январе Chevron заключила соглашение с американским хедж-фондом Engine No. 1 о строительстве и масштабировании электростанций на природном газе мощностью до 4 ГВт для прямого обслуживания в США расположенных поблизости дата-центров. В марте 2025 года появились данные, что строитель флагманского дата-центра Stargate в Абилине (Техас) — компания Crusoe подписала контракт с Engine No. 1 о поставке 4,5 ГВт электричества, вырабатываемого турбинами.

Постоянный URL: http://servernews.ru/1132118
10.11.2025 [10:10], Руслан Авдеев

Orange Marine занялась модернизацией флота, занимающегося укладкой и обслуживанием кабелей

Подразделение телеком-оператора Orange — компания Orange Marine анонсировала строительство двух передовых кораблей по прокладке и обслуживанию кабелей. Ожидается, что это поможет повысить устойчивость подводных кабельных систем в Европе, на Ближнем Востоке и в Африке (регион EMEA), сообщает Orange.

После постройки у Orange Group будет сразу четыре передовых корабля для обслуживания кабелей в Атлантике, Ла-Манше, Северном море, Индийском океане, Средиземном и Красном морях — в дополнение к двум кораблям для прокладки кабелей и судна-разведчика для мониторинга. Они управляются Orange Marine и её итальянской дочерней структурой Elettra.

В Orange подчёркивают, что стратегические инвестиции во флотилию компании — ключ для обеспечения устойчивости и безопасности мирового интернета. Это демонстрирует уверенность бизнеса в перспективах Orange Marine и квалификации её команд.

 Источник изображения: Orange Marine

Источник изображения: Orange Marine

Два новых однотипных судна на основе дизайна Sophie Germain 2023 года в основном будут заниматься обслуживанием и ремонтом. Впрочем, они способны и прокладывать небольшие связующие сегменты протяжённостью до 1 тыс. км. Они заменят суда Léon Thévenin (построено в 1983 году и базируется в Южной Африке) и Antonio Meucci (построено в 1987 году, базируется в Италии), которые сейчас обслуживают кабели в Атлантическом и Индийском океанах, в Средиземном, Чёрном и Красном морях.

Строительство поручено верфи Colombo Dockyard в Шри-Ланке (на ней же строили Sophie Germain), корабли будут готовы в 2028 и 2029 гг. соответственно. Дизайн новых судов позволит на 20 % снизить выбросы CO2 в сравнении с действующими кораблями. Среди особенностей кораблей отмечаются:

  • обтекаемые корпуса для повышения эффективности расхода топлива;
  • гибридная дизель-электрическая силовая установка с бортовым энергохранилищем;
  • азиподные движители для точного маневрирования;
  • возможность подключения к береговой электросети — это обеспечит нулевые выбросы в порту;
  • наличие собственного подводного робота с дистанционным управлением (ROV) для обрезания кабелей, их обследования, заглубления в дно.

По словам Orange Marine, дефицит кораблей, способных работать с кабелями — одна из ключевых проблем для морской кабельной индустрии. Благодаря новым моделям компания получит самый современный профильный флот в мире и сможет обеспечить глобальное обслуживание клиентов, обеспечивая сниженные углеродные выбросы.

В июле 2025 года Infra-Analytics совместно с TelegeGeography обнародовали материалы, посвящённые трендам, вызовам и стратегиям, касающимся кабельной интернет-инфраструктуры. Главный вывод — в ближайшем будущем миру грозит дефицит судов для ремонта подводных кабелей.

Постоянный URL: http://servernews.ru/1132117
10.11.2025 [09:24], Сергей Карасёв

QNAP выпустила стоечное хранилище TS-h2477AXU-RP на платформе AMD

Компания QNAP Systems анонсировала сетевое хранилище (NAS) корпоративного класса TS-h2477AXU-RP, которое использует аппаратную платформу AMD, ОС QTS 5.2.6 и файловую систему ZFS. Новинка выполнена в форм-факторе 4U для монтажа в серверную стойку.

Применён процессор серии Ryzen 7 Pro 7000 с восемью ядрами (16 потоков) с максимальной тактовой частотой до 5,3 ГГц. В состав чипа входит ускоритель AMD Radeon Graphics. Объём оперативной памяти DDR5 в стандартной конфигурации составляет 32 Гбайт (расширяется до 192 Гбайт в виде четырёх модулей на 48 Гбайт). Есть 5 Гбайт интегрированной флеш-памяти.

Во фронтальной части располагаются 24 отсека для LFF/SFF-накопителей с интерфейсом SATA-3: могут применяться HDD или SSD с горячей заменой. Кроме того, предусмотрены два внутренних коннектора M.2 2280 для SSD с интерфейсом PCIe 5.0 x2. При использовании HDD на 30 Тбайт суммарная полезная ёмкость, как отмечает QNAP, достигает 600 Тбайт. При этом могут быть добавлены модули расширения: например, при использовании восьми дополнительных массивов TL-R2400PES-RP на 24 накопителя каждый можно получить ещё 192 отсека для HDD/SSD.

 Источник изображений: QNAP

Источник изображений: QNAP

Есть по два сетевых порта 2.5GbE и 10GbE. Хранилище получило три слота PCIe 4.0 х4, в которые могут устанавливаться карты расширения, включая сетевые адаптеры 25GbE. Имеются также два порта USB 3.2 Gen2 Type-A.

Питание обеспечивают два блока мощностью 800 Вт с резервированием. За охлаждение отвечают три системных вентилятора диаметром 60 мм. Диапазон рабочих температур — от 0 до +40 °C. Габариты устройства составляют 177,35 × 432,4 × 511,7 мм, масса — 18,62 кг без установленных накопителей. Производитель предоставляет на модель TS-h2477AXU-RP пятилетнюю гарантию.

Постоянный URL: http://servernews.ru/1132115
09.11.2025 [13:38], Сергей Карасёв

Nebius Аркадия Воложа развернула в Великобритании платформу AI Cloud на базе NVIDIA HGX B300

Компания Nebius (бывшая материнская структура «Яндекса» Yandex N.V.) объявила о своём первом развёртывании ИИ-инфраструктуры в Великобритании. Кластер Nebius AI Cloud расположен в кампусе Longcross Park на площадке Ark Data Centres недалеко от Лондона. Как отмечает основатель и генеральный директор Nebius Аркадий Волож, Великобритания является одним из ведущих ИИ-центров в мире. Поэтому для компании создание кластера на территории этой страны имеет большое значение.

Кластер состоит из 126 стоек с оборудованием, размещённых в трёх машинных залах. В рамках первой фазы проекта установлены 4 тыс. ускорителей NVIDIA HGX B300 (Blackwell Ultra) в составе серверов пятого поколения (Gen5) собственной разработки Nebius. Вторая фаза предполагает монтаж ещё 3 тыс. ускорителей B300. Общая мощность системы — 16 МВт.

По заявлениям Nebius, британский кластер AI Cloud использует передовые энергоэффективные технологии охлаждения, сетевое подключение NVIDIA Quantum-X800 InfiniBand с низкой задержкой и надёжную локальную систему генерации электроэнергии. Говорится о полной интеграции с программной платформой NVIDIA AI Enterprise, предназначенной для разработки и развёртывания ИИ-приложений.

 Источник изображения: Nebius

Источник изображения: Nebius

Объединяя нашу облачную инфраструктуру с новейшими технологиями NVIDIA, мы предоставляем организациям по всей Великобритании возможность обучать, развёртывать и масштабировать модели и приложения ИИ быстрее, безопаснее и эффективнее, чем когда-либо», — говорит Волож.

Британский кластер использует облачную платформу Nebius AI Cloud 3.0 Aether, которая разработана специально для создания и использования ИИ в таких областях, как здравоохранение, финансы, науки о жизни, корпоративный сектор и государственная сфера. Говорится о поддержке сквозного шифрования и о полном соответствии стандартам защиты данных GDPR и CCPA.

Ранее Nebius сообщила о запуске своего первого кластера AI Cloud в Израиле, который расположился на площадке в Модиине (Modiin). У Nebius также имеются дата-центры в Финляндии, Франции и США.

Постоянный URL: http://servernews.ru/1132113
09.11.2025 [00:35], Владимир Мироненко

Создание Microsoft массивной ИИ-инфраструктуры в ОАЭ повышает риск утечки технологий и ресурсов в Китай

Поддержка Microsoft масштабного развёртывания ИИ-инфраструктуры в ОАЭ, объём инвестиций которой в 2023–2029 гг. в различные проекты в стране составит $15,2 млрд, вызывает опасения у экспертов по поводу обеспечения безопасности, пишет ресурс Dark Reading. В партнёрстве с местной ИИ-компанией G42, поддерживаемой суверенным фондом благосостояния ОАЭ, Microsoft строит первую очередь ИИ-кампуса с новейшими ускорителями NVIDIA.

За время президентства Джо Байдена (Joe Biden) Microsoft поставила в ОАЭ эквивалент 21,5 тыс. ускорителей NVIDIA A100. А при администрации Дональда Трампа (Donald Trump) компания получила экспортные лицензии, которые позволяют поставить в ОАЭ эквивалент ещё 60,4 тыс. A100. В прошлом году Microsoft инвестировала в G42 $1,5 млрд. В мае этого года пять компаний — Cisco, NVIDIA, OpenAI, Oracle и SoftBank Group — объединили усилия с G42 для создания Stargate UAE — вычислительного кластера мощностью 1 ГВт в рамках проекта по строительству 5-ГВт ИИ-кампуса.

Что касается безопасности, то при заключении Microsoft соглашения об инвестициях в G42 обеим сторонам пришлось согласовать обязательный рамочный документ — Межправительственное соглашение о гарантиях (IGAA) — для соблюдения передовых требований в области кибербезопасности, физической безопасности, экспортного контроля и политики «Знай своего клиента» (KYC). Однако, по неофициальным данным, одним из условий сделки Microsoft с G42 также был отказ ОАЭ от сотрудничества с Китаем и вывод ряда китайских решений из инфраструктуры страны.

 Источник изображения:  Jonathan Cosens Photography / Unsplash

Источник изображения: Jonathan Cosens Photography / Unsplash

Безопасность — ключевой элемент уравнения, особенно учитывая, что ОАЭ считаются «сложным» партнёром для США, говорит Джанет Иган (Janet Egan), старший научный сотрудник и заместитель директора программы технологий и национальной безопасности Центра новой американской безопасности (CNAS), указав на то, что в ОАЭ не демократический режим и поддерживаются тесные партнёрские отношения с Китаем, в том числе по вопросам безопасности. «США стремятся приблизить [ОАЭ] к своей орбите и геостратегическому партнёрству, но в то же время должны быть очень осторожны, чтобы не вооружить другую страну, которая может затем сместить или отделить свои интересы от интересов США», — отметила Иган.

Опасения понятны — контролировать дата-центры с новейшими технологиями за пределами США гораздо сложнее. Это касается и возможных утечек, и готовности к атакам любого рода. Кроме того, КНР уже не раз ловили на использовании облачной инфраструктуры с передовыми чипами через посредников. Этот вопрос снова был поднят в связи со сделками между G42 и Cerebras. Последняя не только является разработчиком ИИ-ускорителей, но и поставщиком облачных ИИ-решений.

ОАЭ — важный союзник США в регионе и самый активный в мире разработчик ИИ-технологий — согласно отчёту Microsoft «AI Diffusion Report» страна занимает первое место по уровню использования ИИ. Страна всерьёз собирается стать ИИ-сверхдержавой. Впрочем, это не мешает, к примеру, китайской Alibaba Cloud развиваться в стране, а Huawei — пытаться продать ОАЭ собственные ускорители Ascend, пока США тянули с разрешением на поставки чипов NVIDIA.

По словам вице-председателя и президента Microsoft Брэда Смита (Brad Smith), при администрации Байдена компания проделала «значительную работу… для соответствия строгим требованиям кибербезопасности, национальной безопасности и другим технологическим требованиям, предъявляемым лицензиями на экспорт чипов». Последние разрешения на экспорт чипов, выданные нынешней администрацией Белого дома, потребовали ещё более строгих технологических гарантий, отметил Dark Reading.

Постоянный URL: http://servernews.ru/1132109
08.11.2025 [12:53], Сергей Карасёв

WORM, WORSe и WORN — определены три уровня архивного хранения данных для ИИ-систем

Организация Active Archive Alliance, по сообщению ресурса Blocks & Files, определила три основных уровня архивного хранения данных в эпоху ИИ. Предложенная концепция поможет преобразовать архивы из пассивных хранилищ в активные механизмы с возможностью быстрого извлечения нужных сведений.

Active Archive Alliance — это отраслевая группа, сформированная в 2010 году для продвижения концепции «активных архивов». Такие системы обеспечивают упрощённый и быстрый доступ к любым данным в любое время. В состав альянса входят Arcitecta, BDT Media Automation GmbH, Cerebyte, FujiFilm, IBM, Iron Mountain, MagStor, Point, Savartus, Spectra Logic, Wasabi, Western Digital и XenData.

 Источник изображений: Horison Information Strategies / Blocks & Files

Источник изображений: Horison Information Strategies / Blocks & Files

Отмечается, что на фоне стремительного развития ИИ организациям в различных отраслях всё чаще требуется быстрый доступ к огромным объёмам исторической информации. Помочь в удовлетворении таких потребностей призван «активный архив». Архитектура таких платформ предполагает применение накопителей разных типов — SSD, HDD, оптических дисков и ленточных устройств. Распределение данных между ними управляется при помощи специального интеллектуального ПО. Сами накопители могут размещаться локально или в облаках. Предусмотрены различные слои архивирования: «горячие» (SSD, HDD), «тёплые» (HDD, оптические диски) и «холодные» (LTO). Данные по мере старения перемещаются от горячего до холодного слоя, но могут вернуться обратно в случае необходимости.

При этом Active Archive Alliance предлагает три уровня доступа к информации — WORM (Write Once, Read Many), WORSe (Write Once, Read Seldom) и WORN (Write Once, Read Never.) Первый предполагает однократную запись и многократное чтение, второй — однократную запись и редкое чтение, третий — однократную запись при практически полном отсутствии операций чтения. Эти уровни соответствуют трём типам хранилищ — активному, архивному и глубокому. Все они относятся к вторичным массивам, на которые, по оценкам, приходится около 80 % данных (ещё 20 % располагаются в первичных высокопроизводительных системах). Причём активный ярус хранения обеспечивает около 15 % ёмкости, архивный — 60 %, глубокий — только 5 %.

Постоянный URL: http://servernews.ru/1132080
Система Orphus