Материалы по тегу:
|
08.04.2026 [12:40], Руслан Авдеев
Иран угрожал США уничтожением ИИ ЦОД OpenAI Stargate в ОАЭВ ответ на ультиматум США, пригрозивших Ирану уничтожением электростанций и мостов, представители иранских властей пообещали сравнять с землёй один из флагманских кампусов ЦОД проекта Stargate в Абу-Даби (ОАЭ), сообщает eWeek. В соцсети X опубликовано заявление с видео скрытого на картах Google кампуса.
Источник изображения: Malik Shibly/unsplash.com Незадолго до этого КСИР назвал 18 американских компаний, включая Apple, Microsoft, NVIDIA и Tesla законными военными целями. При этом конкретные объекты не назывались, кампус Stargate стал первым, о котором упомянули официально. При этом кампус G42, где размещаются мощности Stargate — не просто один из множества, это один из крупнейших кампусов Stargate в мире. Объект стоимостью $30 млрд по плану получит 5 ГВт мощностей и 500 тыс. ИИ-ускорителей NVIDIA. Предполагается, что кампус станет сердцем проекта за пределами США. Облачная и ИИ-инфраструктура, связанная с американскими бизнесами, уже пострадала от иранских ударов. Это коснулось мощностей AWS в ОАЭ и Бахрейне. Как сообщает Datacenter Dynamics, в начале апреля КСИР заявил об атаках на кампус Oracle, также названной в числе «законных целей». По некоторым данным, пострадало здание компании в технопарке Dubai Internet City. Впрочем, официального подтверждения Oracle пока так и не поступало.
08.04.2026 [12:19], Сергей Карасёв
Плата iBase MBB1002 с поддержкой AMD EPYC Embedded 8004 рассчитана на периферийные ИИ-системыКомпания iBase Technology анонсировала материнскую плату MBB1002 типоразмера eATX, предназначенную для построения периферийных систем с функциями ИИ. Новинка выполнена на платформе AMD EPYC Embedded 8004 (Siena), которая дебютировала в конце 2024 года. Плата допускает установку процессора в исполнении AMD SP6 (LGA 4844). Доступны шесть слотов RDIMM для модулей оперативной памяти DDR5-3600/4000/4400/4800 суммарным объёмом до 576 Гбайт с поддержкой ECC (в конфигурации 6 × 96 Гбайт). Предусмотрены четыре порта SATA-3 для накопителей, разъём М.2 2280 для SSD с интерфейсом PCIe 5.0 и два коннектора MCIO (Mini Cool Edge IO) x4. Новинка располагает пятью слотами PCIe 5.0 x16 для карт расширения. Реализованы два сетевых порта 10GbE (контроллер Intel XC710-AT2). За безопасность отвечает чип TPM 2.0. Есть четыре 4-контактных разъёма для подключения вентиляторов охлаждения (один для CPU и три системных). Размеры материнской платы составляют 304 × 244 мм. Интерфейсный блок содержит два порта USB 3.0, два гнезда RJ45 для сетевых кабелей и последовательный порт (RS232 на базе коннектора RJ45). Через внутренние разъёмы могут быть задействованы два порта USB 2.0. Диапазон рабочих температур простирается от 0 до +60 °C. Модель iBase MBB1002 подходит для решения задач в области автоматизации, интеллектуального производства, промышленного интернета вещей, вычислений на периферии, аналитики данных в реальном времени и пр.
08.04.2026 [09:22], Владимир Мироненко
Стране нужен FP64: AMD пообещала повысить HPC-производительность ускорителей Instinct MI430XПосле анализа ограничений эмуляции FP64-вычислений с использованием схемы Озаки разработчики AMD пришли к выводу, что в настоящее время нет замены «сырой» производительности FP64. Как сообщил научный сотрудник AMD Николас Малайя (Nicholas Malaya) ресурсу HPCwire, чтобы обеспечить точность традиционных задач моделирования и симуляции, компания намерена нарастить нативную FP64-производительность ускорителя Instinct MI430X. Ускоритель станет основой суперкомпьютера Discovery, который будет установлен в Национальной лаборатории Ок-Ридж (ORNL) в 2028 году. Как отметил Кацухиса Озаки (Katsuhisa Ozaki) и два других японских исследователя, схема Ozaki — это многообещающая новая техника эмуляции, призванная позволить учёным выполнять высокоточные умножения матриц на оборудовании с поддержкой INT8/FP8, к которому относятся современные ИИ-ускорители, путём многократных вычислений с более низкой точностью. Текущие реализации Ozaki-I и Ozaki-II имеют ограничения, которые исключают их использование в реальных условиях, сообщил Малайя. Он указал на две основные проблемы. Во-первых, ПО не соответствует стандарту IEEE и не даёт того же результата, что и запуск кода на реальном оборудовании с поддержкой FP64. «В некоторых случаях это нормально, — сказал он. — Но во многих распространённых матрицах, которые мы наблюдали, влияние на точность довольно существенно.». Во-вторых, схема Озаки нацелена на квадратные матрицы. Если таковые в расчётах не используется, то итоговая производительность оказывается ниже, чем у нативного FP64-исполнения, говорит Малайя. Кроме того, HPC-приложения традиционно опираются на векторные вычисления, а не на тензорные или матричные, которые характерны для ИИ-нагрузок. Фактически ситуация ещё хуже — менее 10 % реальных HPC-приложений внесли изменения в DGEMM-коды, которые позволяют воспользоваться преимуществами Ozaki. «Насколько мне известно, с Ozaki-I, Ozaki-II или любой другой существующий метод нельзя применить к векторным инструкциям, — говорит Малайя. — Это ключевой нюанс, который, как мне кажется, упускается». На DGEMM действительно уходит много вычислительных ресурсов, что позволяет использовать схему Ozaki, «но она не решает 90 % HPC-задач». AMD собирается поддерживать эмуляцию Ozaki на своих чипах, сообщил Малайя. «Нет причин этого не делать. Это ПО. <…> И у вас могут быть библиотеки, которые позволяют динамически переключаться между нативными расчётами и Ozaki и, вероятно, оценивать его», — сказал он, добавив, что программную эмуляцию можно иметь в виду в качестве резервного варианта для FP64-вычислений. Но в конечном итоге Ozaki не является работоспособной альтернативой «железу» с FP64, сказал Малайя, уточнив, что не он один так считает. В настоящее время компания разрабатывает MI430X, специализированную версию ускорителя следующего поколения MI450, который будет обладать значительной FP64-производительностью. По словам Малайи, она будет значительно больше, чем у ускорителя MI355X, который обеспечивает 78,6 Тфлопс. По факту, это меньше, чем у предыдущей модели MI325X, которая обеспечивала 81,7 Тфлопс — в обоих случаях речь и про векторные, и про матричные FP64-вычисления. В любом случае, у всех этих чипов — от MI325 до MI430 — производительность больше, чем у чипов NVIDIA. И Hopper (34 Тфлопс), и Blackwell (40 Тфлопс) уже были медленнее в векторных FP64-вычислениях, но у Hopper хотя бы были нативные 67 Тфлопс в матричных расчётах, тогда как Blackwell в этом случае уже перешёл к схеме Озаки с «ненативными» 150 Тфлопс. Про Blackwell Ultra, где FP64-производительность упала до 1,3 Тфлопс, NVIDIA в данном контексте вообще не вспоминает, но обещает, что у Rubin будет 33 Тфлопс в векторных FP64-расчётах и 200 Тфлопс в матричных (тоже с Озаки). NVIDIA обосновывает отказ от развития аппаратных FP64-блоков тем, что увеличение собственно вычислительной мощности FP64 на самом деле не ускорит научные приложения, поскольку на практике они упрутся в возможности регистров, кешей и HBM. Rubin обеспечит пропускную способность HBM до 22 Тбайт/с, что в 2,8 раза больше, чем у Blackwell. Instinct MI325X предлагает 6 Тбайт/с, MI355X — 8 Тбайт/с, а у MI430X будет уже 19,6 Тбайт/с, сообщил Малайя. По словам Малайи, лучше всего синхронно «вкладываться» и в HBM, и в количество операций с плавающей запятой. «На самом деле важен коэффициент байт/флопс. С нашей точки зрения, необходимо поддерживать гораздо более близкое соотношение к тому, что мы видим в современных продуктах, — сказал он. — Необходимо значительно приблизиться к этому соотношению с точки зрения увеличения производительности FP64, чтобы сохранить тот же уровень, как это называют, арифметической интенсивности». Поскольку AMD обеспечит 2,5-кратное увеличение ПСП HBM от MI355 до MI430X, аналогичное 2,5-кратное увеличение производительности FP64 также будет оправдано. Таким образом можно примерно прикинуть, что MI430X может обеспечить производительность FP64 от 192 до 204 Тфлопс в зависимости от того, какой из них будет базовым: более новый MI355 или более быстрый MI325, сообщил HPCwire, добавив, что это всего лишь предположение, поскольку компания пока не сообщила точные характеристики будущих чипов. Кроме того, не до конца ясно, будет ли FP64-производительность одинакова для векторных и матричных расчётов. FP64-вычисления «очень важны» для «Миссии Генезис» (Genesis Mission), заявил ранее заместитель министра энергетики США (DoE) по науке и инновациям Дарио Гил (Darío Gil). Он отметил, что и глава AMD Лиза Су (Lisa Su), и глава NVIDIA Дженсен Хуанг (Jensen Huang), выразили твёрдую приверженность FP64, подтвердив, что поддержка формата будет продолжаться. «FP64 имеет решающее значение для поддержки рабочих нагрузок моделирования и симуляции, не только для дальнейшего развития традиционных научных исследований, но и для предоставления исходных данных для обучения новых ИИ-моделей», — добавил Гил. «Всегда существует баланс между тем, сколько требуется FP64- и FP16-вычислений», — сказал Малайя. «AMD утверждает, что нам необходимо поддерживать широкий спектр типов данных в зависимости от их потребностей. Не получится, чтобы всем были нужны FP64, которых хватит для всего.», — отметил он. Малайя сообщил, что всегда бывают исключения. Например, ИИ-симуляции сворачивания белков, такие как AlphaFold и Openfold, используют FP32. Да и некоторым традиционным HPC-задачам, таким как молекулярная динамика, не требуется FP64-точность. Тем не менее, сейчас существует значительный неудовлетворенный спрос на FP64, утверждает учёный. «Что касается высокопроизводительных вычислений, мы считаем, что им по-прежнему потребуется много FP64, — сказал он. — Будут использоваться некоторые коды, которые полностью ограничены пропускной способностью памяти, и им не нужно так много. Но есть, например, коды вычислительной химии и некоторые другие, которые действительно имеют высокую арифметическую интенсивность, и они будут использовать FP64».
07.04.2026 [20:08], Владимир Мироненко
Red Hat добавила ещё четыре года платной поддержки RHEL 8/9/10Компания Red Hat представила программу расширенной платной поддержки «Extended Life Cycle, Premium», разработанную для обеспечения «легкодоступных и значительно более длительных жизненных циклов» наиболее важных систем организаций, управляющих критически важными рабочими нагрузками. Red Hat отметила, что это премиальное предложение на основе подписки RHEL Premium, увеличивающее срок обслуживания за пределы традиционного десятилетнего периода, предназначено для высокорегулируемых отраслей, таких как финансовые услуги, телекоммуникации, государственное управление, здравоохранение, транспорт, производство и энергетика, где операционная согласованность и строгое соответствие нормативным требованиям имеют первостепенное значение. Программа предлагает 14-летний жизненный цикл сопровождения основной версии RHEL — Red Hat Enterprise Linux 8/9/10: в дополнение к стандартному 10-летнему жизненному циклу поддержки и обслуживания заказчик получит ещё четыре года расширенного обслуживания. Как отметил ресурс OpenNET, ранее дополнительная платная поддержка в течение четырёх лет предоставлялась для выпуска RHEL 7. В рамках новой программы будет увеличен время дополнительной публикации обновлений для промежуточных выпусков (субрелизы RHEL 10.1, 10.2, 10.3 и т.п.). Red Hat может предоставлять исправления безопасности для критических, важных и умеренных CVE с оценкой CVSS 7 или выше, как определено Red Hat в уведомлении о безопасности RHSA, а также срочные и отдельные исправления ошибок высокого приоритета согласно RHBA. Обновления с устранением уязвимостей с уровнем опасности CVSS 7 и выше, а также исправлением серьёзных ошибок для промежуточных веток теперь будет выпускаться в течение шести лет вместо двух лет Extended Update плюс ещё два года по отдельной подписке Extended Extended Update, что позволит сократить операции перехода на новые промежуточные выпуски в системах, обслуживающих непрерывно работающие критически важные сервисы. Поддержка промежуточных выпусков будет осуществляться через релиз. Ветку RHEL 10 в целом планируют сопровождать до 2039 года, ветку RHEL 9 — до 2036 года, RHEL 8 — до 2033 года. Что касается других дистрибутивов, до 16 лет поддерживается SUSE Linux, 15 лет — Ubuntu, 10 лет (5 лет LTS + 5 лет Extended LTS) — Debian GNU/Linux, 2 года — openSUSE и 13 месяцев — Fedora Linux.
07.04.2026 [17:25], Руслан Авдеев
Австралийское неооблако Firmus при поддержке NVIDIA привлекло $505 млн и нарастило капитализацию до $5,5 млрд в преддверии IPOСпециализирующаяся на строительстве и эксплуатации ИИ ЦОД австралийская Firmus Technologies, поддерживаемая NVIDIA, привлекла $505 млн инвестиции при оценке капитализации в $5,5 млрд. Средства получены в ходе нового раунда финансирования перед выходом на IPO на Австралийской фондовой бирже (ASX) в конце 2026 года, сообщает Silicon Angle. Основанная в 2019 году Firmus строит и эксплуатирует ИИ-инфраструктуру на базе кластеров ускорителей. Дата-центры компании оптимизированы для использования с аппаратными решениями NVIDIA. Это позволяет клиентам развёртывать стандартизированные среды как для обучения ИИ-моделей, так и для инференса. Системы распределения питания и охлаждения обеспечивают работу при высоких вычислительных нагрузках. Доступ к вычислительным мощностям Firmus обеспечен через управляемые инфраструктурные экосистемы, в которых развёртывание, настройка и текущая работа осуществляется в рамках единой платформы. Сегодня компания строит флагманский кампус за $1,37 млрд в Лонсестоне (Launceston) на севере Тасмании. Для ЦОД предусмотрено использование систем рециркуляции воды, АКБ, а также питание от местной ГЭС. Предполагается, что ЦОД получит 36 тыс. NVIDIA GB300.
Источник изображения: Michael Jerrard/unspalsh.com Раунд финансирования возглавила Coatue Management при поддержке NVIDIA, играющей активную роль инвестора и стратегического партнёра. Полученные средства используют для масштабирования мощностей ЦОД: строительства новых объектов, развёртывания ИИ-ускорителей и создания необходимой инфраструктуры для энергоснабжения и охлаждения. В 2025 году компания уже привлекла порядка $715 млн, включая раунд на $327 млн в ноябре. В феврале она привлекла $10 млрд в кредит на строительство ИИ-фабрик Project Southgate. Минувший раунд был третьим и последним перед IPO в июне или июле. Оператор рассчитывает привлечь около $2 млрд дополнительных средств. Morgans Financial и Morgan Stanley представят информацию потенциальным инвесторам в ближайшие дни. Если IPO состоится, оно станет одним из крупнейших в Австралии за текущее десятилетие, более того — одним из крупнейших в истории страны, если принимать в расчёт только технологические компании. Обычно австралийские технобизнесы предпочитают для IPO биржи вне континента. Firmus на этом фоне выглядит довольно белой вороной, решившей сделать ставку на Australian Stock Exchange. В конце марта сообщалось, что австралийские власти принимают меры по ужесточению контроля за развитием ИИ-инфраструктуры на территории страны. В частности, они внедряют новую систему, связывающую утверждение проектов новых ЦОД с вливаниями в энергетику, управлением ресурсами и влиянием дата-центров на внутреннюю экономику.
07.04.2026 [16:22], Руслан Авдеев
Инвесторы требуют от Amazon, Microsoft и Google прозрачности отчётов о расходах воды и электроэнергии в ЦОД СШАПомимо давления, по разным причинам оказываемого на Amazon, Microsoft и Google общественностью, более внимательнее к деятельности гиперскейлеров стали и инвесторы, сообщает Reuters. От компаний теперь требуют более подробных отчётов о расходах электроэнергии и воды. Reuters сообщает, что более десятка инвестиционных компаний желают знать об использовании воды и мерах её экономии на фоне желания IT-гигантов расширить вычислительные мощности. Бостонская Trillium Asset Management, управляющая активами на сумму более $4 млрд, в декабре 2025 года обратилась к Alphabet, желая получить ясность относительно достижения гиперскейлером климатических целей, поскольку потребности дата-центров компании только растут. В 2020 году техногигант обещал сократить вредные выбросы вдвое, а к 2030 году перейти на безуглеродные источники энергии, но, по данным Trillium, выбросы выросли на 51 % (а за полтора десятка лет и вовсе на 1515 %), и теперь инвесторам очень интересно, когда компания намерена добиться климатических целей. Инвестфонд Green Century Capital Management сообщил о переговорах с NVIDIA для «вынесения резолюции», в соответствии с которой будут приняты меры для того, чтобы краткосрочные выгоды от ИИ не достигались ценой долгосрочных климатических и финансовых рисков. В первую очередь инвесторы требуют больше информации о расходе воды. По статистике Mordor Intelligence, в 2025 году североамериканские ЦОД использовали без малого 1 млрд м3 питьевой воды, что приблизительно равно годовой потребности Нью-Йорка.
Источник изображения: Parsing Eye/unspalsh.com Хотя Meta✴, Google и Amazon всё активнее используют в своих дата-центрах СЖО с замкнутым контуром, экономно расходующие воду, данные о реальных водных затратах значительно различаются, поскольку нет единых стандартов отчётности. В отчёте Meta✴ за 2025 год раскрыто потребление воды только на принадлежащих и используемых компании участках, но не на тех, которые она арендовала или на объектах в стадии строительства. Общее водопотребление увеличилось на 51 %, с 3,726 млрд м3 в 2020 году до 5,637 млрд м3 в 2024 году. В отчёте Google за 2025 год есть общие данные об объектах, находящихся в собственности или аренде, но информация об объектах, управляемых третьими сторонами отсутствует. По словам Amazon, компания всё чаще раскрывает данные о потреблении воды на конкретных объектах и стремится быть «хорошим соседом», инвестируя в повышение эффективности, ввод в эксплуатацию новых источников энергии и сокращение водопользования. Microsoft заявляет, что экоустойчивость является «основной ценностью» компании и она активно решает проблемы устойчивого развития, в то же время ускоряя разработку решений для достижения долгосрочного эффекта. Инвесторы подчёркивают, что решающее значение имеют именно данные о расходе на отдельных объектах, поскольку партнёры гиперскейлеров могут лучше оценить операционные риски и эффективность управления ресурсами. Так, Calvert Research and Management заявляет, что компании недостаточно подробно рассказывали о потреблении воды и его влиянии на местных жителей. Впрочем, инвесторы обычно ратуют не за экологию, а за надёжный возврат вложенных средств — недостаточная прозрачность отчётов тормозит строительство и развите всё более дорогостоящих ЦОД. Лоббистская группа Коалиция ЦОД (Data Center Coalition), куда входят четыре крупнейших гиперскейлера, заявляет, что улучшение взаимодействия с местными жителями — один из ключевых приоритетов в минувшем году. Жители должны понимать, что проекты не создадут дополнительной нагрузки на местные ресурсы, а люди будут защищены как плательщики коммунальных услуг. По мере того, как число ЦОД растёт, всё чаще случаются и перебои с водой и питанием близлежащих поселений, что вызывает всё большее беспокойство.
07.04.2026 [15:54], Сергей Карасёв
Anthropic развернёт 3,5 ГВт ИИ-мощностей на базе Google TPUАмериканская компания Anthropic, занимающаяся разработками в сфере ИИ, сообщила о расширении использования облачной инфраструктуры Google Cloud, а также ускорителей Google TPU. Это поможет в масштабировании больших языковых моделей (LLM), а также в развитии агентного ИИ и корпоративных приложений. О том, что Anthropic намерена закупить огромную партию чипов Google TPU, стало известно в конце прошлого года. Тогда говорилось, что будут приобретены около 1 млн ускорителей TPU v7 (Ironwood) общей мощностью примерно 1 ГВт. Позднее сообщалось, что часть изделий будет куплена напрямую у Broadcom, которая занимается выпуском TPU для Google. Как теперь отмечается, в общей сложности Anthropic получит доступ к «нескольким гигаваттами мощности на базе TPU»: ввод этих вычислительных ресурсов в эксплуатацию ожидается в начале 2027 года. Доступ к части ускорителей будет осуществляться посредством Google Cloud Platform (GCP). Ресурс The Register уточняет, что в общей сложности Anthropic получит 3,5 ГВт мощностей для ИИ-вычислений с использованием Google TPU. Вместе с тем Anthropic прогнозирует значительное увеличение выручки: ожидается, что в 2026 году она превысит $30 млрд. Недавно компания провела раунд финансирования на $30 млрд, в результате чего её капитализация достигла $380 млрд. Anthropic подчёркивает, что всего за два месяца количество её клиентов, которые платят не менее $1 млн ежегодно, поднялось в два раза, превысив 1 тыс. Сообщается также, что Anthropic продолжает расширять использование облачных сервисов Google Cloud, включая BigQuery, Cloud Run и AlloyDB. Тысячи клиентов получают доступ к ИИ-моделям Anthropic Claude именно через платформу Google Cloud: в числе таких пользователей названы Coinbase, Cursor, Palo Alto Networks, Replit и Shopify.
07.04.2026 [15:52], Руслан Авдеев
Лучше синица в руке: операторы ЦОД всё чаще отказывают неооблакам, предпочитая большой выгоде финансовую устойчивостьНесмотря на отличные условия, предлагаемые многими неооблачными провайдерами операторам ЦОД, последние нередко отказывают в заключении сделок. Дело в том, что перспективы прибыли сводятся на нет высокими рисками, сообщает Datacenter Knowledge. Изменения происходят на фоне исторически низкого уровня свободных площадей в Северной Америке, там спрос продолжает превышать новые предложения. Срывы перспективных сделок свидетельствуют о глубинных изменениях в принципах распределения мощностей. После двух лет дефицита предложения и роста цен поставщики мощностей ЦОД перестали принимать во внимание только ценовые факторы. Вместо этого на первый план выходит кредитоспособность партнёра, прозрачность спроса со стороны конечных потребителей, уверенность в обеспечении долгосрочной нагрузки и устойчивости бухгалтерского баланса в многолетней перспективе. По словам экспертов, минимальным условием для участия в сделках стал кредитный рейтинг инвестиционного класса. Согласно исследованиям Datacenter Hawk, средние ставки на размещение оборудования в ЦОД с 2021 года существенно выросли на фоне роста спроса. Крупномасштабные проекты сегодня обходятся в $140–$155/кВт в зависимости от срока действия договора, плотности размещения, а также профиля рисков. Но деньги — не гарантия сделки. Так, сообщается что один из операторов отказал неооблачному провайдеру, который был готов подписать 15-летний контракт по цене до $160/кВт, чтобы получить 2 МВт сразу и до 12 МВт в течение полутора лет. При этом провайдер был готов заранее оплатить счета за первые полгода использования мощностей и вложиться в постройку инфраструктуры СЖО.
Источник изображения: Artturi Jalli/unsplash.com Сильнее всего страдают неооблачные провайдеры, фактически перепродающие доступ к ИИ-инфраструктуре в виде облачных ресурсов. Сегмент GPU-as-a-Service (GPUaaS) быстро развивается вместе с ИИ-рынком, при этом компании вроде CoreWeave, Lambda Labs и Crusoe выступают «агрегаторами» ИИ-ускорителей для предоставления клиентам по запросу. По данным ABI Research, к 2030 году соответствующий рынок может составить $250 млрд. По данным Datacenter Hawk, доступность электроэнергии для них стала важнейшим фактором при выборе площадки. Но девелоперы в последнее время предпочитают взаимодействовать с гиперскейлерами, а не неооблаками. Как минимум, операторы ЦОД требуют от неооблачных компаний более надёжных финансовых гарантий, от аккредитивов (letters of credit) до гарантий поддержки со стороны материнских компаний — или просто отказывают им в сделках, поскольку обеспокоены их долгосрочной устойчивостью. В отличие от крупных облачных провайдеров, неооблачные решения зависят от многих переменных, включая доступность ИИ-ускорителей, договоры с поставщиками и клиентами и др. При этом структура затрат на развёртывание ИИ-систем высокой плотности становится всё сложнее. Всё более востребованная инфраструктура СЖО добавляет $1,5–$1,6 млн/МВт к первоначальным капиталовложениям. Это приблизительно на 20–25 % больше, чем для традиционного воздушного охлаждения. Речь идёт о крупных капитальных затратах, не включенных в ежемесячную плату, а сроки внедрения составляют 6–9 мес. Чаще всего провайдеры перекладывают расходы на клиентов в обмен на незначительное повышение тарифов. В любом случае, для многомегаваттных проектов приходится вкладывать миллионы долларов ещё до начала развёртывания ИИ-оборудования.
Источник изображения: Jakub Żerdzicki/unsplash.com При этом колокейшн-провайдеры неохотно начинают строительство новых мощностей без заключения соглашений об аренде, а неооблачные компании не рискуют заключать контракты без гарантий предоставления им ИИ-ускорителей и договоров с клиентами. Фактически каждая из сторон ждёт, когда партнёр сделает первый шаг. В результате возникает трёхсторонняя зависимость, способная на месяцы затормозить заключение потенциально перспективных сделок или вообще привести к их срыву. Проблему усугубляют новые масштабы внедрения ИИ. Если раньше проекты на 4–10 МВт считались крупными, то теперь это «отправная точка», всё чаще речь идёт о 50+ МВт, а иногда о 100+ МВт. Причём в большинстве регионов удовлетворить потребность в 50 МВт в разумные сроки в одном месте просто невозможно. Клиенты вынуждены распределять рабочую нагрузку между несколькими площадками и операторами, что затрудняет как заключение контрактов, так и финансирование. По мере роста рынка растут и капитальные затраты, и сроки развёртывания — поэтому предпочтение поставщики ЦОД отдают стабильности, а не потенциальной выгоде. Таким образом, успех неооблачных компаний в краткосрочной перспективе будет определяться не соответствием продукта рынку, а способностью привлекать солидный капитал и качественно реализовать проекты. Одним из главных умений будет и способность грамотно организовать логистику — и так продлится пару лет, пока не выявятся победители. На днях сообщалось, что объём мирового рынка неооблаков достигнет $400 млрд к 2031 году. При этом структура рынка довольно запутанная. Гиперскейлеры сами нередко являются клиентами неооблаков. Например, Google открыто поддерживает и финансово страхует Fluidstack, тогда как CoreWeave до IPO скрывала фактическую зависомость от Microsft и NVIDIA. В то же время и сами гиперскейлеры используют весьма сложные схемы для привлечения средств на развитие ИИ-инфраструктуры.
07.04.2026 [13:25], Руслан Авдеев
Tiny Corp готовит «красные» и «зелёные» контейнерные ИИ-системы ExaboxВ следующем году Tiny Corp намерена начать поставки высокопроизводительных контейнерных ИИ-систем Exabox стоимостью $10 млн, сообщает Phoronix. Компания известна разработками открытого ИИ-фрейворка Tinygrad, а также «суверенным» стеком драйверов для ИИ-ускорителей AMD и оборудования Tinybox. Точные характеристики оборудования пока не называются, но производитель рассчитывает, что новинка обеспечит лучшее соотношение производительности, объёма памяти и пропускной способности сети на доллар в своём классе. Exabox представляет собой компактный суперкомпьютер в 20′ контейнере, со всей необходимой инфраструктурой, в том числе программной. Для начала эксплуатации потребуется «всего лишь» бетонное основание и подключение к электросети. Клиенты смогут масштабировать ИИ-инфраструктуру, объединяя контейнеры в единую систему. Готовятся «красный» и «зелёный» варианты на основе ИИ-ускорителей AMD и NVIDIA соответственно. Они получат 400G-интерконнект. Разработчики считают, что при утилизации на уровне 50 % MFU (Model FLOPs Utilization) на обучение модели уровня китайской Kimi может уйти приблизительно 10 недель. Программный стек Tinyguard позволит использовать контейнер как единый ИИ-ускоритель, но никто не мешает использовать и, например, PyTorch. Первый Exabox планируется поставить во II или III квартале 2027 года, но предварительные заказы уже принимаются. За $100 тыс. возвратного депозита можно зарезервировать Exabox.
Источник изображения: Tiny Corp Конечно, контейнерные ЦОД не являются уникальным предложением. Ещё в 2007 году Sun Mycrosystems представила аналогичную концепцию Blackbox. В целом модульные решения уже довольно давно стали частью мейнстрима. Так, Armada представила контейнерный ИИ ЦОД, LG разработала модульные ИИ ЦОД AI Box, а Crusoe представила периферийные дата-центры Crusoe Edge Zones на базе модулей Spark.
07.04.2026 [11:19], Сергей Карасёв
Fujifilm начала продажи картриджей LTO Ultrium 10 с «сырой» ёмкостью 40 ТбайтКорпорация Fujifilm сообщила о доступности картриджей LTO Ultrium 10, способных хранить 40 Тбайт информации в «сыром» виде и до 100 Тбайт со сжатием 2,5:1. На сегодняшний день, как подчёркивается, это самые вместительные изделия семейства LTO Ultrium. Картриджи были представлены в декабре прошлого года. Конструкция предусматривает применение ленты с подложкой на основе арамида, которая отличается уменьшенной толщиной. Используется гибридный материал с ферритом бария и ферритом стронция. Диапазон рабочих температур простирается от +15 до +35 °C против +15–25 °C у стандартных изделий.
Источник изображения: Fujifilm По заявлениям Fujifilm, новые картриджи обеспечивают скорость передачи данных до 400 Мбайт/с. При работе с информацией в сжатом виде этот показатель увеличивается до 1000 Мбайт/с. Поддерживается аппаратное шифрование по алгоритму AES-256. Сохранность записанных сведений заявлена в течение 30 лет и более при соблюдении рекомендованных условий эксплуатации. Для изделий LTO-10 ёмкостью 30 Тбайт доступна опция WORM (однократная запись и многократное чтение), которая предотвращает возможность изменения информации. Отмечается, что картриджи Fujifilm LTO Ultrium 10 вместимостью 40 Тбайт легко интегрируются с существующими ленточными системами поколения LTO-10. Это обеспечивает простоту и эффективность модернизации. Накопители предназначены прежде всего для архивного хранения больших массивов информации. Такие устройства не потребляют энергию в состоянии покоя, что значительно снижает стоимость хранения в расчёте на 1 Тбайт. При этом достигается высокий уровень безопасности: благодаря возможности формирования «воздушного зазора» гарантирована целостность данных даже в скомпрометированных средах. Нужно отметить, что картриджи LTO Ultrium 10 с «сырой» ёмкостью 40 Тбайт также представила корпорация IBM. |
|

