Материалы по тегу:
|
21.01.2026 [09:45], Руслан Авдеев
Amazon приобрела 1,2-ГВт проект солнечной электростанции и энергохранилища для питания своих ЦОДAmazon приобрела за $83 млн у обанкротившейся Pine Gate Renewables перспективный объект Sunstone в округе Морроу (Morrow, Орегон). Это один из крупнейших в мире комплексов зелёной энергетики, который включает солнечную электростанцию мощностью 1,2 ГВт и аккумуляторное энергохранилище, тоже мощностью 1,2 ГВт (ёмкость не уточняется), сообщает Datacenter Dynamics. Предыдущий владелец сделал все необходимые приготовления, но собственно строительство не начал из-за финансовых проблем. Реализация запланирована в шесть этапов по 200 МВт. Уже заключены поэтапные соглашения с местным энергетическим кооперативом о подключении к сети для каждой фазы и имеется несколько заявок на резервирование магистральных сетей для транспортировки электроэнергии потребителям. Строительство начнётся в 2026 году, а первая фаза должна заработать в ноябре 2027 года. С учётом масштаба проекта на достижение полной проектной мощности должно уйти довольно много времени. Связано ли банкротство с новой политикой администрации США, не уточняется. Соглашение не вполне характерно для Amazon, обычно заключающей договоры на поставку энергии (PPA). Это чуть ли не первый случай, когда гиперскейлер становится владельцем крупного проекта возобновляемой энергетики. Впрочем, сделка отражает общие тенденции сектора ЦОД — операторы стремятся самостоятельно обеспечить питание своих дата-центров, и солнечная энергия остаётся для них очень привлекательной. Так, Google объявила о покупке за $4,75 млрд Intersect Power, у которой есть 2,2 ГВт солнечных панелей и 2,4 ГВт аккумуляторных энергохранилищ, строящихся или уже готовых. Сделка Amazon несколько отличается, поскольку гиперскейлер покупает проект, а не саму компанию. Для неё это вынужденный шаг, поскольку местная коммунальная компания PacifiCorp так и не смогла предоставить ЦОД AWS (регион US West 2) обещанные мощности, а власти запретили Amazon построить газовую электростанцию на топливных ячейках Bloom Energy. В результате гиперскейлер обратился к местному регулятору Oregon Public Utilities Commission, чтобы тот заставил коммунальную компанию поставить электричество в обещанных объёмах или разрешить Amazon закупать электричество у любого поставщика по её выбору.
20.01.2026 [23:54], Владимир Мироненко
Intel переманила «крёстного отца» экзафлопсного суперкомпьютера FrontierIntel провела кадровые перестановки в руководящем составе, наняв двух специалистов «со стороны» в рамках запланированного развития на рынке ИИ-инфраструктуры, сообщил ресурс CRN со ссылкой на служебную записку компании. Согласно документу, Николя Дюбе (Nicolas Dubé) ранее занимавший пост старшего вице-президента в Arm, был назначен на должность главы подразделения систем для ЦОД, а Эрик Демерс (Eric Demers), бывший топ-менджер Qualcomm, на должность главы подразделения разработки GPU. О назначениях объявил вице-президент и генеральный директор группы ЦОД Intel Кеворк Кечичян (Kevork Kechichian), которому будут непосредственно подчиняться оба руководителя. После реорганизации ему также будет подчиняться Жан-Дидье Аллегруччи (Jean-Didier Allegrucci), вице-президент по разработке SoC для ИИ. Генеральный директор Intel Лип-Бу Тан (Lip-Bu Tan) назвал способность конкурировать с чипами NVIDIA и других участников рынка одним из своих главных приоритетов в рамках плана возвращения компании на рынок после того, как она столкнулась с трудностями в привлечении клиентов к своим предыдущим ускорителям. «Объединение усилий в области Xeon, сетевых технологий и телекоммуникаций, а теперь и ИИ, укрепляет позиции x86, что является одним из ключевых преимуществ по мере того, как ИИ смещается в сторону инференса и агентных систем», — написал Кечичян в служебной записке. Эта реорганизация представляет собой отмену решения Тана, который в апреле прошлого года вывел группу разработчиков ИИ-ускорителей из подразделения, ранее называвшегося группой ЦОД и ИИ. Этот шаг снова меняет организационную структуру Intel: Кечичян принимает на себя обязанности по разработке ИИ-ускорителей от Тана. Генеральный директор возглавил её в ноябре прошлого года после того, как предыдущий руководитель команды, Сачин Катти (Sachin Katti), внезапно покинул компанию в связи с переходом в OpenAI. По поводу решения Тана вернуть команду разработчиков ИИ-ускорителей в группу ЦОД, Кечичян пояснил: «ИИ и современный ЦОД фундаментально связаны». В качестве руководителя подразделения Intel по системам и решениям для ЦОД Дюбе будет «определять техническую архитектуру и стратегию [группы ЦОД] в направлении создания комплексных систем и решений, от микросхем до приложений, обеспечивая интегрированные решения в области вычислительных ресурсов, хранения данных и сетей», — сообщил Кечичян в служебной записке. Дюбе также возьмёт на себя руководство командой Intel по интегрированным решениям в области кремниевой фотоники, которая ранее подчинялась исполнительному директору компании Джеффу Маквейгу (Jeff McVeigh). При этом Дюбе будет использовать свой опыт системной инженерии в Arm, а также опыт 13 лет работы в HPE, где «он руководил проектированием, реализацией и внедрением» программы компании по созданию первого в США экзафлопсного суперкомпьютера Frontier. По поводу обязанностей Демерса, Кечичян заявил, что топ-менджер, ранее возглавлявший разработку GPU в Qualcomm, будет руководить разработкой IP-блоков для GPU и курировать решения Intel для ЦОД на базе GPU. Круг его обязанностей будет включать в себя «координацию работы по архитектуре, компиляторам и драйверам для успешной разработки интегрированного аппаратного и ПО», добавил он. Демерс «будет тесно сотрудничать» с Лизой Пирс (Lisa Pearce), корпоративным вице-президентом и генеральным директором группы разработки ПО компании, а также с командой разработчиков ПО для GPU, чтобы «оптимизировать работу команд и рабочий процесс для достижения максимального эффекта», указал Кечичян в служебной записке.
20.01.2026 [21:58], Владимир Мироненко
Tesla возобновит строительство ИИ-суперкомпьютеров DojoГендиректор Tesla (Elon Musk) Илон Маск объявил в соцсети Х о решении компании возобновить работу над Dojo3, третьим поколением суперкомпьютерных систем, о чём сообщает Data Center Dynamics. Команда, занимавшаяся проектом Dojo, была расформирована в прошлом году в связи с тем, что компания отдала предпочтение ИИ-чипам, используемых в бортовых системах электромобилей. Также ранее было объявлено, что компания будет полагаться на чипы внешних партнёров. Вместе с тем компания возвращается к проекту Dojo, поскольку, по словам Маска, достигнуты успехи в разработке чипа AI5, что создало определённый запас прочности. Маск объявил, что однокристальный чип AI5 обеспечит производительность на уровне NVIDIA Hopper, при этом двухкристальный AI5 будет равен по мощности чипу с Blackwell. Он предложил всем заинтересованным в участии в проекте и «работе над созданием самых массово производимых в мире микросхем» отправить сообщение Tesla, указав в трёх пунктах самые сложные технические проблемы, которые они решили. Илон Маск также сообщил, что разработка чипа Tesla AI5 почти завершена, а чип AI6 находится на «ранней стадии» разработки, добавив, что компания также планирует создать чипы AI7, AI8 и AI9. По его словам, нынешний чип Tesla AI4 позволит достичь «уровня безопасности при автономном вождении, намного превышающего человеческий», а AI5 сделает электромобили Tesla «почти идеальными», также значительно улучшив функционирование человекоподобного робота Optimus. «AI6 для Optimus и ЦОД. AI7/Dojo3 будут использовать ИИ для космических вычислений», — написал Маск. В ноябре 2025 года он заявил, что существует «чёткий путь к удвоению производительности по всем показателям для AI6 в течение 10–12 мес. после выпуска AI5», а теперь он намерен сократить срок создания каждого нового поколения ИИ-чипов до 9 мес. Хотя сам миллиардер не стал называть сроки производства чипа AI5, ИИ-чат-бот Grok сообщил пользователям в ответ на запросы, что ограниченное производство AI5 ожидается в 2026 году, а массовое производство запланировано на 2027 год. В конце прошлого года Маск заявил акционерам Tesla, что компании, вероятно, потребуется построить «гигантскую фабрику» для производства своих ИИ-чипов, чтобы хотя бы частично удовлетворить в них потребности компании. Tesla уже сотрудничает с TSMC и Samsung, которые производят чипы AI5 и AI6 на заводах в Аризоне и Тайване, а также в Южной Корее и Техасе соответственно. На том же собрании акционеров Маск сказал, что, вероятно, стоит обсудить вопрос производства и с Intel. Как отметил Techpowerup, в августе прошлого года появились сообщения о присоединении к компании Маска Intel в качестве ключевого партнёра по упаковке чипов, что ознаменовало отход Tesla от прежней зависимости от TSMC в вопросах производства. Сообщается, что Intel будет управлять сборкой и тестированием, используя свою технологию EMIB. Это лучше подходит для больших блоков Tesla Dojo, объединяющих несколько чипов площадью 654 мм² в одном корпусе. В свою очередь, Samsung будет производить обучающие чипы D3 на своем заводе в Техасе с помощью 2-нм техпроцесса, оставив Intel контроль над процессами упаковки. Такое разделение труда решает проблему ограничений производственных мощностей и предоставляет Tesla большую гибкость в настройке схем межсоединений. Для автомобильных чипов AI5 компании Samsung и TSMC создадут разные версии, хотя Tesla стремится обеспечить одинаковую производительность в обоих случаях. Предполагается, что AI5 будет потреблять 150 Вт, при этом соответствуя по производительности NVIDIA H100, у которого TDP составляет до 700 Вт. Это было достигнуто путём удаления графических подсистем общего назначения и оптимизации архитектуры специально для ИИ-алгоритмов Tesla.
20.01.2026 [17:15], Сергей Карасёв
«Базальт СПО» приглашает на XXI ежегодную конференцию «Свободное программное обеспечение в высшей школе»«Базальт СПО» совместно с Институтом программных систем им. А.К. Айламазяна РАН проводит XXI Ежегодную конференцию «Свободное программное обеспечение в высшей школе» (OSEDUCONF). Мероприятие пройдёт 6–8 февраля 2026 года в г. Переславле-Залесском на базе ИПС РАН. Ведущие учёные, педагоги, разработчики и администраторы расскажут об опыте внедрения СПО и организации образовательного процесса, создания благоприятных условий для вовлечения студентов в реальные проекты разработки свободных программных продуктов. Оргкомитет принимает заявки на доклады по следующим темам:
Сроки подачи заявок Для слушателей:
Участие бесплатное. Онлайн-трансляция конференции будет доступна на VK Видео и странице конференции. Зарегистрироваться на конференцию и ознакомиться с информацией о форматах и шаблонах тезисов можно на сайте. По вопросам, связанным с докладами, тезисами, программой конференции, регистрацией, размещением, трансфером можно обратиться к организаторам по электронной почте conference@lists.altlinux.org.
20.01.2026 [16:52], Руслан Авдеев
Глубоководный «гиперкабель» SUBCO APX East напрямую свяжет Австралию и КалифорниюКомпания SUBCO (Secure Undersea Network Systems) анонсировала прокладку подводного кабеля APX East, который к IV кварталу 2028 года свяжет побережья Австралии и Калифорнии (США), сообщает Converge Digest. ВОЛС из 16 пар пройдёт по самым глубоким участкам океана, обойдясь без промежуточных посадочных станций или традиционной регенерации сигнала по пути. В компании утверждают, что APX East обеспечит самуцю низкую задержку между странами. Утверждается, что в APX East будет применяться оптическая система с односторонней подачей питания на всём протяжении тихоокеанского маршрута, что упростит эксплуатацию и получение разрешений регуляторов. Также допускается прокладка ответвлений к Гавайям и Фиджи в 2029 году. Проект ориентирован на удовлетворение растущего спроса на широкие интернет-каналы в связи с развитием крупномасштабной ИИ-инфраструктуры Австралии. SUBCO ссылается на планы строительства на континенте 3 ГВт мощностей ЦОД к 2028 году. Предполагается, что им потребуется 75–150 Тбит/с международной пропускной способности.
Источник изображения: SUBCO APX East будет избегать загруженных прибрежных зон близ Сиднея, кабель будет выходить на сушу к северу от существующей охранной зоны кабелей, в которой запрещены определённые виды деятельности и введены некоторые другие ограничения. Благодаря этому кабель позволит повысить общую надёжность линий связи, находясь несколько в стороне от популярных кабельных маршрутов. Кроме того, это позволит ускорить реализацию проекта. Проект позиционируется, как первый в Австралии суверенный международный «гиперкабель». На тихоокеанском рынке подводной кабельной инфраструктуры возник срочный запрос на каналы связи, поскольку гиперскейлеры и неооблачные провайдеры теперь ориентируются не на традиционные циклы роста облачных услуг — главным драйвером стало развитие ИИ. Ввод в эксплуатацию кабеля APX East в 2028 году позволяет опередить несколько других операторов, намеренных проложить новые маршруты между Австралией и США. Это ужесточает конкуренцию за ранний доступ к ВОЛС, оптимизированным под трафик ИИ.
20.01.2026 [16:06], Руслан Авдеев
Криптомайнер Riot Platforms сменит профиль и сдаст AMD 25 МВт мощностей ЦОДЗанимающаяся криптомайнингом компания Riot Platforms (ранее Riot Blockchain) — последний в ряду «добытчиков» биткоинов, меняющий профиль на HPC/ИИ ЦОД. Компания приобрела более 80 га в техасском кампусе в Рокдейле (Rockdale) и будет сдавать в аренду мощности новой площадки AMD, сообщает Datacenter Dynamics. На днях компания анонсировала выкуп в полную собственность земли в Рокдейле, где у неё уже имеются мощности. Землю приобрели за $96 млн, полученных путём продажи около 1080 биткоинов с баланса Riot. Соглашение с AMD подразумевает поэтапное размещение IT-нагрузок. Первые 5 МВт должны стать доступны уже в январе, а к маю планируется предоставить AMD уже 25 МВт. AMD имеет возможность получения ещё 75 МВт и право преимущественного выкупа ещё 100 МВт IT-мощностей. Если обе опции реализуют, общая арендованная мощность AMD вырастет до 200 МВт — полная мощность двух объектов кампуса. На первом этапе будет использоваться существующая инфраструктура Riot, компания начала модернизировать одно из имеющихся зданий, капитальные издержки на первоначальное внедрение должны составить $89,8 млн. Договор аренды на 10 лет должен принести Riot до $311 млн. Контракт включает три опции продления на пять лет каждая, это может увеличить совокупный доход от сделки до $1 млрд.
Источник изображения: Riot Platforms Партнёрство с AMD, по словам компании, является признанием соответствие инфраструктуры Riot требованиям арендаторов флагманского уровня, строительных возможностей компании, привлекательности её площадок, доступности мощностей и возможности предлагать инновационные решения. Кампус в Рокдейле ранее полагался на долгосрочную аренду земли. Теперь же он полностью принадлежит и управляется Riot. Компания намерена превратить все доступные кампусу 700 МВт в «актив» для арендаторов ЦОД. В 2020–2023 гг. Riot возвела на территории кампуса семь объектов: два (200 МВт) с иммерсионным охлаждением, а остальные пять (500 МВт) — с воздушным. Riot Platforms — один из крупнейших майнинговых бизнесов в мире, занимающихся биткоинами. Впрочем, руководство ещё с 2024 года обсуждает переход бизнеса на ИИ и HPC ЦОД. Riot владеет более 445 га и 1,7 ГВт зарезервированных мощностей на двух объектах в Техасе. Помимо кампуса в Рокдейле у неё есть площадка в Корсикане (Corsicana), где продолжается строительство двух зданий на 56 МВт. Всего на площадке можно будет разместить до 11 зданий общей мощностью 672 МВт, с потенциалом расширения до 1 ГВт. Также компания владеет двумя площадками в Кентукки общей мощностью 60 МВт (возможно расширение до 300 МВт), которые достались ей после покупки Block Mining в июле 2024 года. В последние годы компании, занимавшиеся «добычей» криптовалют, включая CoreWeave, Core Scientific, Applied Digital, Mara, Iren, Cipher Mining, TeraWulf, Soluna, CleanSpark, Galaxy Digital, Hut 8, Bitfarms, Northern Data и др. переходят к хостингу облачных и ИИ-компаний на своих мощностях. Ранее аналитики предупреждали, что у майнеров осталось совсем немного времени, чтобы переключиться на ИИ.
20.01.2026 [13:02], Руслан Авдеев
Мощность ИИ ЦОД OpenAI утроилась в 2025 году, достигнув 1,9 ГВтOpenAI Group PBC раскрыла информацию о финансовых показателях и ходе строительства дата-центров. По последним данным, её годовой регулярный доход (ARR), поступающий в основном от подписок, достиг в 2025 году $20 млрд. Для сравнения, в 2024 году он составлял $6 млрд, а годом ранее — $2 млрд. Мощность ЦОД выросла с 200 МВт до 1,9 ГВт, сообщает Silicon Angle. Синхронный рост доходов и вычислительных мощностей приблизительно на порядок за последние три года — не случайность. Представитель компании объявил, что OpenAI увязывает инвестиции в ЦОД по мере роста OpenAI с учётом достигнутых результатов и показателей спроса. Это позволяет избежать инвестиций в будущее, не обеспеченных реальными доходами.
Источник изображения: Jonathan Kemper/unsplash.com В OpenAI заявили, что компания работает не только над расширением ИИ-инфраструктуры, но и над тем, чтобы сделать её более экономически эффективной. Так, OpenAI снизила стоимость инференса до менее $1 за миллион токенов, отчасти благодаря комбинированному использованию оборудования разных типов. Сообщается, что передовые модели обучаются на наиболее производительном оборудовании, а масштабные нагрузки инференса приходятся на более дешёвую инфраструктуру. О каких именно чипах для недорогой инфраструктуры идёт речь, пока не сообщалось, но не исключено, что компания на деле использует такие же дорогие новейшие ускорители, как и при обучении. Дело в том, что самые производительные ИИ-чипы являются и самыми экономически эффективными. Поиск способов снизить стоимость оборудования в будущем, вероятно, станет даже большим приоритетом для OpenAI. В сентябре появилась информация, что компания закончит 2025 год с убытками $8 млрд, на $1,5 млрд выше, чем ожидалось изначально. В 2026 году, по некоторым оценкам, убытки составят $17 млрд. Некоторые источники свидетельствуют, что попытки компании разработать кастомные чипы и строить дата-центры — часть плана по снижению стоимости инфраструктуры. В 2025 году OpenAI подписала соглашение с Broadcom на $10 млрд о разработке собственных ИИ-ускорителей. Отдельно компания работает с подконтрольным SoftBank Group бизнесом SB Energy над строительством дата-центров Stargate на основе индивидуального проекта. Последние данные топ-менеджеров компании позволяют составить представление о долгосрочных планах обеспечения роста выручки. В частности предполагается, что на рынке ИИ будут развиваться новые модели монетизации. Речь идёт о «лицензировании, соглашениях на основе интеллектуальной собственности и ценообразовании, ориентированном на результат». Ещё один важнейший компонент стратегии роста OpenAI — реклама. В OpenAI подчёркивают, что планы развития компании также отдают приоритет использованию ИИ-агентов и прочим инструментам автоматизации рабочих процессов. Компания, как утверждается, акцентирует внимание на помощи пользователям в автоматизации задач в самых разных сферах. Ещё один приоритет — обеспечение моделям более длинного контекста диалогов.
20.01.2026 [12:12], Сергей Карасёв
YADRO выпустила отечественные серверы Vegman R220 G3 на базе Intel Xeon Emerald RapidsКомпания YADRO, входящая в «ИКС Холдинг», объявила о доступности универсальных серверов Vegman R220 G3 на аппаратной платформе Intel. Устройства подходят для широкого спектра задач — от хранения и аналитики данных до НРС-приложений и нагрузок ИИ, говорит компания. Новинки выполнены в форм-факторе 2U. Допускается установка двух процессоров Xeon Sapphire Rapids или Xeon Emerald Rapids с показателем TDP до 350 Вт. Возможно использование до 8 Тбайт оперативной памяти DDR5-4400/5600 RDIMM в конфигурации 32 × 256 Гбайт. Во фронтальной части в зависимости от модификации могут быть установлены до 12 накопителей LFF (SAS/SATA/NVMe) или до 24 накопителей SFF (SAS/SATA плюс 16 × NVMe). Сзади предусмотрены посадочные места для четырёх изделий SFF (или 2 × SFF и 2 × M.2/E1.S). Допускается формирование массивов RAID 0/1/10/5/50/6/60. Реализована поддержка CXL 1.1. Есть два сетевых порта 1GbE и выделенный сетевой порт управления 1GbE (все с разъёмами RJ45). Доступны до 11 слотов PCIe 5.0 с учетом OCP 3.0 SFF и гнезда под контроллер RAID/HBA. Спереди находятся два порта USB 3.1 Type-C, по одному разъёму USB 2.0 Type-A и D-Sub, сзади — два порта USB 3.1 Type-A, последовательный интерфейс (разъём USB Type-C) и коннектор Mini DisplayPort (BMC). Питание обеспечивают два блока мощностью до 2700 Вт с сертификатом 80 PLUS Platinum. Применено воздушное охлаждение с шестью вентиляторами диаметром 60 мм с возможностью горячей замены. Диапазон рабочих температур — от +10 до +35 °C при относительной влажности от 20 % до 80 %. Заявлена совместимость с Astra Linux, ALT Linux, RED OS, zVirt и пр. С серверами поставляется ПО управления «YADRO Суприм» и набор инструментов Vegman Satellites. Реализована поддержка доступа через IPMI 2.0, WebUI, CLI, SNMP, Redfish. Устройства Vegman R220 G3 включены в Единый реестр российской радиоэлектронной продукции Минпромторга, что подтверждает соблюдение требований локализации.
20.01.2026 [10:02], Владимир Мироненко
FP64 у вас ненастоящий: AMD сомневается в эффективности эмуляции научных расчётов на тензорных ядрах NVIDIAВместо создания специализированных чипов для аппаратных FP64-вычислений NVIDIA использует эмуляцию для повышения производительности HPC на ИИ-ускорителях, пишет The Register. Компания отказалась от развития FP64-блоков в поколении Blackwell Ultra, а в новейших ускорителях Rubin пиковая заявленная производительность векторных FP64-вычислений составляет 33 Тфлопс, тогда как у H100, вышедшего четыре года назад, она была равна 34 Тфлопс, а у Blackwell — около 40 Тфлопс. Если включить программную эмуляцию в библиотеках CUDA от NVIDIA, ускоритель, как утверждается, может достичь производительности до 200 Тфлопс в матричных FP64-вычислениях. Впрочем, и Blackwell с эмуляций способен выдать в этом случае до 150 Тфлопс, тогда как у Hopper были «честные» 67 Тфлопс. «В ходе многочисленных исследований с партнёрами и собственных внутренних изысканий мы обнаружили, что точность, достигаемая с помощью эмуляции, как минимум не уступает точности, получаемой от аппаратных тензорных ядер», — сообщил ресурсу The Register Дэн Эрнст (Dan Ernst), старший директор по суперкомпьютерным продуктам NVIDIA. В свою очередь, в AMD считают, что это утверждение справедливо не для всех сценариев. «В некоторых бенчмарках она показывает довольно хорошие результаты, но в реальных физических научных симуляциях это не очевидно», — говорит Николас Малайя (Nicholas Malaya), научный сотрудник AMD. Он выразил мнение, что, хотя эмуляция FP64, безусловно, заслуживает дальнейших исследований и экспериментов, такое решение ещё не готово к широкому применению. AMD и сама изучает возможность программной эмуляции FP64 на Instinct MI355X, чтобы определить области её возможного применения. Хотя чипы всё чаще используют типы данных с более низкой точностью, FP64 остаётся золотым стандартом для научных вычислений, и на то есть веские причины — FP64 не имеет себе равных по динамическому диапазону. Современные же LLM обучаются с использованием FP8-вычислений, а компактные типы данных MXFP8/MXFP4 или NVFP4 позволяют получить достаточный для ИИ диапазон значений. Это хорошее решение для нечёткой математики больших языковых моделей, но это не замена FP64 для HPC. ИИ-нагрузки обладают высокой устойчивостью к ошибкам, а HPC-задачи требуют высокой точности. AMD указала на то, что эмуляция FP64 у NVIDIA не совсем соответствует стандарту IEEE. Алгоритмы NVIDIA не учитывают такие понятия, как положительные и отрицательные нули, ошибки NaN (Not a Number) и ошибки infinite number (бесконечное число). Из-за этого небольшие ошибки в промежуточных вычислениях, используемых для эмуляции более высокой точности, могут привести к искажениям, способным повлиять на точность конечного результата, пояснил Малайя. По его словам, целесообразность использования эмуляции FP64 зависит от конкретного приложения. Эмуляция FP64 лучше всего работает для хорошо обусловленных проблем, где малые изменения «на входе» приводят к малым же изменения в конечном результате. Ярким примером такой задачи является бенчмарк Linpack (HPL). «Но если вы посмотрите на материаловедение, коды для расчёта процессов горения, системы ленточых матриц и т.п., то увидите, что это гораздо менее обусловленные системы, и внезапно всё начинает давать сбои», — сказал он. Точность можно повысить, увеличив количество используемых операций, однако после определённого предела никаких преимуществ от эмуляции уже не будет. Вдобавок все эти операции требуют память. «У нас есть данные, которые показывают, что алгоритму Озаки требуется примерно вдвое больше памяти для эмуляции матриц FP64», — сказал Малайя. Поэтому компания готовит специализированные ускорители MI430X c повышенной FP64/FP32-производительностью, но, как опасаются учёные, она может оказаться не слишком в них заинтересована, поскольку ИИ-ускорители приносят больше денег. Эрнст утверждает, что для большинства специалистов в области HPC неполное соответствие стандарту IEEE не представляет большой проблемы. Всё во многом зависит от конкретного приложения. Тем не менее, NVIDIA разработала дополнительные алгоритмы для обнаружения и смягчения указанных выше ошибок и неэффективных операций эмуляции. Эрнст также признал, что использование памяти при эмуляции может быть несколько выше, но подчеркнул, что эти накладные расходы относятся к расчётам, а не к самому приложению — в большинстве случаев речь идёт о матрицах размером не более нескольких Гбайт. Впрочем, всё это не меняет того, что эмуляция полезна только для подмножества HPC-задач, которые полагаются на операции умножения плотных матриц (DGEMM). По словам Малайи, для 60–70 % рабочих нагрузок HPC эмуляция дает незначительные преимущества или ничего не меняет. «По нашим оценкам, подавляющее большинство реальных рабочих нагрузок HPC полагаются на векторное умножение (FMA), а не на DGEMM», — сказал он, отметив, что это действительно нишевый сегмент, хотя и не крошечная доля рынка. Для рабочих нагрузок, интенсивно использующих векторы, таких как вычислительная гидродинамика (CFD), ускорители Rubin по-прежнему будут полагаться на медленные векторные FP64-блоки.
19.01.2026 [16:26], Руслан Авдеев
AWS запустила своё первое действительно суверенное облако European Sovereign Cloud в ЕвросоюзеНа фоне торговых и геополитических трений между Евросоюзом и США, Amazon Web Services (AWS) объявила о запуске суверенного облака European Sovereign Cloud в Европе. Новое, независимое облако полностью базируется в Евросоюзе и физически и логически отделено от прочих облачных регионов AWS. Как заявляют в компании, уникальный подход AWS European Sovereign Cloud обеспечивает полнофункциональные сервисы под строгим техническим контролем, с суверенными гарантиями и правовой защитой для удовлетворения запросов европейских правительств и бизнесов на защиту конфиденциальных данных. Также AWS анонсировала планы расширения European Sovereign Cloud за пределы Германии (Бранденбурга), где находится его первый регион (eusc-de-east-1), в другие страны и регионы ЕС для поддержки изоляции данных от внешних игроков и доступа с низкой задержкой для местных клиентов. Дополнительно будут созданы новые суверенные зоны доступности WS Local Zones в Бельгии, Нидерландах и Португалии. Услугами нового региона могут воспользоваться все желающие, а не только резиденты ЕС. Открытие AWS European Sovereign Cloud и новых зон доступности в трёх странах обеспечит организации дополнительными возможностями для размещения рабочих нагрузок в «местных» облаках с высочайшим уровнем операционной независимости. В то же время компания пообещает сохранить доступ ко всему спектру сервисов AWS. Клиенты, которым нужна более строгая изоляция данных, смогут использовать AWS Dedicated Local Zone, AWS AI Factorу или AWS Outposts, в том числе в собственных ЦОД. AWS European Sovereign Cloud опирается на местные кадры, инфраструктуру и топ-менеджмент. Операционный контроль из-за пределов Евросоюза, как утверждается, не предусмотрен. Операционная автономность является ключевой функцией облака. Физически и логически AWS European Sovereign Cloud отделено от других регионов AWS, управляется только резидентами Евросоюза, не имеет критических зависимостей от находящейся за пределами ЕС инфраструктуры — даже если связь со всем остальным миром будет потеряна, облако продолжит работу. В исключительных случаях кадры из числа резидентов Евросоюза смогут получить доступ к копии исходного кода, необходимого для поддержки суверенных сервисов. AWS обеспечивает клиентам полный контроль над тем, где именно будут храниться их данные. Кроме того, клиенты сохранят контроль над создаваемыми метаданными (роли, разрешения, конфигурации и др.), которые останутся в Евросоюзе, в том числе речь идёт о системах IAM, биллинге и метриках использования. Как и в других регионах AWS, European Sovereign Cloud защищено с помощью системы AWS Nitro, благодаря которой все вычисления на платформе EC2 имеют строгий барьер для доступа извне, включая доступ со стороны сотрудников AWS без прямой авторизации со стороны клиента. Доступны управление шифрования и ключами (AWS Key Management Service) и аппаратные модули безопасности AWS CloudHSM. AWS создала специальную структуру управления в Европе, с новой «материнской» компанией и тремя дочерними подразделениями в Германии. Руководство осуществляется гражданами Евросоюза. Компания обязана соблюдать европейские законы и действовать в интересах AWS European Sovereign Cloud, а не сторонних игроков. Структура включает консультационный совет, который обеспечит поддержку в вопросах, связанных с обеспечением суверенитета — он состоит из двух топ-менеджеров Amazon и двух независимых участников, все — граждане и резиденты Евросоюза. Стефан Исраэль (Stéphane Israël) возглавит AWS European Sovereign Cloud, управляющим директором назначен Штефан Хохбауэр (Stefan Hoechbauer) — вице-президент AWS Global Sales Germany and Europe Central. Изначально пользователи AWS European Sovereign Cloud получат доступ к более 90 сервисам в разных категориях, включая ИИ, вычисления, базы данных, сервисы безопасности, хранения и др. Партнёры AWS пообещали предоставлять свои решения и для нового облака: Accenture, adesso, Adobe, Arvato Systems, Atos, Capgemini, Dedalus, Deloitte, Genysys, Kyndryl, Mistral AI, msg group, NVIDIA, SAP, SoftwareOne и многие другие. В долгосрочной перспективе Amazon намерена инвестировать более €7,8 млрд в инфраструкту в Германии. Это должно добавить ВВП Германии приблизительно €17,2 млрд. Расширение облака в Бельгию, Нидерланды и Португалию потребует дополнительных инвестиций и поможет развитию местных экономик. Как сообщает CNBC, в последнее время европейские политики и регуляторы всё больше обеспокоены доминированием американских техногигантов, в том числе в сфере критически важной IT-инфраструктуры. Несмотря на то, что Европа стимулирует развитие бизнеса региональными компаниями, по данным Synergy Research Group на долю AWS, Microsoft и Google приходится около 70 % облачного рынка в регионе. При этом не так давно Microsoft признала, что не способна обеспечить европейским данным настоящий суверенитет и будет вынуждена пойти навстречу американским властям, если те будут делать запросы в соответствии с законами США, хотя несколько ранее компания, как и Google, предложили собственные «суверенные» решения для европейского рынка. |
|



