Лента новостей

27.10.2025 [11:16], Сергей Карасёв

Axelera AI представила ИИ-чип Europa с производительностью 629 TOPS

Нидерландский стартап Axelera AI анонсировал ИИ-ускоритель (AIPU) под названием Europa, предназначенный для таких задач, как генеративные сервисы и приложения компьютерного зрения. По заявлениям разработчиков, чип может использоваться в оборудовании разного класса — от периферийных устройств до корпоративных серверов.

В состав Europa AIPU входят восемь «ядер ИИ второго поколения», которые используют векторные движки и технологию цифровых вычислений в оперативной памяти (D-IMC), разработанные специалистами Axelera. Заявленная ИИ-производительность достигает 629 TOPS на операциях INT8.

Кроме того, чип содержит 16 специализированных векторных ядер с архитектурой RISC-V, сгруппированных в два кластера: они предназначены для операций пред- и постобработки, не связанных с ИИ. Пиковая производительность блока RISC-V достигает 4915 GOPS (млрд операций в секунду). Интегрированный декодер H.264/H.265 ускоряет выполнение медиазадач.

 Источник изображения: Axelera AI

Источник изображения: Axelera AI

Процессор располагает 256-бит интерфейсом памяти LPDDR5 с пропускной способностью 200 Гбайт/с и 128 Мбайт памяти L2 SRAM. Новинка будет предлагаться в различных форм-факторах, включая компактное исполнение с размерами 35 × 35 мм и карты расширения PCIe 4.0 х4 в различных конфигурациях, в частности, с одним чипом и 16 Гбайт памяти, а также с четырьмя чипами и 256 Гбайт памяти. Разработчикам предоставляет комплект Voyager SDK, который позволяет полностью раскрыть потенциал процессора.

В целом, как утверждается, новинка обеспечивает в 3–5 раз более высокую производительность в расчёте на 1 Вт и $1 по сравнению с ведущими отраслевыми решениями в той же категории. Поставки Europa AIPU и PCIe-карт начнутся в I половине 2026 года.

Постоянный URL: https://servernews.ru/1131419
27.10.2025 [10:09], Руслан Авдеев

Для майнинга и ИИ: ГЭС Itaipu запитает дата-центры американской X8 Cloud и канадской Hive Digital

Американский стартап X8 Cloud Infrastructure заявил о намерении построить в Парагвае комплекс ИИ ЦОД и облачных сервисов с использованием энергии местной ГЭС Itaipu. Та же электростанция поможет и расширению дата-центра Yguazu компании Hive Digital из Канады, сообщает Datacenter Dynamics.

На днях X8 Cloud подписала соглашение с Национальным управлением по электроснабжению Парагвая (Ande) о строительстве «крупнейшей ИИ-инфраструктуры в Латинской Америке». Утверждается, что площадка близ Асунсьона (Asunción) обеспечит в регионе доступ к ИИ-технологиям мирового уровня, но по цене до 70 % ниже общепринятой. Первый ЦОД мощностью 50 МВт заработает в начале 2026 года, а к 2027 году мощность доведут до 500 МВт. Объекты будут питаться исключительно от ГЭС Itaipu, эксплуатацией которой совместно занимаются Бразилия и Парагвай. Установленная мощность станции составляет 14 ГВт.

Сообщается, что ЦОД обеспечит бразильским компаниям ИИ-инфраструктуру под юрисдикцией США, при этом соответствующую бразильским нормативам защиты данных, с прозрачным управлением. Кроме того, X8 Cloud обещает низкие затраты на обучение ИИ-моделей и инференс. В будущем компания намерена расширить свою деятельность на территории Бразилии и Аргентины, доведя мощности до 5 ГВт.

 Источник изображения: Tijan Manandhar / Unsplash

Источник изображения: Tijan Manandhar / Unsplash

Канадский криптомайнер Hive Digital Technologies также объявил о расширении деятельности в регионе — мощность ЦОД Yguazu, целиком запитанного от той же ГЭС, будет увеличена с 300 МВт до 400 МВт к III кварталу 2026 года. Компания объявила о бизнес-планах в Парагвае в 2024 году, а затем приобрела площадку у Bitfarms в январе 2025 года. По данным компании, Yguazu уже приносит 8,5 BTC/день. После обновления кампуса ЦОД он станет крупнейшим объектом такого рода в стране, а Hive будет располагать 540 МВт возобновляемой энергии в трёх странах: 400 МВт в Парагвае, по 140 МВт в Канаде и Швеции.

Рост майнинга биткоинов в Парагвае поддерживается местными законами. В частности, использование энергии для майнинга не облагается налогами с 2027 года, причём льготы касаются именно криптомайнинга. Именно ГЭС, возможно, позволит превратить Парагвай в региональный хаб ЦОД.

Постоянный URL: https://servernews.ru/1131410
27.10.2025 [08:47], Руслан Авдеев

Монголия рассчитывает привлечь инвестиции в развитие ЦОД

Власти Монголии надеются привлечь в страну операторов и застройщиков ЦОД. По словам главы Фонда национального благосостояния Монголии им. Чингисхана Темуулен Баяраа (Temuulen Bayaraa), страна располагает огромной территорией и очень благоприятным климатом для размещения ЦОД, сообщает Datacenter Dynamics. В интервью CNBC глава фонда добавила, что в стране уже работают над созданием специальных экономических зон для размещения дата-центров.

Фонд национального благосостояния, основанный в 2024 году, имеет в резерве на $1,4 млрд и намерен привлечь инвесторов доступом к «чистой» энергии. Структура управляется государственной холдинговой компанией Erdenes Mongol, которой принадлежит часть горнодобывающих активов страны. К особым экономическим зонам относится проект «умного» города Хунну (Hunnu City) в 50 км от Улан-Батора. Город должен занять площадь 31 тыс. га, запитан он будет от геотермальных электростанций.

 Источник изображения: Vince Gx/unsplash.com

Источник изображения: Vince Gx/unsplash.com

В целом рынок дата-центров в Монголии пока очень мал. По данным Data Center Map, в Монголии имеется всего два дата-центра, причём оба в Улан-Баторе: правительственный ЦОД и ЦОД местной телеком-компании Unitel. По статистике Uptime Institute, в стране пять ЦОД, имеющих сертификат Tier II: по два принадлежат XacBank и Khan Bank, а один — Банку Монголии. Все пять находятся в районе Улан-Батора. О наличии собственных ЦОД также говорят S Systems (Shunkhlai Group) и Mobinet (Newcomm Group). Строительством дата-центров занимается и монгольская IT-компания CT Group JSC.

Впрочем, привлекательность монгольских территорий для инвесторов, желающих строить дата-центры — под вопросом. В соседнем регионе Внутренняя Монголия (Китай) наспех построенные избыточные мощности ЦОД так и остались невостребованными. Дело в том, что заказчики из густонаселённых восточных районов предпочитают использовать новые кампусы на западе исключительно для хранения, но не обработки данных. Этому мешают высокая задержка доступа, а также дороговизна каналов связи.

Постоянный URL: https://servernews.ru/1131407
26.10.2025 [23:55], Владимир Мироненко

Amazon проморгала рынок и теперь её клиенты бегут за ИИ в облака конкурентов

Amazon, стоящая у истоков облачного бизнеса, уже не первый год отстаёт от конкурентов по темпам его роста. И на ИИ-рынке, по общему мнению, она оказалась в роли догоняющей на фоне стремительного роста конкурентов, пишет агентство Bloomberg. На прошлой неделе стало известно, что Google Cloud предоставит Anthropic до 1 млн своих ИИ-чипов TPU, что свидетельствует об углублении партнёрства Google с быстрорастущим ИИ-стартапом и наносит удар по Amazon, инвестировавшей в Anthropic миллиарды долларов.

AWS по-прежнему лидирует на облачном рынке, но Microsoft наращивает объём корпоративных продаж быстрее, чем Amazon. В прошлом году, по оценке Gartner, облачное AWS заняла 38 % корпоративных расходов на услуги облачной инфраструктуры, тогда как ещё в 2018 году, по данным компании, у «дочки» Amazon было почти 50 % этого рынка.

 Источник изображений: AWS

Источник изображений: AWS

Чтобы выяснить причины сложившейся ситуации, агентство Bloomberg провело опрос аналитиков в области облачных вычислений и финансов, а также у компаний, которые используют или перепродают облачные решения Amazon, и среди 23 нынешних и бывших сотрудника AWS, работающих в сфере разработки, управления продуктами, маркетинга, продаж и поддержки. Одной из главных причин, тормозящих работу AWS, а также влияющих на гибкость, они назвали внутреннюю бюрократию. Респонденты отметили слабый старт компании в области ИИ, а также то, что она стала менее привлекательной для стартапов.

Вместе с тем AWS верна своей давней стратегии на фоне быстро меняющегося рынка. Участники опроса признают, что AWS сохраняет значительные преимущества и лояльность клиентов, но опасаются, что компания теряет свои позиции в погоне за конкурентами, которых когда-то опережала. На следующей неделе Amazon объявит квартальные финансовые результаты, которые, как ожидается, покажут рост облачного бизнеса на 18 % до $32 млрд, что уступает показателю роста годом ранее (19 %).

Сказался и серьёзный рост конкуренции на облачном рынке в последние пару лет. Oracle, которую когда-то считали аутсайдером в облачной индустрии, теперь заключает многомиллиардные контракты в области ИИ, хотя и не все верят в её успех. Также наращивают мощности Google и неооблака. Дэйв Маккарти (Dave McCarthy), консультант IDC, отметил, что выбор облачных предложений, ранее ограничивавшийся сервисами Amazon и Microsoft, стал гораздо больше, и это не сулит ничего хорошего Amazon. «Это создаёт новое конкурентное давление, которого раньше не было», — подчеркнул он.

Стремясь вернуть себе инициативу, AWS реорганизовала команды по инжинирингу и продажам, провела кадровые перестановки в руководстве, а также отказалась от некоторых собственных правил разработки ради ускорения вывода продуктов на рынок и попыталась сократить бюрократию, возникшую после масштабного набора сотрудников во время пандемии. Кроме того, в этом месяце AWS выпустила Quick Suite, призванный заменить её предыдущий основной ИИ-инструмент для корпоративных клиентов, и в декабре ожидается запуск ряда новых и обновлённых ИИ-сервисов.

Представитель Amazon Селена Шен (Selena Shen) сообщила в электронном письме Bloomberg, что AWS по-прежнему лидирует на рынке облачных технологиях с большим отрывом, а её ИИ-сервисы, такие как Amazon Bedrock, SageMaker и Kiro, пользуются спросом у клиентов, в том числе из-за выгодного соотношении цены и производительности фирменных ИИ-ускорителей Trainium2.

Amazon заключила за последнее время крупные сделки с широким кругом клиентов, включая Delta Air Lines, Volkswagen, Управление общих служб США (GSA) и State Farm, отметила Шен. «Если вы посмотрите на любой список самых инновационных или быстрорастущих стартапов мира, вы обнаружите, что подавляющее большинство из них в значительной степени разворачивают рабочие нагрузки в AWS», — добавила она, ссылаясь, среди прочего, на списки Forbes и CNBC. Тем не менее, по общему мнению, оставаясь лидером в области облачной инфраструктуры, AWS отстаёт от своих конкурентов в плане привлечения бизнеса, создающего или использующего ИИ-модели.

В частности, AWS не поверила в то, что Anthropic сможет монетизировать свои разработки, поэтому стартап в поисках необходимых вычислительных мощностей обратился к Google Cloud. Когда стартап привлёк инвестиции в начале 2023 года, среди инвесторов была и Google. Лишь в сентябре Amazon спохватилась и инвестировала в Anthropic первый из двух запланированных траншей в размере $4 млрд, обязав Anthropic использовать AWS и собственные чипы Amazon, а также предлагать клиентам Amazon модели Claude. Объём инвестиций шокировал ветеранов Amazon, знавших, что компания крайне не любит платить за что-либо по рыночным ценам. Некоторые посчитали это отчаянием, пишет Bloomberg.

Amazon долгое время гордилась тем, что работает в режиме стартапа, предоставляя свободу независимым командам. Но этот принцип оказался неэффективным при разработке ИИ-моделей, поскольку научные и инженерные подразделения AWS, розничный отдел Amazon и группы Alexa и устройств занимались схожей, иногда дублирующей работой по обучению собственных ИИ-моделей. На конференции AWS re:Invent в ноябре 2023 года компания сделала упор на ИИ, а чуть позже развернула собственного ИИ-ассистента Amazon Q, который, по словам аналитиков, не принёс ничего революционного рынку, уже переполненному чат-ботами.

Amazon провела реорганизацию и централизовала большинство работ по разработке передовых моделей, однако развитие AWS замедлилось. В том числе из-за усложнения иерархии после всплеска найма в результате пандемии. В условиях растущей бюрократии принятие решений происходило не так быстро, как раньше. Кроме того, поскольку ПО AWS стало критически важным для крупных корпоративных и государственных клиентов, в компании установили процедуры, призванные снизить риск того, что невнимательный или недовольный сотрудник может сломать что-то важное — это тоже замедляет работу. В некоторых случах часть сотрудников даже заставили получать разрешения на отправку писем высшему руководству.

Шен сообщила, что с 2024 года AWS наняла множество новых руководителей и продвигает по службе тех, кто «демонстрирует производительность и готовность к следующему уровню», и что культура AWS остаётся сильной. Сменивший Адама Селипски (Adam Selipsky) на посту гендиректора AWS Мэтт Гарман (Matt Garman), пользующийся большим доверием разработчиков, частично вернул культуру прошлого. От руководителей продуктов требуется открытое признание ошибок и извлечённых уроков, идеи сотрудников принимаются в виде коротких питчей, а сами разработчики ПО работают посменно, обрабатывая запросы поддержки и инциденты по своим продуктам, чтобы понять потребности клиентов. Кроме того, Гарман завершил или прекратила разработку около трёх десятков устаревших и непопулярных продуктов, перенаправив силы на разработку ИИ-инструментов.

Тем не менее, сотрудники выражают обеспокоенность тем, что Amazon теряет привлекательность для стартапов. AWS, как известно, помогла зарождению Netflix, но в последние годы порой отдавала приоритет корпорациям с большими расходами, не желая тратить силы на стартапы, которые могут и не стать долгосрочными богатыми клиентами. По словам аналитиков и стартап-консультантов, Google, используя свою известность, инженеров и навыки в передовых ИИ-инструментах, смогла привлечь многих ведущих стартапов в этой сфере. «Если вы сегодня не привлекаете местные стартапы в сфере ИИ, которые в ближайшие пару лет вырастут в пять-десять раз, это может стать реальной проблемой для бизнеса», — сказал Джош Бек (Josh Beck), аналитик Raymond James. Шен же назвала AWS «лучшим выбором для стартапов», приведя в пример Perplexity и Cursor.

Но, к примеру, Пит Шваб (Pete Schwab), основатель стартапа Stronghold Labs в области ИИ-анализа видео, выбрал для своего детища площадку Google из-за её ориентации на небольших разработчиков и качества внутренних ИИ-моделей, хотя сам до этого 10 лет проработал в Amazon. AWS «раньше гораздо лучше привлекала таких людей, как мы», — сказал Шваб. Существующие клиенты AWS сейчас также обращаются к услугам её конкурентов, особенно в ИИ-сфере. Например, Grammarly, пользуется AWS, но для ИИ-решений использует модели OpenAI, в том числе в Microsoft Azure, а также Meta Llama, поскольку AWS Bedrock не отвечает ценовым и другим потребностям компании, заявил технический директор стартапа.

В начале этого месяца компания представила Quick Suite — чат-бот и набор ИИ-агентов, предназначенных для анализа данных, создания отчётов или резюмирования веб-контента, которые ориентированы на офисных сотрудников. В этой области компания не добилась особого успеха. Руководители в частном порядке признают, что, в отличие от Google и Microsoft, которые могут демонстрировать свои ИИ-инструменты миллиардам клиентов поисковой системы или пользователей ПК, естественный охват AWS ограничен гораздо более узким сообществом разработчиков.

Для этой аудитории AWS продолжает расширять возможности Bedrock. Bedrock считается самым успешным ИИ-продуктом компании, число пользователей которого исчисляется десятками тысяч. По словам клиентов и партнёров, отделы продаж сделали увеличение их количества приоритетом. Однако Amazon может преуспеть в эпоху ИИ, просто выступая в качестве поставщика инфраструктуры для других компаний и управляя ею экономически эффективно. По мнению аналитиков, большая часть корпоративных проектов в области ИИ носит экспериментальный характер. Если проект получит более широкую поддержку, экономия средств и надёжная инфраструктура (если не учитывать недавний сбой) — два основных преимущества AWS — станут ещё важнее, утверждают руководители компании.

Постоянный URL: https://servernews.ru/1131411
26.10.2025 [14:20], Сергей Карасёв

d-Matrix представила систему SquadRack для ИИ-инференса со сверхнизкой задержкой

Компания d-Matrix анонсировала систему SquadRack — стоечное решение для пакетного инференса со сверхнизкой задержкой. Это, как утверждается, первый в отрасли продукт данного класса. В его разработке приняли участие специалисты Arista, Broadcom и Supermicro.

В основу SquadRack положена серверная платформа Supermicro X14 AI. Судя по изображениям, используется модель SYS-522GA-NRT, которая допускает установку двух процессоров Intel Xeon 6900 (Granite Rapids) и 24 модулей оперативной памяти DDR5-8800. Доступны 24 фронтальных отсека для SFF-накопителей U.2/U.3 (NVMe). Устройство выполнено в форм-факторе 5U.

Система SquadRack предусматривает использование ускорителей d-Matrix Corsair. Их архитектура основана на модифицированных ячейках SRAM для вычислений в памяти (DIMC), работающих на скорости около 150 Тбайт/с. По заявлениям d-Matrix, решение обеспечивает непревзойдённую производительность ИИ-инференса: быстродействие достигает 2,4 Пфлопс (8-бит вычисления). Кроме того, задействованы IO-карты d-Matrix JetStream, предназначенные для распределения нагрузок инференса. Одна такая карта может обслуживать до четырёх экземпляров Corsair, обеспечивая сетевую задержку на уровне 2 мкс.

 Источник изображения: d-Matrix

Источник изображения: d-Matrix

Решение SquadRack также оборудовано PCIe-коммутаторами Broadcom для масштабирования в пределах одного узла. В свою очередь, связь между узлами обеспечивают коммутаторы Arista Leaf Ethernet, подключённые к картам JetStream. Применяется программный стек d-Matrix Aviator.

В одну стойку могут быть установлены до восьми экземпляров SquadRack, что позволяет с высокой скоростью обрабатывать модели ИИ, насчитывающие до 100 млрд параметров. В целом, возможно масштабирование до сотен узлов в нескольких серверных стойках.

Постоянный URL: https://servernews.ru/1131408
26.10.2025 [14:15], Сергей Карасёв

Micron представила 192-Гбайт модули памяти SOCAMM2 для ИИ-серверов

Компания Micron Technology анонсировала компактные модули оперативной памяти SOCAMM2 (Small Outline Compression Attached Memory Modules), предназначенные для использования в серверах для задачи ИИ. Изделия, выполненные на энергоэффективных чипах LPDDR5X, имеют ёмкость 192 Гбайт.

Модули SOCAMM первого поколения были анонсированы в марте нынешнего года. Их размеры составляют 14 × 90 мм. При изготовлении применяется техпроцесс DRAM 1β (пятое поколение 10-нм класса), а объём равен 128 Гбайт. Решения SOCAMM2 производятся по наиболее передовой технологии Micron — DRAM 1γ (шестое поколение памяти 10-нм класса). По сравнению с оригинальными модулями ёмкость SOCAMM2 увеличилась в полтора раза при сохранении прежних габаритных размеров. Энергетическая эффективность при этом повысилась более чем на 20 %. По сравнению с сопоставимыми по классу решениями DDR5 RDIMM энергоэффективность улучшена более чем на 66 %. Заявленная скорость передачи данных достигает 9,6 Гбит/с на контакт.

 Источник изображения: Micron

Источник изображения: Micron

Таким образом, по заявлениям Micron, технологии, положенные в основу SOCAMM2, превращают маломощную память LPDDR5X, изначально разработанную для смартфонов, в эффективные решения для дата-центров. При этом модульная конструкция SOCAMM2 и инновационная технология стекирования повышают удобство обслуживания и облегчают проектирование серверов с жидкостным охлаждением.

Пробные поставки образцов новой памяти уже начались. Micron принимает активное участие в разработке спецификации JEDEC SOCAMM2 и тесно сотрудничает с отраслевыми партнёрами с целью вывода решений на коммерческий рынок. Пока что модули SOCAMM используются в NVIDIA GB300.

Постоянный URL: https://servernews.ru/1131403
25.10.2025 [22:49], Сергей Карасёв

Микрооблако с микро-EPYC: Supermicro представила 20-узловой сервер на базе процессоров AMD Grado

Компания Supermicro анонсировала сервер 6U20N MicroBlade (MBA-315R-1G x20), построенный на аппаратной платформе AMD. Система может применяться для решения таких задач, как облачные вычисления, ИИ-инференс, веб-хостинг, потоковая передача видео и пр.

 Источник изображений: Supermicro

Источник изображений: Supermicro

Устройство, выполненное в форм-факторе 6U, имеет 20-узловую конфигурацию. Каждый узел может нести на борту один процессор EPYC 4005 Grado с 16 вычислительными ядрами (32 потока) и показателем TDP до 170 Вт. Применяется воздушное охлаждение. Доступны четыре слота для модулей оперативной памяти DDR5-5600 суммарным объёмом до 192 Гбайт.

Каждый узел оснащён двумя сетевыми интерфейсами 25GbE на базе Mellanox ConnectX-4, контроллером Aspeed AST2500 BMC и двумя коннекторами M.2 для SSD (NVMe). Опционально могут устанавливаться два накопителя U.2 (NVMe). Кроме того, возможен монтаж GPU-ускорителя формата FHHL с интерфейсом PCIe 5.0.

Сервер 6U20N MicroBlade может нести на борту два Ethernet-коммутатора и два модуля управления. Питание обеспечивают восемь блоков мощностью 2200/3000 Вт с сертификатом 80 Plus Titanium. Диапазон рабочих температур простирается от +10 до +35 °C. В одну серверную стойку стандарта 48U могут быть установлены до восьми таких систем, что в сумме даст 160 вычислительных узлов.

В целом, как отмечается, серверы MicroBlade на процессорах EPYC 4005 построены на основе уникальной модульной архитектуры Supermicro, которая обеспечивает сокращение количества кабелей до 95 %, экономию пространства до 70 % и снижение энергопотребления на 30 % по сравнению с традиционными серверами типоразмера 1U.

Постоянный URL: https://servernews.ru/1131380
25.10.2025 [22:25], Сергей Карасёв

К масштабному сбою AWS привела ошибка в средствах автоматизации DNS

Компания Amazon опубликовала развёрнутый отчёт о причинах масштабного сбоя в работе облака Amazon Web Services (AWS). Проблемы, затронувшие многочисленные сервисы, возникли из-за ошибки в программном обеспечении для автоматизации.

Сбой произошел в регионе us-east-1 в Северной Вирджинии. Утверждалось, что первопричиной проблем стала ошибка DNS. В общей сложности были затронуты более 110 собственных служб AWS. По данным сайта Downdetector, который отслеживает сбои в работе интернета, от пользователей по всему миру поступили более 8,1 млн сообщений о проблемах. Пострадали такие платформы, как Signal, Snapchat, Roblox, Duolingo, Apple Music, Apple TV, Lyft, Fortnite, Disney+, Venmo, Doordash, Hulu и многие другие.

Как сообщает Amazon, сбой возник из-за неполадок в работе DynamoDB, с которой связаны сотни тысяч записей DNS, необходимых для работы огромного гетерогенного парка балансировщиков нагрузки в каждом регионе. При этом применяются средства автоматизации для обновления записей DNS и устранения любых проблем.

 Источник изображения: Amazon

Источник изображения: Amazon

Однако 20 октября система управления DNS для DynamoDB в ЦОД Amazon в Северной Вирджинии оказалась в состоянии гонки (race condition), в результате чего DNS-запись для региональной точки подключения к DynamoDB (dynamodb.us-east-1.amazonaws.com) оказалась пустой, хотя резервирование систем DNS как раз должно было предотвратить подобную ситуацию. Устранить неполадку самостоятельно система автоматизации не смогла, поэтому пришлось привлечь к решению проблемы специалистов. При этом DynamoDB оказалась недоступна для десятков собственных сервисов AWS и бесчисленного множества клиентских служб и приложений, которые используют её в своей работе, что привело к каскадным сбоям онлайн-сервисов.

Amazon временно отключила систему автоматизации DNS для DynamoDB по всему миру, пообещав исправить в ней баги и добавив новые проверки. Также дополнительные механизмы контроля и новые системы проверки получат балансировщики NLB и службы EC2. Впрочем, эксперты отмечают, что данный инцидент наглядно показал, насколько мир может быть зависимым от единых точек отказа. Это касается не только AWS, но и других крупных облачных провайдеров, на инфраструктуру которых полагается огромное количество интернет-сервисов.

Постоянный URL: https://servernews.ru/1131379
24.10.2025 [22:50], Владимир Мироненко

ИИ помог Google перенести 30 тыс. внутренних нагрузок на Arm-процессоры Axion, на очереди ещё 70 тыс.

Google объявила, что портировала около 30 тыс. внутренних нагрузок на Arm-архитектуру и планирует перенести ещё порядка 70 тыс. Помогает ей в этом ИИ, но пока не слишком успешно. При этом целиком отказываться от x86-процессоров в пользу собственных Arm-чипов Axion компания пока не планирует. YouTube, Gmail и BigQuery уже работают как на системах с x86, так и c Arm. В процессе портирования приходится уделять внимание архитектурным различиям, таким как особенности работы с числами с плавающей запятой, параллелизм, платформенно-зависимые технологии и производительность.

Специалисты Google рассказали, что сначала они перенесли некоторые из ключевых задач, такие как F1, Spanner и Bigtable, используя стандартные методы разработки ПО с привлечением инженеров. Оказалось, что современные компиляторы и инструменты, такие как санитайзеры и фаззеры, избавили разработчиков от множества сюрпризов. Большая часть времени по факту ушла на исправление тестов, обновление сложных систем сборки и развёртывания, как правило, для самых старых и самых нагруженных сервисов, устранение проблем с массовым развёртыванием в рабочих средах и принятие мер по предотвращению дестабилизации критически важных систем.

 Источник изображения: Google

Источник изображения: Google

30 тыс. приложений — это достаточно большой объём кода для того, чтобы задуматься об автоматизации задач. Поэтому компания создала новый мультиагентный ИИ-инструмент CogniPort для исправления ошибок сборки и тестирования. Он успешно справлялся с проблемами примерно в 30 % случаев и лучше всего — с исправлениями тестов, платформенно-зависимыми особенностями и особенностями представления данных. Эффективность не впечатляет, но Google предстоит портировать ещё десятки тысяч нагрузок. пакетов.

 Источник изображения: Google

Источник изображения: Google

Кроме того, компания внедрила новую систему непрерывного мониторинга и развёртывания мультиархитектурных нагрузок CHAMP (Continuous Health Monitoring Platform), которая автоматически отбрасывает задачи, работа которых на Arm сопровождается проблемами вроде циклических сбоев или недостаточной производительности, для последующих отладки и профилирования. Чем больше будет запущено нагрузок, тем лучше Borg, управляющий кластерами внутри Google, сможет распределять задачи таким образом, чтобы эффективно использовать Arm-серверы.

Это позволит сэкономить затраты, поскольку по словам Google, системы на базе Axion обеспечивают на 65 % лучшее соотношение цены и производительности, чем экземпляры на базе x86, а также на 60 % более высокую энергоэффективность. Ранее Google, по неофициальным данным, высказывала недовольство показателем TCO последних поколений Intel Xeon. Возможно, это побудило компанию заняться созданием собственного процессора.

 Источник изображения: Google

Источник изображения: Google

Первой на этот путь, тоже ради улучшения TCO, ступила Amazon, которая разработала уже четыре поколения Arm-процессоров Graviton. В прошлом году компания похвасталась, что у неё есть уже 2 млн этих чипов. Alibaba Cloud в 2021 году представила свой первый Arm-процессор Yitian 710. У Microsoft с прошлого года есть собственные Arm-чипы Cobalt 100, на которые также возложена часть внутренних нагрузок.

Наконец, Oracle два года назад сообщила о завершении миграции всех своих облачных сервисов на Arm, включая флагманскую СУБД. Oracle использует процессоры компании Ampere Computing, в которой она владела заметной долей до сделки с SoftBank. Все эти процессоры позволили Arm занять четверть рынка серверных CPU, однако решающую роль сыграло внедрение NVIDIA GB200/GB300. Arm также заключила стратегическое соглашение с Meta, чтобы помочь последней с оптимизацией ПО.

Постоянный URL: https://servernews.ru/1131359
24.10.2025 [20:32], Андрей Крупин

Компания «Хоулмонт» представила xDbStream — инструмент для синхронизации данных между СУБД любого типа

Российская компания «Хоулмонт», специализирующаяся на разработке корпоративного ПО для коммерческого сектора и государственных структур, выпустила на рынок xDbStream — продукт для универсальной синхронизации данных между любыми СУБД. Решение позволяет проводить миграцию критически важных ERP-систем по методологии Parallel Running без остановки бизнес-процессов.

Инструмент xDbStream построен на базе Java-платформы Jmix и включает два компонента: сервер для однонаправленной отложенной репликации между СУБД различного типа и модуль мониторинга консистентности данных. Программа позволяет настраивать потоки репликации, вести мониторинг производительности, обнаруживать и разрешать конфликты репликации, синхронизировать часть данных в случае сбоя. Доступны различные способы поиска изменений (чтение журналов транзакций, сканирование по меткам времени, сравнение образов, обработка событий/триггеров), маппинга (простой SQL, Groovy-скрипты, вызовы внешних сервисов для преобразования данных «на лету») и репликации (обработка простых таблиц, сложных графов, M:N-связей).

 Источник изображения: «Хоулмонт» / haulmont.ru

Источник изображения: «Хоулмонт» / haulmont.ru

Продукт поддерживает стандартные JDBC-драйверы для подключения к большинству современных и устаревших СУБД, а также многопоточную обработку данных. Кроме того, он позволяет в режиме реального времени анализировать расхождения между старой и новой базами данных на основании правил и настроек пользователя. Утверждается, что xDbStream обеспечивает 100-процентную совместимость с любыми типами СУБД и автоматическое разрешение 95 % конфликтов репликации.

По словам разработчика, с помощью xDbStream можно не только заменить устаревшую ERP-систему, но и разработать композитную платформу управления ресурсами предприятия из модулей от разных поставщиков, провести начальную миграцию данных или поддерживать консистентность данных в системах разных подразделений, например, головного офиса и филиалов. Также продукт может использоваться для решения задач по замене иностранного и устаревшего ПО, которые сейчас очень актуальны для многих организаций.

Постоянный URL: https://servernews.ru/1131371

Входит в перечень общественных объединений и религиозных организаций, в отношении которых судом принято вступившее в законную силу решение о ликвидации или запрете деятельности по основаниям, предусмотренным Федеральным законом от 25.07.2002 № 114-ФЗ «О противодействии экстремистской деятельности»;