Материалы по тегу:

27.10.2025 [22:50], Владимир Мироненко

Qualcomm анонсировала ИИ-ускорители AI200 и AI250 — прошлое поколение чипов популярным не стало, но компания обещала исправиться

Qualcomm Technologies представила решения нового поколения для ЦОД, оптимизированные для ИИ-инференса — стоечные суперускорители Qualcomm AI200 и AI250. После их анонса акции Qualcomm подскочили на 15 %, показав самый большой внутридневной рост за более чем шесть месяцев, сообщил Bloomberg. Ожидается, что новые решения станут новой точкой роста компании. Она демонстрировала уверенный рост прибыли в течение последних двух лет, но инвесторы отдавали предпочтение акциям других технологических компаний.

Qualcomm AI200 — специализированное стоечное решение для ИИ-инференса, обеспечивающее низкую совокупную стоимость владения (TCO). Платформа оптимизирована для инференса больших языковых и мультимодальных моделей (LLM, LMM) и других ИИ-нагрузок. AI200 включает карты с 768 Гбайт LPDDR. Чип основан на NPU Hexagon, которые используются в последних поколениях Snapdragon.

Qualcomm AI250 получил инновационную архитектуру, построенную на принципах предельно близкого расположения быстрой памяти к вычислительным ядрам (Near-Memory Computing, NMC), что обеспечит качественно новый уровень эффективности и производительности ИИ-инференса. По словам Qualcomm, новая архитектура обеспечивает более чем десятикратный прирост эффективной пропускной способности памяти и значительное снижение энергопотребления. Это позволит проводить дезагрегированный ИИ-инференс для более эффективного использования оборудования.

 Источник изображений: Qualcomm

Источник изображений: Qualcomm

Оба продукта будут предлагаться отдельно и в составе стоек с полным жидкостным охлаждением, PCIe-коммутаторами для вертикального масштабирования и Ethernet — для горизонтального, а также поддержкой конфиденциальных вычислений. Энергопотребление стойки составит 160 кВт, что ставит новинки в один ряд с GB200 NVL72.

Компания отметила, что её программный ИИ-стек гиперскейл-класса, охватывающий все этапы — от прикладного уровня до системного ПО — оптимизирован для ИИ-инференса. Стек поддерживает ведущие фреймворки машинного обучения, механизмы инференса, фреймворки генеративного ИИ и методы оптимизации инференса LLM/LMM, такие как дезагрегированное обслуживание. Обещаны бесшовный перенос моделей и развёртывание моделей платформы Hugging Face в один клик посредством библиотеки Efficient Transformers и пакета Qualcomm AI Inference Suite от Qualcomm.

Qualcomm отметила, что её ПО предоставляет готовые к использованию приложения и ИИ-агенты, комплексные инструменты, библиотеки, API и сервисы. Прошлое поколение ускорителей CloudAI 100 не снискало успеха во многом из-за слабой программной экосистемы. От этого же страдала и AMD, которая ускоренными темпами навёрстывает упущенное.

Qualcomm AI200 и AI250 поступят в продажу в 2026 и 2027 годах соответственно. Qualcomm также сообщила, что придерживается ежегодного плана развития направления ЦОД, ориентированного на достижение лидирующей в отрасли производительности ИИ-инференса, энергоэффективности и минимальной совокупной стоимости владения (TCO). Кроме того, компания решила вернуться на рынок серверных процессоров.

Первым заказчиком анонсированных решений Qualcomm станет саудовский государственный ИИ-стартап Humain, который планирует развернуть 200 МВт ИИ ЦОД на базе новых чипов, начиная с 2026 года. Ранее было заключено соглашение с Cerebras, в рамках которого планировалось использовать для инференса именно чипы Qualcomm, в том числе в Саудовской Аравии. Ещё одним крупным игроком в ИИ-сделках здесь является Groq.

Qualcomm запоздало пытается занять заметную долю рынка ИИ-оборудования. Компания считает, что новые решения в области памяти и энергоэффективности, основанные на технологиях для мобильных устройств, привлекут клиентов, несмотря на относительно поздний выход на рынок. Под руководством Криштиану Амона (Cristiano Amon) компания стремится диверсифицировать бизнес, больше не полагаясь на смартфоны, рост продаж которых замедлился. Qualcomm «занимала эту нишу, не торопясь и наращивая мощь», — заявил Дурга Маллади (Durga Malladi), старший вице-президент компании. По его словам, Qualcomm ведёт переговоры со всеми крупнейшими заказчиками о развёртывании стоек на базе своего оборудования.

Постоянный URL: http://servernews.ru/1131451
27.10.2025 [16:36], Руслан Авдеев

Британские власти выделят Королевской почте £2 млн на поиск улик против самой себя

Министерство бизнеса и торговли (Department for Business and Trade, DBT) Великобритании заплатит Королевской почте (Roayl mail) до £2 млн (более $2,66 млн) за поиск информации в собственных архивах — чиновники ожидают порядка 1,5 тыс. исков, связанных с требованием компенсаций от пользователей неисправного почтового ПО Capture, сообщает Computer Weekly.

Цель контракта — сбор доказательств, необходимых заявителям в рамках плана компенсации ущерба Capture Redress Scheme. Он реализуется в интересах бывших начальников почтовой службы нижнего звена, пострадавших из-за некорректной работы ПО Capture. В 1990-х годах система Capture внедрялась для замены бумажной бухгалтерии. Как и в случае с забагованным ПО Fujitsu Horizon, которое пришло на смену Capture, в результате ошибок в ПО сотрудники почтовых отделений были несправедливо обвинены в растратах. Некоторым сотрудникам «повезло» дважды — они пострадали и от Capture, и от Horizon.

Согласно материалам тендера, получение данных осложняется тем, что с того времени прошло порядка 30 лет. Информация о потенциальных получателях компенсаций хранится только в базах почты, поэтому для обработки заявок от пострадавших министерству необходимо заключить с ней договор, чтобы запрашивать и получать необходимые данные. Контракт заключат на пять лет, но его действие может быть прекращено, если все претензии обработают раньше.

 Источник изображения: Royal Mail

Источник изображения: Royal Mail

Скандал вокруг системы Capture разгорелся в начале 2024 года после широкой огласки проблем в системе Horizon. К декабрю того же года правительство пообещало финансовые компенсации и пострадавшим от Capture. В настоящее время Комиссия по пересмотру уголовных дел (Criminal Cases Review Commission) рассматривает 30 случаев, в которых обвинительные приговоры, вероятно, были вынесены на основании некорректных данных. Одна жалоба уже передана в Апелляционный суд Великобритании.

По словам адвокатов пострадавших от сбоев, найти связанные с Capture улики и доказательства сложно после стольких лет. В Hudgell Solicitors «практически уверены, что установили, что в Capture могли быть ошибки, сбои и дефекты». Теперь нужно доказать, что пострадавшие действительно пользовались Capture. Для этого чрезвычайно важно, чтобы почта предоставила имеющуюся у неё информацию, а при отсутствии доказательств предпочтение должно отдаваться показаниям подзащитных, а не данным сбойной системы. Стоит отметить, что ущерб может составить миллионы фунтов. Так, от Fujitsu потребовали выплатить £300 млн пострадавшим от ПО Horizon. Почта и Fujitsu пытаются переложить ответственность друг на друга.

Постоянный URL: http://servernews.ru/1131432
27.10.2025 [16:10], Руслан Авдеев

Aligned Data Centers и Calibrant Energy развернут «первое в своём роде» аккумуляторное энергохранилище для ЦОД ёмкостью 62 МВт∙ч

Компания Aligned Data Centers объединила усилия с Calibrant Energy для создания в США «первой в своём роде» системы хранения энергии на основе АКБ (BESS), которая позволит ввести строящийся ЦОД в эксплуатацию на годы раньше, чем планировалось. Такой компромиссный вариант позволяет не дожидаться полноценной модернизации местной энергосети и вместе с тем не требует полностью автономного питания ЦОД.

В рамках соглашения Calibrant в 2026 году построит BESS мощностью 31 МВт (62 МВт∙ч) для кампуса ЦОД Aligned Pacific Northwest в Хиллсборо (Hillsboro, Орегон). BESS является многообещающим решением в условиях продолжающегося дефицита электроэнергии для ЦОД. В данным конкретном случае BESS отслеживает состояние региональной энергосети. Энергохранилище предназначено для разрядки в периоды пикового спроса, что повышает стабильность работы и энергосети, и ЦОД. Наличие такой BESS ускоряет одобрение регулятором присоединения к сети.

 Источник изображения: Aligned Data Centers

Источник изображения: Aligned Data Centers

Речь идёт о первом случае в США, когда аккумуляторное энергохранилище специально строится для ускорения подключения к энергосети и обеспечения крупного ЦОД. По словам Aligned, стратегический проект меняет подходы к росту на рынках с ограниченным предложением электроэнергии. BESS позволяет превратить «потенциальную сетевую нагрузку» в «динамический сетевой актив» для ускорения роста бизнеса.

Aligned представила планы создания крупного кампуса ЦОД в Хиллсборо ещё в 2023 году. Кампус находится в орегонском регионе Silicon Forest («Кремниевый лес») к западу от Портленда, наряду с объектами Intel, Flexential и QTS. По завершении строительства кампус площадью около 11 га будет обеспечен мощностью более 100 МВт. Сейчас техасская Aligned Data Centers управляет в США 50 объектами общей мощностью 5 ГВт. Партнёры подтвердили, что рассматривают реализацию аналогичных проектов и на других рынках. Новость появилась вскоре после того, как консорциум, включающий NVIDIA, BlackRock, Microsoft и xAI объявил о покупке Aligned Data Centers за $40 млрд.

Постоянный URL: http://servernews.ru/1131428
27.10.2025 [13:42], Руслан Авдеев

BNP Paribas: только инвестиции в ИИ удерживают экономику США от рецессии

По словам финансовых экспертов, в США сложилась ситуация, при которой рецессию в экономике страны предотвращают преимущественно капитальные вложения в сферу ИИ. Строительство инфраструктуры ЦОД и разработка ИИ-моделей обеспечивают экономический рост на фоне потрясений, характерных для других секторов экономики, сообщает The Register. Как свидетельствуют многочисленные источники, это компенсирует негативное влияние высоких процентных ставок и «хаотичную» торговую политику президента США.

По словам BNP Paribas, именно ИИ удержал экономику от рецессии. Подчёркивается, что рост расходов убедил бизнесы в неизбежности устойчивого роста. Как считают эксперты Apollo Global Management, «в настоящее время роста корпоративных капиталовложений помимо ИИ практически нет». Несмотря на повышение ставок ФРС, расходы на ИИ практически не сократились — в отличие от типичного поведения инвесторов в таких случаях.

Это объясняется тем, что инвестиции в ЦОД в конечном счёте финансируются за счёт роста стоимости акций компаний «великолепной семёрки», включая Microsoft, Amazon, Alphabet и NVIDIA. По расчётам Omdia, мировые капиталовложения в дата-центры в 2025 году превысят $657 млрд, это почти вдвое больше, чем пару лет назад, а основным игроком остаются США. Только годовые расходы Amazon на дата-центры превышают $100 млрд, что примерно равно ВВП Коста-Рики.

 Источник изображения: Vitaly Gariev/unspalsh.com

Источник изображения: Vitaly Gariev/unspalsh.com

По расчётам некоторых экспертов, 92 % экономического роста США в первых двух кварталах 2025 года пришлось на оборудование и ПО для обработки информации. Предполагается, что в конечном счёте ИИ будет помогать экономике, позволяя делать больше с меньшими затратами. Отчасти это уже происходит, но революционных изменений пока не отмечено. Это подтверждается многочисленными исследованиями, свидетельствующими, что несмотря на миллиардные вливания в ИИ, окупаемость инвестиций в этой сфере остаётся неопределённой.

Проведённое в США исследование показало, что бизнес инвестировал в ИИ-инициативы десятки миллиардов долларов, но 95 % из них не получили никакой отдачи. По оценкам консультантов Bain & Company, при сохранении нынешней кривой расходов технологический сектор должен обеспечивать к 2030 году продаж в сфере ИИ на $2 трлн ежегодно, поэтому велики опасения относительно формирования очередного финансового пузыря. О вероятности формирования пузыря сообщали Goldman Sachs и Банк Англии.

Особенно беспокоит аналитиков оценка OpenAI в $500 млрд, поскольку компания, хотя и известная революционными технологиями, пока не приносит прибыли. Сам её глава Сэм Альтман (Sam Altman) признал, что отрасль ИИ находится в пузыре, но сам он, похоже, не видит в этом ничего страшного, даже с учётом того, что в недавнем отчёте появилась информация, что компания теряет приблизительно втрое больше денег, чем зарабатывает. Правда, фактически за её услуги платят лишь 5 % из 800 млн пользователей ChatGPT.

Постоянный URL: http://servernews.ru/1131426
27.10.2025 [13:26], Владимир Мироненко

Миллиард туда, миллиард сюда: Supermicro снизила прогноз по выручке, но не видит оснований для беспокойства

Supermicro опубликовала предварительный отчёт в преддверии оглашения результатов за I квартал 2026 финансового года, завершившийся 30 сентября, которые будут обнародованы 4 ноября. Ожидаемая выручка компании в минувшем квартале составит $5 млрд при собственном прогнозе от $6,0 до $7,0 млрд. Снижение выручки объясняется тем, что из-за изменений в конструкции поставляемого оборудования завершение работ переносится на следующий квартал, то есть для беспокойства нет никакого повода. Однако инвесторы не приветствуют подобные «сюрпризы», и стоимость акций Supermicro упала, пишет The Register.

Акционеры компании уже сталкивались с подобными новостями, когда Supermicro сообщила в апреле предварительные финансовые результаты за III квартал 2025 финансового года, закончившийся 31 марта — выручка оказалась ниже прогноза более чем на $1 млрд. Компания объявила об этом после задержки с предоставлением годового отчёта за 2024 год, поскольку у руководства не было уверенности в корректности внутренней отчётности. Нанятый аудитор Ernst & Young отказался от дальнейшего сотрудничества, что поставило Supermicro под угрозу делистинга на фондовой бирже NASDAQ, хотя в итоге проблемы были решены.

 Источник изображения: Supermicro

Источник изображения: Supermicro

Согласно отчёту, «недавние проекты получили более $12 млрд, поставка которых запланирована на II квартал 2026 финансового года». Также указано, что наблюдается устойчивый спрос на системы Supermicro на базе NVIDIA GB300, B300, RTX Pro, AMD 355X LC, поставки которых уже начались. The Register оценил позитивно обе новости, поскольку речь идёт новом оборудовании для ИИ-вычислений, которое в настоящее время пользуется высоким спросом, и $12 млрд представляет собой крупную сумму, которая составляет более трети от $33 млрд выручки, прогнозируемой Supermicro на весь 2026 финансовый год.

Перенос реализации проекта на II квартал из-за модернизации вызывает интерес, поскольку нет информации о характере манипуляций, вызвавших задержку. The Register полагает, что задержка вызвана необходимостью закупки деталей, не включенных в первоначальную сделку (возможно, других ускорителей или большего объёма памяти, компонентов, которых не хватает), а это означает, что Supermicro не сможет выполнить поставку согласно указанной в контракте конфигурации.

Постоянный URL: http://servernews.ru/1131431
27.10.2025 [11:16], Сергей Карасёв

Axelera AI представила ИИ-чип Europa с производительностью 629 TOPS

Нидерландский стартап Axelera AI анонсировал ИИ-ускоритель (AIPU) под названием Europa, предназначенный для таких задач, как генеративные сервисы и приложения компьютерного зрения. По заявлениям разработчиков, чип может использоваться в оборудовании разного класса — от периферийных устройств до корпоративных серверов.

В состав Europa AIPU входят восемь «ядер ИИ второго поколения», которые используют векторные движки и технологию цифровых вычислений в оперативной памяти (D-IMC), разработанные специалистами Axelera. Заявленная ИИ-производительность достигает 629 TOPS на операциях INT8.

Кроме того, чип содержит 16 специализированных векторных ядер с архитектурой RISC-V, сгруппированных в два кластера: они предназначены для операций пред- и постобработки, не связанных с ИИ. Пиковая производительность блока RISC-V достигает 4915 GOPS (млрд операций в секунду). Интегрированный декодер H.264/H.265 ускоряет выполнение медиазадач.

 Источник изображения: Axelera AI

Источник изображения: Axelera AI

Процессор располагает 256-бит интерфейсом памяти LPDDR5 с пропускной способностью 200 Гбайт/с и 128 Мбайт памяти L2 SRAM. Новинка будет предлагаться в различных форм-факторах, включая компактное исполнение с размерами 35 × 35 мм и карты расширения PCIe 4.0 х4 в различных конфигурациях, в частности, с одним чипом и 16 Гбайт памяти, а также с четырьмя чипами и 256 Гбайт памяти. Разработчикам предоставляет комплект Voyager SDK, который позволяет полностью раскрыть потенциал процессора.

В целом, как утверждается, новинка обеспечивает в 3–5 раз более высокую производительность в расчёте на 1 Вт и $1 по сравнению с ведущими отраслевыми решениями в той же категории. Поставки Europa AIPU и PCIe-карт начнутся в I половине 2026 года.

Постоянный URL: http://servernews.ru/1131419
27.10.2025 [10:09], Руслан Авдеев

Для майнинга и ИИ: ГЭС Itaipu запитает дата-центры американской X8 Cloud и канадской Hive Digital

Американский стартап X8 Cloud Infrastructure заявил о намерении построить в Парагвае комплекс ИИ ЦОД и облачных сервисов с использованием энергии местной ГЭС Itaipu. Та же электростанция поможет и расширению дата-центра Yguazu компании Hive Digital из Канады, сообщает Datacenter Dynamics.

На днях X8 Cloud подписала соглашение с Национальным управлением по электроснабжению Парагвая (Ande) о строительстве «крупнейшей ИИ-инфраструктуры в Латинской Америке». Утверждается, что площадка близ Асунсьона (Asunción) обеспечит в регионе доступ к ИИ-технологиям мирового уровня, но по цене до 70 % ниже общепринятой. Первый ЦОД мощностью 50 МВт заработает в начале 2026 года, а к 2027 году мощность доведут до 500 МВт. Объекты будут питаться исключительно от ГЭС Itaipu, эксплуатацией которой совместно занимаются Бразилия и Парагвай. Установленная мощность станции составляет 14 ГВт.

Сообщается, что ЦОД обеспечит бразильским компаниям ИИ-инфраструктуру под юрисдикцией США, при этом соответствующую бразильским нормативам защиты данных, с прозрачным управлением. Кроме того, X8 Cloud обещает низкие затраты на обучение ИИ-моделей и инференс. В будущем компания намерена расширить свою деятельность на территории Бразилии и Аргентины, доведя мощности до 5 ГВт.

 Источник изображения: Tijan Manandhar / Unsplash

Источник изображения: Tijan Manandhar / Unsplash

Канадский криптомайнер Hive Digital Technologies также объявил о расширении деятельности в регионе — мощность ЦОД Yguazu, целиком запитанного от той же ГЭС, будет увеличена с 300 МВт до 400 МВт к III кварталу 2026 года. Компания объявила о бизнес-планах в Парагвае в 2024 году, а затем приобрела площадку у Bitfarms в январе 2025 года. По данным компании, Yguazu уже приносит 8,5 BTC/день. После обновления кампуса ЦОД он станет крупнейшим объектом такого рода в стране, а Hive будет располагать 540 МВт возобновляемой энергии в трёх странах: 400 МВт в Парагвае, по 140 МВт в Канаде и Швеции.

Рост майнинга биткоинов в Парагвае поддерживается местными законами. В частности, использование энергии для майнинга не облагается налогами с 2027 года, причём льготы касаются именно криптомайнинга. Именно ГЭС, возможно, позволит превратить Парагвай в региональный хаб ЦОД.

Постоянный URL: http://servernews.ru/1131410
27.10.2025 [08:47], Руслан Авдеев

Монголия рассчитывает привлечь инвестиции в развитие ЦОД

Власти Монголии надеются привлечь в страну операторов и застройщиков ЦОД. По словам главы Фонда национального благосостояния Монголии им. Чингисхана Темуулен Баяраа (Temuulen Bayaraa), страна располагает огромной территорией и очень благоприятным климатом для размещения ЦОД, сообщает Datacenter Dynamics. В интервью CNBC глава фонда добавила, что в стране уже работают над созданием специальных экономических зон для размещения дата-центров.

Фонд национального благосостояния, основанный в 2024 году, имеет в резерве на $1,4 млрд и намерен привлечь инвесторов доступом к «чистой» энергии. Структура управляется государственной холдинговой компанией Erdenes Mongol, которой принадлежит часть горнодобывающих активов страны. К особым экономическим зонам относится проект «умного» города Хунну (Hunnu City) в 50 км от Улан-Батора. Город должен занять площадь 31 тыс. га, запитан он будет от геотермальных электростанций.

 Источник изображения: Vince Gx/unsplash.com

Источник изображения: Vince Gx/unsplash.com

В целом рынок дата-центров в Монголии пока очень мал. По данным Data Center Map, в Монголии имеется всего два дата-центра, причём оба в Улан-Баторе: правительственный ЦОД и ЦОД местной телеком-компании Unitel. По статистике Uptime Institute, в стране пять ЦОД, имеющих сертификат Tier II: по два принадлежат XacBank и Khan Bank, а один — Банку Монголии. Все пять находятся в районе Улан-Батора. О наличии собственных ЦОД также говорят S Systems (Shunkhlai Group) и Mobinet (Newcomm Group). Строительством дата-центров занимается и монгольская IT-компания CT Group JSC.

Впрочем, привлекательность монгольских территорий для инвесторов, желающих строить дата-центры — под вопросом. В соседнем регионе Внутренняя Монголия (Китай) наспех построенные избыточные мощности ЦОД так и остались невостребованными. Дело в том, что заказчики из густонаселённых восточных районов предпочитают использовать новые кампусы на западе исключительно для хранения, но не обработки данных. Этому мешают высокая задержка доступа, а также дороговизна каналов связи.

Постоянный URL: http://servernews.ru/1131407
26.10.2025 [23:55], Владимир Мироненко

Amazon проморгала рынок и теперь её клиенты бегут за ИИ в облака конкурентов

Amazon, стоящая у истоков облачного бизнеса, уже не первый год отстаёт от конкурентов по темпам его роста. И на ИИ-рынке, по общему мнению, она оказалась в роли догоняющей на фоне стремительного роста конкурентов, пишет агентство Bloomberg. На прошлой неделе стало известно, что Google Cloud предоставит Anthropic до 1 млн своих ИИ-чипов TPU, что свидетельствует об углублении партнёрства Google с быстрорастущим ИИ-стартапом и наносит удар по Amazon, инвестировавшей в Anthropic миллиарды долларов.

AWS по-прежнему лидирует на облачном рынке, но Microsoft наращивает объём корпоративных продаж быстрее, чем Amazon. В прошлом году, по оценке Gartner, облачное AWS заняла 38 % корпоративных расходов на услуги облачной инфраструктуры, тогда как ещё в 2018 году, по данным компании, у «дочки» Amazon было почти 50 % этого рынка.

 Источник изображений: AWS

Источник изображений: AWS

Чтобы выяснить причины сложившейся ситуации, агентство Bloomberg провело опрос аналитиков в области облачных вычислений и финансов, а также у компаний, которые используют или перепродают облачные решения Amazon, и среди 23 нынешних и бывших сотрудника AWS, работающих в сфере разработки, управления продуктами, маркетинга, продаж и поддержки. Одной из главных причин, тормозящих работу AWS, а также влияющих на гибкость, они назвали внутреннюю бюрократию. Респонденты отметили слабый старт компании в области ИИ, а также то, что она стала менее привлекательной для стартапов.

Вместе с тем AWS верна своей давней стратегии на фоне быстро меняющегося рынка. Участники опроса признают, что AWS сохраняет значительные преимущества и лояльность клиентов, но опасаются, что компания теряет свои позиции в погоне за конкурентами, которых когда-то опережала. На следующей неделе Amazon объявит квартальные финансовые результаты, которые, как ожидается, покажут рост облачного бизнеса на 18 % до $32 млрд, что уступает показателю роста годом ранее (19 %).

Сказался и серьёзный рост конкуренции на облачном рынке в последние пару лет. Oracle, которую когда-то считали аутсайдером в облачной индустрии, теперь заключает многомиллиардные контракты в области ИИ, хотя и не все верят в её успех. Также наращивают мощности Google и неооблака. Дэйв Маккарти (Dave McCarthy), консультант IDC, отметил, что выбор облачных предложений, ранее ограничивавшийся сервисами Amazon и Microsoft, стал гораздо больше, и это не сулит ничего хорошего Amazon. «Это создаёт новое конкурентное давление, которого раньше не было», — подчеркнул он.

Стремясь вернуть себе инициативу, AWS реорганизовала команды по инжинирингу и продажам, провела кадровые перестановки в руководстве, а также отказалась от некоторых собственных правил разработки ради ускорения вывода продуктов на рынок и попыталась сократить бюрократию, возникшую после масштабного набора сотрудников во время пандемии. Кроме того, в этом месяце AWS выпустила Quick Suite, призванный заменить её предыдущий основной ИИ-инструмент для корпоративных клиентов, и в декабре ожидается запуск ряда новых и обновлённых ИИ-сервисов.

Представитель Amazon Селена Шен (Selena Shen) сообщила в электронном письме Bloomberg, что AWS по-прежнему лидирует на рынке облачных технологиях с большим отрывом, а её ИИ-сервисы, такие как Amazon Bedrock, SageMaker и Kiro, пользуются спросом у клиентов, в том числе из-за выгодного соотношении цены и производительности фирменных ИИ-ускорителей Trainium2.

Amazon заключила за последнее время крупные сделки с широким кругом клиентов, включая Delta Air Lines, Volkswagen, Управление общих служб США (GSA) и State Farm, отметила Шен. «Если вы посмотрите на любой список самых инновационных или быстрорастущих стартапов мира, вы обнаружите, что подавляющее большинство из них в значительной степени разворачивают рабочие нагрузки в AWS», — добавила она, ссылаясь, среди прочего, на списки Forbes и CNBC. Тем не менее, по общему мнению, оставаясь лидером в области облачной инфраструктуры, AWS отстаёт от своих конкурентов в плане привлечения бизнеса, создающего или использующего ИИ-модели.

В частности, AWS не поверила в то, что Anthropic сможет монетизировать свои разработки, поэтому стартап в поисках необходимых вычислительных мощностей обратился к Google Cloud. Когда стартап привлёк инвестиции в начале 2023 года, среди инвесторов была и Google. Лишь в сентябре Amazon спохватилась и инвестировала в Anthropic первый из двух запланированных траншей в размере $4 млрд, обязав Anthropic использовать AWS и собственные чипы Amazon, а также предлагать клиентам Amazon модели Claude. Объём инвестиций шокировал ветеранов Amazon, знавших, что компания крайне не любит платить за что-либо по рыночным ценам. Некоторые посчитали это отчаянием, пишет Bloomberg.

Amazon долгое время гордилась тем, что работает в режиме стартапа, предоставляя свободу независимым командам. Но этот принцип оказался неэффективным при разработке ИИ-моделей, поскольку научные и инженерные подразделения AWS, розничный отдел Amazon и группы Alexa и устройств занимались схожей, иногда дублирующей работой по обучению собственных ИИ-моделей. На конференции AWS re:Invent в ноябре 2023 года компания сделала упор на ИИ, а чуть позже развернула собственного ИИ-ассистента Amazon Q, который, по словам аналитиков, не принёс ничего революционного рынку, уже переполненному чат-ботами.

Amazon провела реорганизацию и централизовала большинство работ по разработке передовых моделей, однако развитие AWS замедлилось. В том числе из-за усложнения иерархии после всплеска найма в результате пандемии. В условиях растущей бюрократии принятие решений происходило не так быстро, как раньше. Кроме того, поскольку ПО AWS стало критически важным для крупных корпоративных и государственных клиентов, в компании установили процедуры, призванные снизить риск того, что невнимательный или недовольный сотрудник может сломать что-то важное — это тоже замедляет работу. В некоторых случах часть сотрудников даже заставили получать разрешения на отправку писем высшему руководству.

Шен сообщила, что с 2024 года AWS наняла множество новых руководителей и продвигает по службе тех, кто «демонстрирует производительность и готовность к следующему уровню», и что культура AWS остаётся сильной. Сменивший Адама Селипски (Adam Selipsky) на посту гендиректора AWS Мэтт Гарман (Matt Garman), пользующийся большим доверием разработчиков, частично вернул культуру прошлого. От руководителей продуктов требуется открытое признание ошибок и извлечённых уроков, идеи сотрудников принимаются в виде коротких питчей, а сами разработчики ПО работают посменно, обрабатывая запросы поддержки и инциденты по своим продуктам, чтобы понять потребности клиентов. Кроме того, Гарман завершил или прекратила разработку около трёх десятков устаревших и непопулярных продуктов, перенаправив силы на разработку ИИ-инструментов.

Тем не менее, сотрудники выражают обеспокоенность тем, что Amazon теряет привлекательность для стартапов. AWS, как известно, помогла зарождению Netflix, но в последние годы порой отдавала приоритет корпорациям с большими расходами, не желая тратить силы на стартапы, которые могут и не стать долгосрочными богатыми клиентами. По словам аналитиков и стартап-консультантов, Google, используя свою известность, инженеров и навыки в передовых ИИ-инструментах, смогла привлечь многих ведущих стартапов в этой сфере. «Если вы сегодня не привлекаете местные стартапы в сфере ИИ, которые в ближайшие пару лет вырастут в пять-десять раз, это может стать реальной проблемой для бизнеса», — сказал Джош Бек (Josh Beck), аналитик Raymond James. Шен же назвала AWS «лучшим выбором для стартапов», приведя в пример Perplexity и Cursor.

Но, к примеру, Пит Шваб (Pete Schwab), основатель стартапа Stronghold Labs в области ИИ-анализа видео, выбрал для своего детища площадку Google из-за её ориентации на небольших разработчиков и качества внутренних ИИ-моделей, хотя сам до этого 10 лет проработал в Amazon. AWS «раньше гораздо лучше привлекала таких людей, как мы», — сказал Шваб. Существующие клиенты AWS сейчас также обращаются к услугам её конкурентов, особенно в ИИ-сфере. Например, Grammarly, пользуется AWS, но для ИИ-решений использует модели OpenAI, в том числе в Microsoft Azure, а также Meta Llama, поскольку AWS Bedrock не отвечает ценовым и другим потребностям компании, заявил технический директор стартапа.

В начале этого месяца компания представила Quick Suite — чат-бот и набор ИИ-агентов, предназначенных для анализа данных, создания отчётов или резюмирования веб-контента, которые ориентированы на офисных сотрудников. В этой области компания не добилась особого успеха. Руководители в частном порядке признают, что, в отличие от Google и Microsoft, которые могут демонстрировать свои ИИ-инструменты миллиардам клиентов поисковой системы или пользователей ПК, естественный охват AWS ограничен гораздо более узким сообществом разработчиков.

Для этой аудитории AWS продолжает расширять возможности Bedrock. Bedrock считается самым успешным ИИ-продуктом компании, число пользователей которого исчисляется десятками тысяч. По словам клиентов и партнёров, отделы продаж сделали увеличение их количества приоритетом. Однако Amazon может преуспеть в эпоху ИИ, просто выступая в качестве поставщика инфраструктуры для других компаний и управляя ею экономически эффективно. По мнению аналитиков, большая часть корпоративных проектов в области ИИ носит экспериментальный характер. Если проект получит более широкую поддержку, экономия средств и надёжная инфраструктура (если не учитывать недавний сбой) — два основных преимущества AWS — станут ещё важнее, утверждают руководители компании.

Постоянный URL: http://servernews.ru/1131411
26.10.2025 [14:20], Сергей Карасёв

d-Matrix представила систему SquadRack для ИИ-инференса со сверхнизкой задержкой

Компания d-Matrix анонсировала систему SquadRack — стоечное решение для пакетного инференса со сверхнизкой задержкой. Это, как утверждается, первый в отрасли продукт данного класса. В его разработке приняли участие специалисты Arista, Broadcom и Supermicro.

В основу SquadRack положена серверная платформа Supermicro X14 AI. Судя по изображениям, используется модель SYS-522GA-NRT, которая допускает установку двух процессоров Intel Xeon 6900 (Granite Rapids) и 24 модулей оперативной памяти DDR5-8800. Доступны 24 фронтальных отсека для SFF-накопителей U.2/U.3 (NVMe). Устройство выполнено в форм-факторе 5U.

Система SquadRack предусматривает использование ускорителей d-Matrix Corsair. Их архитектура основана на модифицированных ячейках SRAM для вычислений в памяти (DIMC), работающих на скорости около 150 Тбайт/с. По заявлениям d-Matrix, решение обеспечивает непревзойдённую производительность ИИ-инференса: быстродействие достигает 2,4 Пфлопс (8-бит вычисления). Кроме того, задействованы IO-карты d-Matrix JetStream, предназначенные для распределения нагрузок инференса. Одна такая карта может обслуживать до четырёх экземпляров Corsair, обеспечивая сетевую задержку на уровне 2 мкс.

 Источник изображения: d-Matrix

Источник изображения: d-Matrix

Решение SquadRack также оборудовано PCIe-коммутаторами Broadcom для масштабирования в пределах одного узла. В свою очередь, связь между узлами обеспечивают коммутаторы Arista Leaf Ethernet, подключённые к картам JetStream. Применяется программный стек d-Matrix Aviator.

В одну стойку могут быть установлены до восьми экземпляров SquadRack, что позволяет с высокой скоростью обрабатывать модели ИИ, насчитывающие до 100 млрд параметров. В целом, возможно масштабирование до сотен узлов в нескольких серверных стойках.

Постоянный URL: http://servernews.ru/1131408

Входит в перечень общественных объединений и религиозных организаций, в отношении которых судом принято вступившее в законную силу решение о ликвидации или запрете деятельности по основаниям, предусмотренным Федеральным законом от 25.07.2002 № 114-ФЗ «О противодействии экстремистской деятельности»;

Система Orphus