Лента новостей
13.12.2024 [11:55], Руслан Авдеев
ExxonMobil впервые построит газовую электростанцию специально для питания ИИ ЦОДТранснациональный нефтегазовый гигант ExxonMobil обнародовал планы строительства новой электростанции мощностью 1,5 ГВт, работающей на природном газе. Предполагается, что новые проект будет снабжать электричеством только дата-центры, сообщает Datacenter Dynamics. Пока проект находится на ранних стадиях реализации. Речь идёт о первой энергетической инициативе Exxon, предполагающей строительство электростанции, не обеспечивающей электричеством собственные операции компании. Компания начала изучать перспективы бизнеса электрогенерации в этом году, когда стало понятно, что спрос на электричество стремительно растёт благодаря массовому строительству ЦОД в США. В Exxon утверждают, что намерены внедрить технологию захвата углерода для нейтрализации более 90 % выбросов электростанции. Местоположение электростанции Exxon пока не раскрывается, но известно, что компания уже зарезервировала землю и ведёт переговоры с потенциальными потребителями энергии из числа операторов ЦОД. В компании заявляют, что проект полностью соответствует рыночному спросу — он низкоуглеродный, лишён проблем с сетевыми подключениями и будет быстро реализован. ![]() Источник изображения: Mick Truyts/unsplash.com Новости Exxon отражают более широкие изменения на рынке энергетики — спрос на природный газ растёт на фоне роста спроса со стороны ИИ ЦОД. На прошлой неделе Meta✴ построит за $10 млрд ЦОД на северо-востоке Луизианы. Дата-центр будет получать 1,5 ГВт от газовых турбин Entergy Louisiana. В S&P Global уже пришли к выводу, что спрос на природный газ для обеспечения энергией ЦОД может достичь минимум 85 млн м3 в день к 2030 году, максимум — он будет вдвое больше. В результате природный газ стал своеобразным «мостом» для перехода на «зелёные» источники энергии с низким углеродным выбросом. В прошлом месяце американский оператор электросетей Midcontinent Independent System Operator заявил, что ЦОД могли бы потенциально платить за «газовую» генерацию для получения энергии в краткосрочной перспективе. Впрочем, многие опасаются, что даже быстрого масштабирования газовых электростанций будет недостаточно для удовлетворения спроса дата-центров на электроэнергию, особенно в крупнейшем мировом хабе ЦОД в Вирджинии. В новом докладе властей штата предупреждается, что для соответствия росту ЦОД необходимо будет строить новую электростанцию на 1,5 ГВт на природном газе каждые два года в течение 15 лет. Это первая попытка Exxon заняться генерацией энергии для ЦОД. Ранее компания инвестировала в технологии жидкостного охлаждения. Она сотрудничала с Intel над разработкой новых СЖО для дата-центров. В октябре 2023 года ExxonMobil объявила о намерении выйти на рынок охлаждающих жидкостей для ЦОД — синтетических и полусинтетических.
13.12.2024 [10:52], Сергей Карасёв
Квартальный объём мирового рынка корпоративного WLAN-оборудования достиг $2,5 млрдКомпания International Data Corporation (IDC) обнародовала результаты исследования глобального рынка корпоративного оборудования для беспроводных локальных сетей (WLAN) по итогам III квартала 2024 года. Аналитики отмечают, что отрасль стабилизируется после потрясений, вызванных пандемией COVID-19, когда нарушилась работа производств и цепочек поставок. Продажи WLAN-оборудования с июля по сентябрь включительно составили примерно $2,5 млрд. Это на 5,8 % больше по сравнению со II четвертью текущего года, однако на 1,7 % меньше по отношению к III кварталу 2023-го. Падение продаж за первые три квартала 2024-го составило в годовом исчислении около 17,5 %. ![]() Источник изображения: IDC На точки доступа Dependent Access Point стандарта Wi-Fi 6E пришлось 31,7 % в общем объёме выручки против 20,4 % годом ранее. Ещё 4,9 % продаж в денежном выражении обеспечили решения Wi-Fi 7. Основная масса прочих точек доступа Dependent Access Point основана на технологии Wi-Fi 6. В США сегмент корпоративного WLAN-оборудования в III четверти 2024-го сократился на 3,2 % в годовом исчислении, но вырос на 10,7 % в квартальном. В Западной Европе рынок показал рост на 0,2 % в годовом исчислении и на 4,2 % в квартальном. В Центральной и Восточной Европе прибавка составила соответственно 0,5 % и 7,8 %. В Азиатско-Тихоокеанском регионе, за исключением Японии и Китая, сектор сократился на 4,4 % в годовом исчислении и на 3,5 % в квартальном. В КНР зафиксировано падение на 10,2 % в годовом исчислении, тогда как в квартальном выражении отмечен рост на 2,2 %. В список ведущих поставщиков WLAN-продуктов на корпоративном рынке входят Cisco (41,6 % в денежном выражении), HPE Aruba Networking (15,1 %), Ubiquiti (8,3 %), Huawei (7,2 %) и Juniper Networks (5,3 %).
12.12.2024 [23:59], Руслан Авдеев
Царь-ускоритель Cerebras WSE-3 в одиночку обучил ИИ-модель с 1 трлн параметровCerebras Systems совместно с Сандийскими национальными лабораториями (SNL) Министерства энергетики США (DOE) провели успешный эксперимент по обучению ИИ-модели с 1 трлн параметров с использованием единственной системы CS-3 с царь-ускорителем WSE-3 и 55 Тбайт внешней памяти MemoryX. Обучение моделей такого масштаба обычно требует тысяч ускорителей на базе GPU, потребляющих мегаватты энергии, участия десятков экспертов и недель на наладку аппаратного и программного обеспечения, говорит Cerebras. Однако учёным SNL удалось добиться обучения модели на единственной системе без внесения изменений как в модель, так и в инфраструктурное ПО. Более того, они смогли добиться и практически линейного масштабирования — 16 систем CS-3 показали 15,3-кратный прирост скорости обучения. Модель такого масштаба требует терабайты памяти, что в тысячи раз больше, чем доступно отдельному GPU. Другими словами, классические кластеры из тысяч ускорителей необходимо корректно подключить друг к другу ещё до начала обучения. Системы Cerebras для хранения весов используют внешнюю память MemoryX на базе 1U-узлов с самой обычной DDR5, благодаря чему модель на триллион параметров обучать так же легко, как и малую модель на единственном ускорителе, говорит компания. Ранее SNL и Cerebras развернули кластер Kingfisher на базе систем CS-3, который будет использоваться в качестве испытательной платформы при разработке ИИ-технологий для обеспечения национальной безопасности.
12.12.2024 [22:54], Владимир Мироненко
Всё дальше от народа: Marvell предложила гиперскейлерам кастомизацию HBM для ИИ-ускорителейMarvell Technology анонсировала новый подход к интеграции HBM (CHBM) в специализированные XPU, который предоставляет адаптированные интерфейсы для оптимизации производительности, мощности, размера кристалла и стоимости для конкретных конструкций ИИ-ускорителей. Как указано в пресс-релизе, этот подход учитывает вычислительный «кремний», стеки HBM и упаковку. Marvell сотрудничает с облачными клиентами и ведущими производителями HBM, такими, как Micron, Samsung и SK hynix. CHBM повышает возможности XPU, ускоряя ввода-вывод между внутренними кристаллами самого ускорителя и базовыми кристаллами HBM. Это приводит к повышению производительности и снижению энергопотребления интерфейса памяти до 70 % по сравнению со стандартными интерфейсами HBM. Оптимизированные интерфейсы также уменьшают требуемую площадь кремния в каждом кристалле, позволяя интегрировать логику для поддержки HBM в базовый кристалл и сэкономить до 25 % площади. Высвободившееся пространство может быть использовано для размещения дополнительных вычислительных или функциональных блоков и поддержки до 33 % большего количества стеков HBM. Всё это повышает производительность и энергоэффективность XPU, одновременно снижая совокупную стоимость владения для операторов облачных инфраструктур. Правда, это же означает и несоответствие стандартами JEDEC. Как отметил ресурс ServeTheHome, HBM4 требует более 2000 контактов, т.е. вдвое больше, чем HBM3. Для кастомного решения нет необходимости в таком количестве контактов, что также высвобождает место для размещения других компонентов. «Ведущие операторы ЦОД масштабируются с помощью индивидуальной инфраструктуры. Улучшение XPU путем адаптации HBM к конкретной производительности, мощности и общей стоимости владения — это последний шаг в новой парадигме разработки и поставки ускорителей ИИ», — сказал Уилл Чу (Will Chu), старший вице-президент Marvell и генеральный менеджер группы Custom, Compute and Storage. В свою очередь, Гарри Юн (Harry Yoon), корпоративный исполнительный вице-президент Samsung Electronics, отметил, что оптимизация HBM для конкретных XPU и программных сред значительно повысит производительность облачной инфраструктуры операторов и её энергоэффективность. Согласно данным ServeTheHome, в этом году гиперскейлеры увеличили капзатраты примерно на $100 млрд. Следующее поколение ИИ-кластеров будет в десять и более раз превосходить по мощности систему xAI Colossus на базе 100 тыс. NVIDIA H100. Отказ от стандартов JEDEC и появление возможности настройки памяти с учётом потребностей гиперскейлеров является монументальным шагом для отрасли. Также этого говорит о нацеленности архитектуры Marvell XPU на гиперскейлеров, поскольку в таком «тюнинге» памяти небольшие заказчики не нуждаются.
12.12.2024 [18:37], Руслан Авдеев
Broadcom поможет Apple создать собственные серверные ИИ-ускорителиПо неофициальным данным, Apple работает с Broadcom над разработкой серверного ИИ-ускорителя для обслуживания ИИ-сервисов в своих ОС. По словам трёх анонимных источников The Information, чип создаётся в рамках проекта Baltra и будет запущен в производство в 2026 году. Ранее компании уже работали над 5G-технологиями. Деталей пока немного. На одной из конференций в этом году представитель Apple заявил, что ИИ-экосистема Apple Intelligence должна работать как на самих устройствах компании, так и в частном облаке Apple Private Cloud Compute на базе чипов M2 Ultra. Они используются для инференса, тогда как для обучения ИИ-моделей Apple использует ускорители Google TPU. Первые слухи о том, что компания разрабатывает серверные ускорители, появились в мае 2024 года. У компании богатый опыт разработки Arm-чипов, а Broadcom, помимо прочего, продаёт лицензии на различные IP-блоки и уже не раз помогала гиперскейлерам в создании кастомных чипов. Не так давно Broadcom анонсировала новую технологию упаковки 3.5D eXtreme Dimension System in Package (3.5D XDSiP), которая как раз ориентирована на создание высокопроизводительных кастомных чипов. Она позволяет объединить два 3D-стека, пару I/O чиплетов и до 12 модулей памяти HBM3 в одной упаковке, занимающей более 6000 мм². Производство первых чипов по этой технологии ожидается в 2026 году. Созданием собственных ИИ-ускорителей заняты практически все крупные гиперскейлеры. Google первой занялась созданием собственных ускорителей и теперь в её портфолио есть уже шесть поколений TPU, Meta✴ трудится над MTIA, AWS предлагает Trainium2 и Inferentia2, Microsoft анонсировала Maia 100, Alibaba разработала Hanguang 800, а ByteDance и OpenAI пока ещё только создают будущие ускорители, причём при помощи всё той же Broadcom. Впрочем, для многих из них это попытка снизить зависимость от NVIDIA, выручка которой бьёт все рекорды.
12.12.2024 [17:36], Сергей Карасёв
FPGA + EPYC: AWS представила AMD-инстансы EC2 F2 с процессорами Milan и ПЛИС Virtex UltraScale+Облачная платформа AWS анонсировала инстансы второго поколения с FPGA на борту. Экземпляры EC2 F2 ориентированы на решение задач в области геномики, обработки мультимедийных материалов, больших данных, спутниковой связи, компьютерных сетей, моделирования кремниевых чипов и видеотрансляций в реальном времени. В новых инстансах применяются FPGA AMD Virtex UltraScale+ HBM VU47P. Эти изделия содержат 2,852 млн логических ячеек и 9024 DSP. Заявленная ИИ-производительность достигает 28 TOPS при вычислениях INT8. Кроме того, в состав EC2 F2 входят процессоры AMD EPYC поколения Milan. Новые инстансы доступны в вариантах f2.12xlarge и f2.48xlarge — с 48 и 192 vCPU и 2 и 8 FPGA соответственно. Каждая ПЛИС оперирует 16 ГиБ памяти HBM и 64 ГиБ памяти DDR4. Таким образом, в случае f2.12xlarge используется в сумме 32 ГиБ HBM и 128 ГиБ DDR4, а в случае f2.48xlarge — 128 ГиБ и 512 ГиБ соответственно. ![]() Источник изображения: AWS Конфигурация f2.12xlarge включает 512 ГиБ системной памяти и два накопителям NVMe SSD суммарной вместимостью 1900 ГиБ. Пропускная способность сетевого подключения составляет 25 Гбит/с, пропускная способность EBS-томов — 15 Гбит/с. У экземпляра f2.48xlarge объём памяти составляет 2048 ГиБ, общая вместимость NVMe SSD — 7600 ГиБ. Пропускная способность сетевого подключения и EBS-томов достигает 100 Гбит/с и 60 Гбит/с соответственно. Для этого экземпляра предусмотрена поддержка AWS Cloud Digital Interface (CDI) для надёжной передачи несжатого видео (задержка между инстансами заявлена на уровне 8 мс).
12.12.2024 [14:04], Руслан Авдеев
Большому ИИ — ёмкий SSD: выручка поставщиков серверных SSD в III квартале взлетела на 28,6 %Мировой рынок SSD корпоративного класса значительно вырос в III квартале 2024 года, а основным драйвером роста стал огромный спрос на связанные с ИИ задачи. По данным TrendForce, значительную роль сыграл и рост цен, поскольку поставщики с трудом справлялись со спросом. В целом выручка индустрии выросла на впечатляющие 28,6 % квартал к кварталу. Спрос на накопители высокой ёмкости подогревался появлением ускорителей NVIDIA H100/H200 и устойчивыми заказами на серверы для обучения ИИ-моделей. В результате общий объём закупок SSD вырос в сравнении с предыдущим кварталом на 15 %. В IV квартале TrendForce прогнозирует замедление роста выручки, поскольку спрос начинает «охлаждаться». Общие объёмы закупок упадут, поскольку пик, похоже, позади, а OEM-производители серверов пересматривают заказы в меньшую сторону. Ранее сообщалось, что поставки SSD во II квартале упали на 18,4 %, при этом суммарная ёмкость выросла благодаря серверным NVMe-накопителям. Примечательно, что год назад расстановка сил на рынке отличалась. Несмотря на сильный рост рынка в III квартале, позиции поставщиков по доходам остались без изменений. Но изменения в структуре заказов на SSD высокой ёмкости, которые дороже других, привели к тому, что темпы роста у вендоров отличались. Samsung сохранила позицию главного поставщика корпоративных SSD, выручка в III квартале достигла $3,2 млрд. Рост показателей компании превысил ожидания благодаря повышенному спросу на модели высокой ёмкости, хотя некоторые поставки пришлось отменить из-за оптимизации производства. Доля серверных SSD в выручке компании продолжает расти. Ожидается, что компания сохранит рост выручки и в IV квартале на фоне больших объёмов поставок SSD ёмкостью до 8 Тбайт. SK Group (SK hynix и Solidigm) сохранила позицию второго по величине поставщика твердотельных накопителей корпоративного уровня, выручка в III квартале выросла до $2,058 млрд. Компания добилась рекордных поставок решений для ИИ. В IV квартале выручка SK Group, как ожидается, останется стабильной и будет подкрепляться массовым производством SSD следующего поколения с интерфейсом PCIe 5.0 и 176-слойной памяти TLC NAND. Новые продукты, наряду с уже имеющимися SSD Solidigm на базе PCIe 4.0 и 144-слойной TLC- и QLC-памяти, и должны, как ожидается, сохранить выручку на прежнем уровне. Третье место заняла Micron с $1,153 млрд выручки, полученной благодаря стабильному росту поставок SSD высокой ёмкости. Увеличенные поставки таких продуктов привели к росту показателей компании. Впрочем, в следующем квартале Micron может столкнуться с проблемами из-за роста спроса на SSD ёмкостью 60 Тбайт — этот продукт Micron всё ещё в процессе валидации многими партнёрами, что может повлиять на выручку в IV квартале. ![]() Истчоник изображения: TrendForce Выручка Kioxia выросла до $636 млн, компания заняла четвёртое место среди поставщиков. Хотя в целом поставки выросли, по росту продаж продуктов высокой ёмкости компания отстаёт от конкурентов. Для того, чтобы сбалансировать ситуацию, компания сделала ставку на ограничение поставок SSD объёмом до 8 Тбайт. Теперь она усиливает сотрудничество с ключевыми североамериканскими клиентами и старается нарастить поставки SSD большой ёмкости. Western Digital и SanDisk теперь отвечают за HDD и NAND/SSD соответственно, поэтому структура отчётности меняется. Разделение бизнеса направлено на увеличение операционной гибкости и углубление сотрудничества с ключевыми североамериканскими клиентами. В III квартале бизнес Western Digital, связанный с корпоративными SSD, зарегистрировал рост выручки на 100 % квартал к кварталу до $332 млн благодаря повышению спроса со стороны североамериканских клиентов.
12.12.2024 [13:41], Руслан Авдеев
США предложили проложить первый подводный SMART-кабель до АнтарктикиНациональный научный фонд правительства США (NSF) исследует возможность прокладки кабеля, соединяющего Антарктиду с Новой Зеландией или Австралией. Кабель предложено протянуть до станции Мак-Мердо — крупнейшего исследовательского центра по изучению Антарктики, сообщает Datacenter Dynamics. Хотя основной задачей будет обеспечение станции высокоскоростной связью с малой задержкой, кабель будет снабжён различными датчиками и сенсорами, что позволит впервые провести новые исследования, связанные с самыми разными дисциплинами. Особый интерес уже высказали сейсмологи. Речь идёт о кабеле класса SMART (Science Monitoring and Reliable Telecommunications). Фонд уже сформировал технико-экономическое обоснование прокладки кабеля и опубликовал. запрос на информацию, призывающий заинтересованные стороны откликнуться до середины января 2025 года с собственными соображениями относительно инициативы. Запрашиваются сведения о необходимых для включения в кабель сенсоров, местах разветвления кабеля, перспективных методах оптоволоконного зондирования и т.п. Согласно выкладкам NSF, маршрут из Новой Зеландии, вероятно, предпочтительнее, поскольку он на 1,5 тыс. км короче, чем путь до Австралии, дешевле, безопаснее и охватывает больше регионов, представляющих научный интерес. Что касается коммерческих кабелей, в обозримом будущем Антарктика, вероятно, останется зоной, свободной от них — отсутствуют очевидные экономические выгода от прокладки новых цифровых маршрутов в регионе. Тем временем на Крайнем Севере разрабатываются несколько кабельных маршрутов, включая Far North Fiber на Аляске и Polar Connect. Последний предполагает прокладку части кабеля через ледяной щит Северного полюса. Оба маршрута предполагают обеспечение связью США, Европы и Азии через Северный морской путь. Не так давно Евросоюз выделил инициативе Polar Connect €4 млн на картографирование Северного Ледовитого океана. Такие меры необходимо принять перед прокладкой новых магистралей. Эксплуатация в этих водах довольно рискованна. Например, в прошлом году арктический лёд порвал одну из подобных магистралей.
12.12.2024 [12:50], Сергей Карасёв
144-ядерный Arm-процессор Fujitsu Monaka получит 3.5D-упаковку от BroadcomКорпорация Fujitsu, по сообщению ресурса Tom's Hardware, продемонстрировала прототип серверного процессора Monaka для дата-центров. Это изделие проектируется с прицелом на НРС-платформы, а также на ЦОД, ориентированные на решение ресурсоёмких задач в области ИИ. О проекте Monaka стало известно в начале 2023 года. Тогда говорилось, что разработка изделия является частью программы, курируемой японской Организацией по развитию новых энергетических и промышленных технологий (NEDO). Процессор основан на архитектуре Arm с набором инструкций Armv9-A и поддержкой масштабируемых векторных расширений SVE2. Как теперь сообщается, для чипа Monaka предусмотрено использование технологии Broadcom 3.5D eXtreme Dimension System in Package (SiP). Конструкция процессора включает четыре 36-ядерных вычислительных чиплета, изготовленных по 2-нм технологии TSMC. Таким образом, суммарное количество ядер достигает 144. Эти чиплеты монтируются поверх «плиток» SRAM с использованием гибридного медного соединения (HCB). Блоки SRAM, выполняющие функции кеш-памяти, производятся по 5-нм техпроцессу TSMC. Кроме того, имеется крупный чиплет ввода-вывода, в состав которого входят контроллеры DDR5 (12 каналов) и PCI Express 6.0/CXL 3.0. Процессор Monaka нацелен на широкий спектр рабочих нагрузок в дата-центрах. Для чипа не предусмотрено использование памяти HBM — вместо этого будет применяться DDR5, возможно, в реализациях MR-DIMM и MCR-DIMM. Упомянуты расширенные функции безопасности, включая Confidential Computing Architecture (CCA). Monaka предстоит конкурировать с процессорами AMD EPYC и Intel Xeon. Одним из главных преимуществ нового изделия перед этими чипами, по всей видимости, станет более высокая энергетическая эффективность. Fujitsu намерена начать продажи Monaka в течение 2027 финансового года, который у компании продлится с 1 апреля 2026-го до 31 марта 2027-го.
12.12.2024 [12:47], Сергей Карасёв
Разработчик оптического межчипового интерконнекта Ayar Labs получил инвестиции от AMD, Intel и NVIDIAКомпания Ayar Labs, занимающаяся разработкой интерконнекта на базе кремниевой фотоники, объявила о проведении раунда финансирования Series D, в ходе которого привлечено $155 млн. При этом рыночная стоимость стартапа, по оценкам, достигла $1 млрд. По заявлениям Ayar Labs, компания создала первое в отрасли решение для оптического ввода-вывода в виде изделия в едином корпусе, которое готово к коммерческому использованию. Продукт оптимизирован для объединения чипов для обучения ИИ-моделей и инференса. Технология Ayar Labs предполагает обмен данными между чипами посредством света, а не электрических импульсов. Решение, как утверждается, позволяет максимизировать вычислительную эффективность и производительность инфраструктуры ИИ при одновременном снижении затрат и энергопотребления. В мае 2023 года Ayar Labs сообщила о привлечении $25 млн инвестиций по расширенной программе Series C1. Тогда финансовую поддержку оказали Capital TEN, VentureTech Alliance, Boardman Bay Capital Management, IAG Capital Partners, NVIDIA и Tyche Partners. В число инвесторов также входят Applied Ventures, GlobalFoundries, Hewlett Packard Pathfinder, Intel Capital и Lockheed Martin Ventures. Новый инвестиционный раунд Series D возглавили Advent Global Opportunities и Light Street Capital. Средства также предоставили AMD Ventures, Intel Capital и NVIDIA. Другими стратегическими инвесторами, участвующими в раунде, стали 3M Ventures и Autopilot. Таким образом, в общей сложности Ayar Labs на сегодняшний день привлекла $370 млн. Ожидается, что полученные средства помогут стартапу в дальнейшем развитии и масштабировании своей технологии оптического интерконнекта. Кроме того, компания планирует расширение штата. |
|