Лента новостей
25.11.2024 [20:50], Руслан Авдеев
Amazon вложит ещё $4 млрд в Anthropic и снизит её зависимость от NvidiaКомпания Amazon (AWS) раскрыла планы удвоить инвестиции в Anthropic, доведя их до $8 млрд. Объявление о новых вложениях было сделано через год после того, как гиперскейлер сообщил о выделении стартапу $4 млрд, сообщает Silicon Angle. На тот момент главный конкурент OpenAI назвал AWS своим ключевым облачным провайдером. С новой сделкой роль AWS в обучении моделей Anthropic только усилится. Anthropic представила свою наиболее передовую модель Claude 3.5 Sonnet в прошлом месяце — это улучшенная версия большой языковой модели (LLM) той же серии, дебютировавшей несколько месяцев назад. Новая Claude 3.5 Sonnet лучше предшественницы в выполнении некоторых задач, включая написание кода. Она также обошла OpenAI GPT-4o в нескольких бенчмарках. Anthropic предлагает свои LLM через сервис Amazon Bedrock, обеспечивающий доступ к управляемым ИИ-моделям. Расширенное сотрудничество обеспечит пользователям ранний доступ к функции, позволяющей настраивать модели Claude с использованием кастомных датасетов. Также планируется поддержать друг друга в разработках. Anthropic будет использовать ИИ-ускорители Trainium и Inferentia для внутренних задач. В компании подчеркнули, что задействуют ускорители для крупнейших базовых моделей. В то же время специалисты Anthropic поддержат AWS в разработке новых чипов Tranium. Стек ПО Neutron включает компилятор, оптимизирующий ИИ-модели для работы на инстансах Tranium, и некоторые другие инструменты. Компания также работает над низкоуровневыми программными ядрами, распределяющими задачи между вычислительными ядрами ускорителей. Последний раунд финансирования Anthropic состоится через два месяца после того, как OpenAI привлекла рекордные для стартапа $6,6 млрд. Также она получила кредитную линию на $4 млрд от группы банков. OpenAI, оцениваемая в $157 млрд, будет инвестировать средства в ИИ-исследования и вычислительную инфраструктуру.
25.11.2024 [17:21], Руслан Авдеев
Atos вновь готовится продать французскому правительству часть бизнесаФранцузская компания Atos ведёт переговоры с французским правительством о продаже ему подразделения, занимающегося «передовой вычислительной деятельностью» (Advanced Computing Activities). Пресс-служба компании сообщает, что эта часть бизнеса обойдётся в €500 млн ($524 млн). Компания, оказавшаяся на грани банкротства и обеспечивающая связью французских военных и спецслужбы, а также выпускающая суперкомпьютеры и другие решения, сейчас находится в процессе реструктуризации долгов и постоянно меняет директоров. За последние четыре месяца правительство пыталось достичь с руководством компании соглашения, чтобы сохранить в руках государства контроль над стратегическими технологиями Atos и предотвратить их попадание к зарубежным покупателям. Стороны рассчитывают на подписание соглашения о покупке акций до 31 мая, когда закончится период эксклюзивности. В своём заявлении Atos сообщила, что первоначальный платёж должен составить €150 млн после подписания соглашения. Потенциально сумма сделки может вырасти до €650 млн, включая дополнительные выплаты. По словам представителя французских властей, правительство способно, когда это необходимо, сохранить стратегически важные отрасли для защиты суверенитета. ![]() Источник изображения: Jametlene Reskp/unsplash.com В подразделение Atos BDS входят Advanced Computing, Critical Systems и Cyber Products, в которых работает 4 тыс. человек, а их совокупные продажи составляют около €900 млн ежегодно. Atos также заявила, что намерена запустить процесс продажи Critical Systems и Cyber Products. С учётом продажи одного из подразделений к 2027 году финансовый рычаг компании (соотношение чистого долга к базовой прибыли) будет находиться в диапазоне от 1,8 до 2,1. Это считается умеренным уровнем долговой нагрузки. Парламентская финансовая комиссия Франции ранее в этом месяце заявила о принятии поправки, способной привести к национализации Atos. Ещё в апреле сообщалось о намерении французских властей купить часть активов Atos, но в октябре появилась новость, что они отказались от своих планов.
25.11.2024 [16:17], Владимир Мироненко
В Lattice Semiconductor обсуждают возможность покупки у Intel всего FPGA-подразделения AlteraLattice Semiconductor из Хиллсборо (штат Орегон) проявила интерес к покупке Altera (ранее PSG), подразделения Intel, специализирующегося на разработке ПЛИС. Это не вполне согласуется с планами производителя чипов продать лишь миноритарный пакет акций подразделения для улучшения своего финансового положения. Именно такое предложение Intel разослала потенциальным покупателям. Тем не менее, по данным источников Bloomberg, в Lattice Semiconductor обсуждают с консультантами возможность подачи предложения о полной покупке Altera и сейчас ищут потенциального частного инвестора для финансирования сделки. Как сообщают источники, компании, специализирующиеся на поглощениях, включая Francisco Partners, Bain Capital и Silver Lake Management, также рассматривают варианты инвестирования в Altera. Кроме того, возможность покупки доли в Altera может привлечь интерес и других полупроводниковых компаний. Предложения о покупке Altera должны быть поданы в четверг на этой неделе, сообщили источники агентства. По мнению аналитиков Bloomberg, приобретение Altera станет для Lattice сложной задачей, учитывая её относительно небольшие размеры. Рыночная стоимость Lattice составляет $7,48 млрд, что менее половины суммы, которую Intel заплатила за Altera в 2015 году — около $17 млрд. ![]() Источник изображения: Intel По словам источников, предложения о покупке доли в Altera, чьи многоцелевые чипы преимущественно используются в телекоммуникационных сетях, должны быть тщательно структурированы. Частные инвестиционные компании рассматривают возможность инвестирования порядка $3 млрд, которые могут быть представлены в форме сложных интегрированных инструментов. Это может привести к оценке Altera ниже той стоимости, за которую её приобрела Intel, отмечают источники. Intel в прошлом месяце вновь заявила о намерении продать долю в Altera, не отказываясь от планов дальнейшего проведения IPO. Это является частью более широкой стратегии чипмейкера по реорганизации своего бизнеса. На этой неделе состоится заседание совета директоров Intel, повестка которого включает обсуждение будущего Altera, сообщили источники, повторив, что Intel предпочла бы продать миноритарную долю в Altera, а не все подразделение. Генеральный директор Intel Пэт Гелсингер (Pat Gelsinger) заявил, что компания намерена решить вопрос с Altera в начале следующего года. Источники подчеркнули, что потенциальные покупатели Altera продолжают обсуждения, и гарантий того, что сделка состоится, пока нет.
25.11.2024 [13:10], Руслан Авдеев
Эффективность новинок NVIDIA в рейтинге суперкомпьютеров Green500 оказалась под вопросом из-за чипов AMD и… самой NVIDIAХотя ускорители NVIDIA считаются одними из самых энергоёмких в своём классе, суперкомпьютеры на основе чипов компании по-прежнему доминируют в мировом рейтинге энергоэффективности соответствующих машин — Green500. Тем не менее компания столкнулась с сильной конкуренцией со стороны AMD и не всегда готова состязаться даже с собственной продукцией, сообщает The Register. На первый взгляд, лидерство проектов на базе NVIDIA неоспоримо. Восемь из десяти суперкомпьютеров, входящих в «Топ-10» энергоэффективных машин, построены на чипах NVIDIA, из них пять — на 1000-ваттных гибридных ускорителях GH200. В новейшем рейтинге Green500 на их основе построены первая и вторая из наиболее энергоэффективных систем — JEDI (EuroHPC) и ROMEO-2025 (Romeo HPC Center). В бенчмарке High-Performance Linpack они продемонстрировали производительность 72,7 Гфлопс/Вт и 70,9 Гфлопс/Вт соответственно (FP64). Системы почти идентичны и построены на платформе BullSequana XH3000 компании Eviden (Atos). На решение GH200 также приходятся четвёртая, шестая и седьмая позиции рейтинга: Isambard-AI Phase 1 (68,8 Гфлопс/Вт), Jupiter Exascale Transition Instrument (67,9 Гфлопс/Вт) и Helios (66,9 Гфлопс/Вт). Системы с проверенными NVIDIA H100 занимают пятое, восьмое и девятое места — это Capella, Henri и HoreKa-Teal. ![]() Источник изображения: Jakub Żerdzicki/unsplash.com Тем не менее есть сомнения в том, что продукты NVIDIA и дальше будут безраздельно господствовать в рейтинге Green500. Уже на подходе решения Grace-Blackwell в виде GB200 (2,7 кВт) и GB200 NVL4 (5,4 кВт). Новые продукты далеко не всегда обеспечивают максимальную производительность на ватт энергии. При переходе от A100 (2020 год) к H100 (2022 год) FP64-производительность взлетела приблизительно в 3,5 раза, но в сравнении с 1,2-кВт платформой Blackwell даже 700-Вт H100 в режиме матричных FP64-вычислений фактически быстрее. Для FP64 улучшилась только работа с векторными операциями, где новинки оказались на 32 % производительнее. Другими словами, хотя сегодня NVIDIA может похвастаться высоким положением в рейтинге Green500, решение на ускорителях MI300A компании AMD уже заняло третье место (Adastra 2). MI300A анонсировали чуть менее года назад, решение получило 24-ядерный CPU и шесть чиплетов CDNA-3 в едином APU-модуле, оснащённым до 128 Гбайт памяти HBM3, а также настраиваемый уровень TDP 550–760 Вт. Более того, такая система в 1,8 раза производительнее NVIDIA H100 (по крайней мере, на бумаге). Суперкомпьютер Adastra 2 на базе HPE Cray EX255a обеспечивает производительность 69 Гфлопс/Вт. Десятое место также занимает машина на MI300A — RZAdams Ливерморской национальной лаборатории (62,8 Гфлопс/Вт). Таким образом, все системы, входящие в первую десятку рейтинга Green500, уже значительно превышают целевой показатель энергоэффективности в 50 Гфлопс/Вт, необходимый для достижений 1 Эфлопс (FP64) при энергопотреблении до 20 МВт. Проблема в том, что малые системы значительно эффективнее: JEDI потребляет всего 67 кВт, а самая производительная машина на базе GH200 в рейтинге TOP500 — швейцарская Alps — обеспечивает 434 Пфлопс (FP64), потребляя 7,1 МВт — это лишь 14-я из наиболее энергоэффективных машин (61 Гфлопс/Вт). Та же проблема и с Adastra 2: компьютер потребляет даже меньше JEDI — 37 кВт. Если бы удалось сохранять уровень 69 Гфлопс/Вт в больших масштабах, потребовалось бы всего 25,2 МВт для достижения 1,742 Эфлопс, как у El Capitan. Но последнему требуется около 29,6 МВт для достижения таких рекордных показателей.
25.11.2024 [12:35], Сергей Карасёв
Asustor представила Flashstor NAS второго поколения на платформе AMD Ryzen EmbeddedВесной 2023 года компания Asustor анонсировала компактные сетевые хранилища (NAS) типа All-Flash под названием Flashstor 6 и Flashstor 12 на процессорах Intel Jasper Lake. А теперь дебютировали устройства второго поколения — Flashstor 6 Gen2 и Flashstor 12 Pro Gen2, в основу которых легла аппаратная платформа AMD Ryzen Embedded. Новинки несут на борту чип Ryzen Embedded V3C14 (4C/8T, 2,3/3,8 ГГц, TDP 15 Вт). Процессор работает в тандеме с оперативной памятью DDR5-4800, объём которой составляет 8 Гбайт у младшей модели и 16 Гбайт у старшей. В обоих случаях размер ОЗУ может быть увеличен до 64 Гбайт. Предусмотрен флеш-модуль eMMC вместимостью 8 Гбайт для ОС. Хранилище Flashstor 6 Gen2 получило шесть коннекторов M.2 для накопителей NVMe SSD с интерфейсом PCIe 4.0, один сетевой порт 10GbE RJ-45 и адаптер питания мощностью 90 Вт. В оснащение Flashstor 12 Pro Gen2 входят 12 коннекторов M.2 для NVMe SSD (8 × PCIe 4.0, 4 × PCIe 3.0), два порта 10GbE RJ-45 и адаптер питания на 120 Вт. Возможно формирование массивов RAID 0/1/5/6/10. Новинки располагают двумя портами USB4 Type-C (40 Гбит/с) и тремя разъёмами USB 3.2 Gen2 Type-A (10 Гбит/с). Имеется вентилятор охлаждения диаметром 80 мм. Габариты составляют 308,26 × 193 × 48,3 мм, масса —1,45 кг. Диапазон рабочих температур — от 0 до +40 °C. Заявленная производительность в конфигурации RAID 5 при чтении / записи достигает 1179 / 1181 Мбайт/с у Flashstor 6 Gen2 и 2331 / 2358 Мбайт/с у Flashstor 12 Pro Gen2. Цена составляет соответственно $1000 и $1400.
25.11.2024 [11:40], Владимир Мироненко
Hyperion Research: рынок HPC куда больше, чем считается, и растёт он куда быстрееАналитики The Next Platform считают, что обучение и инференс ИИ в ЦОД также относятся к высокопроизводительным вычислениям (HPC), хотя в некоторых случаях могут значительно отличаться от их традиционного определения. HPC используют небольшой набор данных, расширяя его до огромных симуляций, таких как прогнозы погоды или климата, в то время как ИИ анализирует массу данных о мире и преобразует их в модель, в которую можно добавлять новые данные для ответа на вопросы, сообщается на ресурсе The Next Platform. HPC и ИИ имеют разные потребности в вычислительных ресурсах, памяти и пропускной способности на разных этапах обработки приложений. Но в конечном итоге как при HPC, так и при обучении ИИ компании стремятся объединить множество узлов в единую систему для выполнения больших объёмов работы, которые невозможно выполнить иначе. Для получения «реальных» данных о рынке HPC необходимо добавить к расходам на традиционные платформы ModSim (моделирование и симуляция) средства, потраченные на применение технологий генеративного ИИ, традиционное обучение и инференс ИИ в ЦОД. Исходя из этого, Hyperion Research значительно пересмотрела оценку рынка, учтя продажи серверов ИИ, которые ранее не включались в расчёты, в том числе решения компаний NVIDIA, Supermicro и других. В обновлённом прогнозе рынка HPC, представленном Hyperion Research в минувший вторник, расходы на серверы значительно выросли благодаря добавлению «нетрадиционных поставщиков». В 2021 году было продано серверов в объединённом секторе HPC/ИИ на $1,34 млрд, в 2022 году расходы на их покупку составили $3,44 млрд, а в 2023 году, благодаря буму на генеративный ИИ, они подскочили до $5,78 млрд. Hyperion Research ожидает, что эти производители заработают на серверах $7,46 млрд в 2024 году, и их доходы почти удвоятся к 2028 году, достигнув $14,97 млрд. Историческая часть рынка серверов HPC/ИИ (согласно прежней методике), показанная синим цветом на диаграмме, как ожидается, составит $17,93 млрд в этом году и вырастет до $26,81 млрд к 2028 году. Объединённый рынок HPC/ИИ с учётом нового подхода составит в этом году $25,39 млрд и будет расти ежегодно на 15 %, достигнув $41,78 млрд к 2028 году. Как отметили в Hyperion Research, теперь не все расходы на вычисления HPC и ИИ осуществляются локально (on-premise). Большая часть ИТ-бюджета на рабочие нагрузки HPC и ИИ переносится в облако. Hyperion подсчитала, что приложения HPC и ИИ, работающие в облаке, в совокупности «потребили» $7,18 млрд виртуальных серверных мощностей в 2023 году и что эти цифры вырастут на 21,2 % до $8,71 млрд в 2024 году. К 2028 году расходы на вычислительные мощности HPC и ИИ в облаке составят $15,11 млрд, а совокупные годовые темпы роста с 2023 по 2028 год составят 16,1 %. Помимо затрат на вычисления, бюджет HPC и ИИ включает расходы на хранение, ПО и сервисы. Hyperion ожидает, что в 2024 году общие расходы на HPC и ИИ вырастут на 22,4 %, с $42,4 млрд до $51,9 млрд. При совокупном годовом темпе роста в 15 % в период с 2023 по 2028 год все затраты на HPC и ИИ составят к 2028 году $85,5 млрд, что в два раза превышает показатель нынешнего года. Согласно данным Hyperion, в 2021 году в Китае было установлено две экзафлопсные системы стоимостью $350 млн каждая. Также по одной системе с такой же стоимостью было установлено в 2023 году и нынешнем году. Hyperion ожидает, что в 2025 году Китай установит ещё одну или две экзафлопсные системы с оценочной стоимостью $300 млн за штуку и ещё две с такой же стоимостью в 2026 году. Общая стоимость девяти экзафлопсных систем составит около $2,95 млрд — примерно столько стартап xAI, курируемый Илоном Маском (Elon Musk), израсходовал на создание кластера Colossus из 100 000 ускорителей NVIDIA H100. В Японии до сих пор нет суперкомпьютера эксафлопсного класса (речь об FP64-производительности), и она получит свой первый такой суперкомпьютер стоимостью $200 млн в 2026 году. В 2027 и 2028 годах, как ожидает Hyperion, Япония построит две или три такие суперкомпьютерные системы стоимостью около $150 млн за единицу, потратив в общей сложности $300–450 млн. В Европе есть несколько преэкзафлопсных систем, и в 2025 году она получит две экзафлопсные системы по оценочной стоимости $350 млн каждая, а в 2026 году здесь появится ещё две или три системы стоимостью около $325 млн. Также следует ожидать строительство двух или трёх машин в 2027 году стоимостью $300 млн каждая и двух или трёх в 2028 году стоимостью $275 млн каждая. То есть в предстоящие несколько лет в Европе будет построено одиннадцать экзафлопсных суперкомпьютеров общей стоимостью $3,4 млрд. В США установили одну экзафлопсную систему в 2022 году (Frontier в Ок-Риджской национальной лаборатории, ORNL) и две — в 2024 году (Aurora в Аргоннской национальной лаборатории и El Capitan в Ливерморской национальной лаборатории им. Э. Лоуренса). По оценкам The Next Platform, за последние годы Соединённые Штаты потратили $1,4 млрд на установку трёх экзафлопсных машин. Согласно прогнозу Hyperion Research, в Соединённых Штатах в 2025 году установят две экзафлопсные системы стоимостью около $600 млн каждая, в 2026 году — одну или две стоимостью $325 млн каждая и одну или две стоимостью $275 млн каждая в 2027 и 2028 годах. В общей сложности будет потрачено $4,35 млрд на одиннадцать экзафлопсных систем.
25.11.2024 [10:42], Сергей Карасёв
AAEON представила сетевую платформу FWS-2370 на основе Intel Atom Parker Ridge/Snow RidgeКомпания AAEON анонсировала сетевую платформу FWS-2370 в «настольном» форм-факторе. Решение подходит для построения межсетевых экранов и различного абонентского оборудования — маршрутизаторов, коммутаторов и пр. В основу новинки положен процессор Intel. Устройство заключено в корпус с габаритами 260 × 178 × 44 мм. В зависимости от модификации применяется чип Atom Parker Ridge или Snow Ridge. В частности, стандартная конфигурация включает процессор Atom C5315 с четырьмя ядрами (четыре потока), работающими на тактовой частоте 2,4 (TDP — 38 Вт). Есть два разъёма SO-DIMM для модулей оперативной памяти DDR4 ECC/Non-ECC суммарной ёмкостью до 64 Гбайт. Система может быть укомплектована флеш-модулем eMMC вместимостью до 128 Гбайт. Для подключения накопителей доступны два порта SATA-3, один из которых используется для коннектора M.2 2242 M-Key. Реализованы по четыре сетевых порта 2.5GbE RJ-45 (контроллер Intel I226-V), 1GbE RJ45 (Marvell Alaska 88E1543) и 10GbE SFP+. Дополнительно может быть добавлен LAN-модуль с двумя портами 2.5GbE (плюс PoE). В оснащение входят по одному разъёму M.2 2230 E-Key (PCIe) для адаптера Wi-Fi, M.2 3052 B-Key (USB 2.0; слот для SIM-карты) для модема 5G/4G и M.2 3052 B-Key (USB 3.0 + USB 2.0; слот для SIM-карты) для второго модема 5G/4G. Есть два порта USB 3.0 и консольный порт RJ-45. Предусмотрены два коннектора для адаптеров питания 12 В / 60 Вт (без PоE) и 12 В / 90 Вт (с PоE). Диапазон рабочих температур простирается от 0 до +40 °C. Приобрести сетевую платформу AAEON FWS-2370 можно по ориентировочной цене $890.
24.11.2024 [11:43], Сергей Карасёв
Квартальная выручка на рынке облачных инфраструктур подскочила на 21 %, превысив $80 млрдКомпания Canalys подвела итоги исследования глобального рынка облачных инфраструктур в III квартале 2024 года. Расходы в данной области продолжают быстро увеличиваться на фоне стремительного внедрения ИИ и расширения мощностей гиперскейлеров. В период с июля по сентябрь включительно объём отрасли достиг $82 млрд. Это на 21 % больше результата за III четверть прошлого года. Причём на трёх ведущих поставщиков облачных услуг — Amazon Web Services (AWS), Microsoft Azure и Google Cloud — пришлось 64 % от суммарных затрат, или приблизительно $52,5 млрд. ![]() Источник изображения: Canalys Крупнейшим игроком на мировом рынке остаётся AWS с долей 33 % по итогам III квартала 2024 года: компания получила примерно $27,1 млрд. При этом в годовом исчислении выручка поднялась на 19 %. AWS объявила о планах по дальнейшему увеличению инвестиций в облачном сегменте: прогнозируемые расходы составят около $75 млрд в 2024 году. Средства пойдут в первую очередь на расширение технологической инфраструктуры для удовлетворения растущего спроса на услуги ИИ. На втором месте в рейтинге находится Microsoft Azure с 20 % отрасли, что соответствует $16,4 млрд. Редмондский гигант нарастил показатель на треть (33 %) по отношению к III четверти прошлого года. Существенный рост обусловлен востребованностью сервисов в сегменте ИИ. Замыкает тройку Google Cloud с 10 % ($8,2 млрд) и ростом на 36 % год к году. Таким образом, Google показала самую существенную прибавку среди лидеров. Компания, как отмечается, активно разрабатывает новые сценарии применения ИИ. Все три облачных гиперскейлера сообщили о положительной отдаче от инвестиций в сервисы ИИ, которые начали вносить значительный вклад в общую эффективность бизнеса.
24.11.2024 [09:54], Сергей Карасёв
AIC и ScaleFlux представили JBOF-массив на основе NVIDIA BlueField-3Компании AIC и ScaleFlux анонсировали систему F2026 Inference AI для ресурсоёмких приложений ИИ с интенсивным использованием данных. Решение выполнено в форм-факторе 2U. В оснащение входят два DPU NVIDIA BlueField-3, которые могут работать на скорости до 400 Гбит/с. Эти изделия способны ускорять различные сетевые функции, а также операции, связанные с передачей и обработкой больших массивов информации. Во фронтальной части F2026 Inference AI расположены 26 отсеков для высокопроизводительных вычислительных SSD семейства ScaleFlux CSD5000 (U.2). Накопители с интерфейсом PCIe 5.0 (NVMe 2.0b) имеют вместимость 3,84, 7,68, 15,36, 30,72, 61,44 и 122,88 Тбайт, а с учётом компрессии эффективная ёмкость может достигать приблизительно 256 Тбайт. Реализована поддержка TCG Opal 2.02 и шифрования AES-256, NVMe Thin Provisioned Namespaces Virtualization (48PF/32VF), ZNS, FDP. Платформа F2026 Inference AI представляет собой JBOF-массив, способный на сегодняшний день хранить 1,6 Пбайт информации (эффективный объём). В следующем году показатель будет доведён до 6,6 Пбайт. Утверждается, что сочетание BlueField-3 и энергоэффективной технологии хранения ScaleFlux помогает минимизировать энергопотребление, а также повысить долговечность и надёжность. Результаты проведённого тестирования F2026 Inference AI демонстрируют пропускную способность при чтении до 59,49 Гбайт/с, при записи — более 74,52 Гбайт/с. Благодаря объединению средств хранения, сетевых функций и инструментов безопасности в одну систему достигается снижение эксплуатационных расходов, что позволяет оптимизировать совокупную стоимость владения (TCO). Новинка является лишь одной из вариаций решений на базе F2026. Платформа, в частности, поддерживает работу других DPU, включая Kalray 200 и Chelsio T7. Также упоминается вариант шасси на 32 накопителя EDSFF E3.S/E3.L.
23.11.2024 [15:57], Сергей Карасёв
Microsoft и Meta✴ представили дизайн ИИ-стойки с раздельными шкафами для питания и IT-оборудованияКорпорация Microsoft в сотрудничестве с Meta✴ представила дизайн серверной стойки нового поколения для дата-центров, ориентированных на задачи ИИ. Спецификации системы, получившей название Mt. Diablo, предоставляются участникам проекта Open Compute Project (OCP). Отмечается, что инфраструктура ЦОД постоянно эволюционирует, а наиболее значительное влияние на неё оказывает стремительное внедрение ИИ. Тогда как традиционные стойки с вычислительным оборудованием и средствами хранения данных имеют мощность максимум до 20 кВт, при размещении современных ИИ-ускорителей этот показатель исчисляется сотнями киловатт. В результате при развёртывании дата-центров могут возникать различные сложности. Идея Mt. Diablo заключается в разделении стойки на независимые шкафы для компонентов подсистемы питания и вычислительного оборудования. То есть, речь идёт о дезагрегированной архитектуре, позволяющей гибко регулировать мощность в соответствии с меняющимися требованиями. ![]() Источник изображения: Microsoft Одним из ключевых преимуществ нового подхода является оптимизация пространства. Утверждается, что в каждой серверной стойке можно размещать на 35 % больше ИИ-ускорителей по сравнению с традиционным дизайном. Ещё одним достоинством названа масштабируемость: конфигурацию стойки питания можно изменять в соответствии с растущими потребностями. Плюс к этому модульная конструкция позволяет реализовывать несколько проектов одновременно. Отмечается, что в современных OCP-системах уже используется единая шина питания постоянного тока с напряжением 48 В. В случае с новым дизайном возможен переход на архитектуру 400 В DC. Это открывает путь для создания более мощных и эффективных систем ИИ. Однако для внедрения стандарта 400 В потребуется общеотраслевая стандартизация. В индивидуальных проектах — например, суперкомпьютерах — для питания узлов уже используется шина HVDC. |
|