Материалы по тегу: hardware
06.08.2024 [11:35], Сергей Карасёв
Microchip представила скоростной SSD-контроллер Flashtec NVMe 5016: до 14 Гбайт/с по PCIe 5.0Компания Microchip Technology анонсировала контроллер Flashtec NVMe 5016, предназначенный для создания высокопроизводительных SSD корпоративного класса с интерфейсом PCIe 5.0 (NVMe 2.0+). Такие накопители смогут применяться в том числе в дата-центрах, ориентированных на ресурсоёмкие ИИ-задачи. 16-канальный контроллер Flashtec NVMe 5016, как утверждает разработчик, способен обеспечивать скорость последовательного чтения информации более 14 Гбайт/с. Показатель IOPS (операций ввода/вывода в секунду) при произвольном чтении 4K-блоками достигает 3,5 млн. Контроллер поддерживает как однопортовую конфигурацию PCIe 5.0 x4, так и двухпортовую (два x2). Новинка рассчитана в первую очередь на накопители в форм-факторах E.3 и U.2/U.3. Контроллер может работать с чипами флеш-памяти разного типа, включая QLC, TLC, MLC, SLC NAND (Toggle/ONFI 3200 МТ/с). В качестве буфера можно использовать DDR5-5200. Реализованы средства коррекции ошибок LDPC/ECC и сквозная защита целостности данных. Также в состав контроллера входит ML-движок для интеллектуального управления накопителем. Заявленная энергетическая эффективность при обработке данных составляет 2,5 Гбайт в расчёте на 1 Вт. При производстве Flashtec NVMe 5016 используется 6-нм техпроцесс. ![]() Источник изображения: Microchip По заявлениям Microchip, новый контроллер предназначен для поддержания различных корпоративных приложений, таких как обработка транзакций и финансовых данных, интеллектуальный анализ информации и пр. Есть поддержка ZNS, FDP, виртуализации (PF/VF), SRIOV. Гибкость и масштабируемость изделия помогают снизить общую стоимость владения инфраструктурой хранения данных. Пробные поставки Flashtec NVMe 5016 уже начались. Разработчикам доступны сопутствующие комплекты — решения PM35160-KIT и PMT35161-KIT с различной конфигурацией NAND, а также SDK.
06.08.2024 [09:01], Руслан Авдеев
ИИ ЦОД понадобятся гигантские системы резервного питанияИИ-системам требуются огромные объёмы электроэнергии, что резко повышает требования к системам резервного питания ЦОД на случай сбоев, пишет EE Times. По данным СМИ, глобальный спрос со стороны критических IT-инфраструктур вырастет с 49 ГВт в 2023 году до 96 ГВт к 2026 году, на ИИ придётся порядка 40 ГВт. При этом ёмкость ИИ ЦОД, как ожидается, будет составлять 100 МВт. А общее потребление дата-центров может вырасти до более 1000 ТВт∙ч в 2026 году. Для ИИ ЦОД требуется доступность на уровне 99,99999 %, так что им нужно полномасштабное резервное энергоснабжение. Для этого обычно используются дизельные или газовые генераторы мощностью 1–2 МВт. Для защиты крупного ЦОД нужны десятки таких машин, готовых к пуску. Критически важной является скорость переключения на резервный источник питания — на старт генератора обычно требуется до нескольких минут, так что всё это время питание должно осуществляться от аккумуляторов. Кроме того, нужно распределительное устройство, а также система мониторинга и автоматизации, которая сделает для IT-нагрузки переход с одного источника на другой незаметным. Однако рост ёмкости ЦОД резко усложняет и удорожает создание систем резервного питания. Генератор мегаваттного класса весит около 5 т (без топлива), занимает не так уж мало места (добавьте сюда топливный бак объём от 1 м3) и стоит порядка $1–$2 млн без учёта доставки и установки. При этом аккумуляторная система — это ещё один отдельный комплекс с собственными проблемами установки. Так что не исключено, что недавно запущенный ИИ-кластер xAI, который пока что вынужден питаться как раз от генераторов, даже после подключения к энергосети оставит эти генераторы на площадке.
06.08.2024 [00:31], Владимир Мироненко
Cisco и Samsung инвестировали в разработчика ИИ-ускорителей GroqСтартап Groq, разрабатывающий ускорители и решения для генеративного ИИ, объявил о завершении раунда финансирования, позволившего привлечь $640 млн инвестиций. В результате его рыночная стоимость выросла до $2,8 млрд. В раунде финансирования, который возглавила BlackRock Private Equity Partners, приняли участие как существующие, так и новые инвесторы, включая Neuberger Berman, Type One Ventures, а также стратегические инвесторы, включая Cisco Investments, KDDI Open Innovation Fund III и Samsung Catalyst Fund. По словам Джонатана Росса (Jonathan Ross), гендиректора и основателя Groq, полученные инвестиции позволят дополнительно развернуть более 100 тыс. ИИ-ускорителей LPU в GroqCloud, а также пополнить штат квалифицированными кадрами. Предыдущий раунд финансирования Groq прошёл в 2021 году. Его возглавили Tiger Global и D1 Capital. При этом стартап получил $300 млн инвестиций при оценке рыночной стоимости в $1 млрд. Также было объявлено о двух новых назначениях. На должность главного операционного директора компании был принят Стюарт Панн (Stuart Pann), бывший старший исполнительный директор HP и Intel, а Янн Лекун (Yann LeCun), вице-президент и главный научный сотрудник по ИИ в Meta✴, присоединился к Groq в качестве технического консультанта компании, сохранив свою должность в Meta✴. В марте этого года Groq приобрёл компанию Definitive Intelligence, предлагающую ряд бизнес-ориентированных ИИ-решений, чтобы сформировать новое бизнес-подразделение Groq Systems, которое нацелено на обслуживание организаций, правительственных агентств США и суверенных государств. Заодно Groq заключил партнёрское соглашение с Carahsoft, государственным ИТ-подрядчиком. Groq также сотрудничает с саудовской Aramco Digital с целью установки LPU в строящихся ЦОД на Ближнем Востоке и создания крупнейшего в мире центра ИИ. А в рамках соглашения с Earth Wind & Power до конца 2024 года будет развёрнуто 21 600 LPU с возможностью увеличения до 129 600 LPU в 2025 году.
05.08.2024 [18:09], Руслан Авдеев
GDS Holdings ищет $1 млрд на развитие ЦОД за пределами КитаяКитайский оператор ЦОД GDS Holdings Ltd. намерен привлечь $1 млрд инвестиций для своего подразделения, занимающегося дата-центрами за пределами КНР, преимущественно в Юго-Восточной Азии. По данным Bloomberg, решение было принято на фоне удачного привлечения компанией средств всего несколько месяцев назад. Как сообщают источники, GDS работает с аналитиками, чтобы оценить интерес мировых инвесторов к вложениям в базирующуюся в Сингапуре GDS International. GDS, акции которой торгуются в Гонконге и Нью-Йорке, в случае успешного получения инвестиций всё равно оставит за собой значительный пакет акций. В этом году GDS уже привлекла несколько сот миллионов долларов для своих операций за пределами Китая, продав долю в GDS International группе инвестиционных компаний Boyu Capital, Hillhouse Investment и Princeville Capital. В ходе раунда серии А компания привлекла $672 млн вместо ожидавшихся $587 млн, в результате чего инвесторы получили 47,3 % акций GDS International. GDS International со штаб-квартирой в Сингапуре основали в 2022 году. Сегодня она располагает ЦОД суммарной ёмкостью 330 МВт — часть из них уже функционируют, а часть ещё строится. Ещё 330 МВт будет построено в Сингапуре, Гонконге, Джохоре (Малайзия), Батаме (Индонезия) и других регионах. По данным отчёта GDS за I квартал, её чистый убыток составил ¥345 млн ($47,7 млн). На деле показатели улучшились, поскольку годом ранее в тот же период убыток составил ¥475 млн. Чистая выручка выросла на 9,1 % в сравнении с тем же кварталом 2023 года до ¥2,6 млрд. В этом году акции GDS выросли в цене почти на 20 % в Гонконге, что привело к росту рыночной стоимости до HK$16,8 млрд ($2,2 млрд).
05.08.2024 [16:45], Руслан Авдеев
Норвежские операторы ЦОД готовятся к отмене налоговых льгот и задумываются над повышением энергоэффективности объектовОкончание периода налоговых льгот для норвежских операторов ЦОД, похоже, приведёт к важным изменениям соответствующей индустрии в стране. Computer Weekly сообщает, что местные игроки всё чаще меняют стратегию развития и инвестиций и делают ставку на более энергоэффективные объекты. Говорится, что геополитическая ситуация и революция в сфере ИИ усиливают необходимость создания безопасных хранилищ данных на территории самой Норвегии. При этом страна должна получить экобезопасные и устойчивые ЦОД. Во многом это связано с ожиданием ввода новых налогов на энергоёмкие отрасли в 2025 году, поскольку политики уже выразили озабоченность энергоэффективностью ЦОД и их энергопотреблением вообще. Инвестиции в отрасль приветствуются, но предпочтение всё чаще отдаётся наиболее экономичным и экобезопасным вариантам. Более того, норвежский консорциум, возглавляемый энергокомпанией Hafslund, телеком-провайдером Telenor с госучастием и инвестором HitecVision создал ГК Skygard — совместное предприятие займётся возведением энергоэффективных ЦОД по всей Норвегии. Участники консорциума будут владеть долями по 31,7 %. Оставшиеся 4,9 % получила консалтинговая Analysys Mason Nordic. ![]() Источник изображения: Simon Williams/unsplash.com Ключевым игроком является Hafslund, второй по величине производитель электроэнергии в Норвегии — комапнии принадлежит 81 ГЭС, в 2023 году на которые приходилось 5200 МВт. Telenor совместно с NVIDIA создаст суверенные облачные платформы для Норвегии. На первом этапе консорциум инвестирует €210 млн, в числе прочего предусмотрено строительство ЦОД в одном из районов Осло. Работы на площадке начались уже в марте 2024 года. Кампус Skygard должен начать работу в I половине 2025 года, колокейшн-ёмкости поступят в распоряжение нескольких арендаторов. Позже в районе «Большого Осло» будут построены ещё два дополнительных ЦОД. Совокупная ёмкость трёх объектов составит 40 МВт. Компания Eidsiva — один из крупнейших энерго- и телеком-провайдеров в Норвегии, принадлежащий местным муниципалитетам, тоже решил заняться дата-центрами. В конце мая компания завершила покупку ЦОД ёмкостью 6 МВт. В компании предполагают, что цифровая инфраструктура Норвегии нуждается в собственных «строительных блоках» для оказания социально важных услуг — ими станут ЦОД в национальной и государственной собственности. Переход от крупных ресурсоёмких ЦОД к более экономичным приобрёл особое значение в 2023 году, когда власти отказались от налоговых льгот для энергоёмких отраслей. При этом Норвежская ассоциация ЦОД (Norwegian Datacentre Industry, NDCI) свидетельствует, что на конец 2023 года в отрасли работало 2300 штатных сотрудников, а установленная мощность на конец года составляла 501 МВт, и которых сейчас используется 150 МВт или 1 % от общего объёма генерируемой в Норвегии энергии. 98 % этого электричества приходится на ГЭС. Ожидается, что к 2028 году потребление ЦОД составит 1,9 % от общенорвежского. В целом рост сектора ЦОД в стране по-прежнему обусловлен ключевыми мировыми игроками вроде Microsoft и Google. Первая построила первый дата-центр в стране в 2019 году, вторая начала возводить ЦОД в рамках проекта стоимостью €600 млн в феврале 2024 года. Объект ёмкостью 240 МВт будет предлагать «мусорную» тепловую энергию местным муниципалитетам. В Google заявляют, что запуск планируется на 2026 год. Политики хотят, чтобы муниципалитеты обязали операторов размещать вырабатывающие много тепла ЦОД рядом с промышленными центрами, способными его использовать. А обновлённый план National Energy Efficiency Action Plan норвежских властей связан с энергоёмкими отраслями. Так, правительство предложило поправки в Закон об энергетике (Energy Act), согласно которым от строителей ЦОД потребуется проведение анализа эффективности и целесообразности использования тепловых выбросов ЦОД. Инициатива касается дата-центров ёмкостью от 20 МВт. При этом Норвегия по-прежнему намерена стать «фантастической площадкой» для ЦОД.
05.08.2024 [12:32], Сергей Карасёв
VIA представила edge-решения на платформе MediaTek Genio 700Компания VIA Technologies представила вычислительный модуль SOM-5000, одноплатный компьютер VAB-5000 и встраиваемую систему Artigo A5000 на аппаратной платформе MediaTek. Новинки предназначены для построения различных edge-решений с поддержкой ИИ-функций. Во всех изделиях применён процессор Genio 700. Чип содержит восемь вычислительных ядер: 2 × Arm Cortex A78 (2,2 ГГц) и 6 × Arm Cortex A55 (2,0 ГГц). В состав Genio 700 входит графический узел Arm Mali-G57 MC3 с поддержкой OpenGL ES 1.1/2.0/3.2, OpenCL ES 2.2, Vulkan 1.0/1.1. Возможно кодирование видео H.265 и H.264 в формате 4K (до 30 к/с). ![]() Источник изображений: VIA Technologies Модуль SOM-5000 может нести на борту 4 или 8 Гбайт оперативной памяти LPDDR4X и 16 Гбайт флеш-памяти (eMMC). Поддерживаются интерфейсы 2 × MIPI DSI (4 линии), 2 × MIPI CSI (4 и 2 линии), HDMI 2.0, DisplayPort, USB 3.1, 3 × USB 2.0, 2 × SPI, I2S, 6 × I2C, 3 × UART, PCIe, SDIO, 1GbE, 11 × GPIO. Для модуля доступна плата SOMDB7 Carrier Board с набором разъёмов, включая HDMI, 2 × USB 3.1, Micro-USB 2.0, 2 × RJ-45 и 3,5-мм аудиогнездо. Диапазон рабочих температур — от -10 до +60 °C. Одноплатный компьютер VAB-5000 может комплектоваться 4 или 8 Гбайт памяти LPDDR4X и флеш-чипом eMMC на 16 Гбайт. В оснащение входит сетевой контроллер Realtek RTL8211F(I)-CG 1GbE. Предусмотрены интерфейс HDMI, два порта USB 3.1, порт Micro-USB 2.0, коннектор RJ-45 для сетевого кабеля и 3,5-мм аудиогнездо. Имеется слот M.2 для сотового модема 4G/5G (плюс разъём для карты Nano-SIM). Упомянута 40-контактная колодка GPIO в стиле Raspberry Pi. Изделие выполнено в формате Pico-ITX с размерами 100 × 72 мм. Плату можно использовать при температурах от -20 до +60 °C. Мини-компьютер Artigo A5000 выполнен в корпусе с размерами 118,61 × 37,6 × 82,2 мм. Технические характеристики аналогичны одноплатному компьютеру VAB-5000. Все новинки могут работать с Android 13, Yocto 4.0.x и Debian 12. Питание (12 В) подаётся через DC-разъём.
05.08.2024 [11:20], Руслан Авдеев
Dominion Energy тоже не прочь приютить ЦОД около АЭС в КоннектикутеАмериканская энергетическая компания Dominion Energy рассматривает целесообразность прямого подключения дата-центра к атомной электростанции в Коннектикуте (США). По данным Datacenter Dynamics, речь идёт об объекте близ АЭС Millstone Power Station в Уотерфорде. Соответствующую информацию подтвердил глава компании Роберт Блю (Robert Blue). Он заявил, что компания «безусловно открыта» для идеи строительства колокейшн-мощностей в районе АЭС. По его словам, Dominion Energy чётко понимает, что колокейшн-объект имеет смысл как для самой компании, так и её контрагента и акционеров. Комментарии появились после того, как Amazon (AWS) в марте приобрела дата-центр компании Talen Energy, расположенный рядом с её же атомной станцией в Пенсильвании. AWS потратила $650 млн на приобретение кампуса Cumulus ёмкостью до 960 МВт. Здесь облачный гигант намерен построить15 зданий ЦОДв течение следующего десятилетия. Впрочем, не всё так гладко, как может показаться на первый взгляд. Американские энергокомпании American Electric Power (AEP) и Exelon пожаловались в Федеральную комиссию по регулированию энергетики США (FERC), поскольку их возмутил запрос на бесплатную транспортировку энергии с АЭС Susquehanna Steam Electric Station (SSES) в будущие дата-центры AWS. Что касается Millstone Nuclear Power Plant, то она имеет мощность 2098 МВт, но до 2029 года 55 % вырабатываемой энергии станция обязана продавать третьей стороне по фиксированной стоимости в соответствии с подписанным ранее контрактом. По словам Блю, Dominion активно работает с несколькими потенциальными контрагентами для получения максимальной выгоды от новой сделки, когда истечёт текущее соглашение о покупке энергии.
05.08.2024 [10:34], Руслан Авдеев
Microsoft начала активно внедрять прямое жидкостное охлаждение в своих ЦОД и приступила к прикладному изучению микрогидродинамикиКомпания Microsoft стала активно применять прямое жидкостное охлаждение чипов в серверах своих ЦОД. Datacenter Dynamics сообщает, что IT-гигант приступил и к изучению более передовой технологии, основанной на принципах микрогидродинамики. Как свидетельствует недавний пост в блоге компании, посвящённый использованию воды и применяемым СЖО разных поколений, сейчас разрабатывается новая архитектура дата-центров, оптимизированных для прямого жидкостного охлаждения чипов. Это требует переосмысления конструкции серверов и серверных стоек для внедрения новых методов терморегуляции и управления энергией. Компания уже использует sidekick-СЖО в действующих ЦОД. Впервые они были представлены во время анонса процессоров Cobalt и ИИ-ускорителей Maya. Последние будут развёрнуты в кастомных стойках и кластерах Ares. Серверы для них шире 19″ и даже OCP-стоек и нуждаются именно в жидкостном охлаждении — других конфигураций не предусмотрено. Каждый сервер получит по четыре ускорителя Maya, а стойка будет вмещать восемь серверов. А рядом с ней будет ещё одна стойка с компонентами охлаждения. Аналогичный дизайн использует Meta✴, которая также была вынуждена пересмотреть архитектуру своих ЦОД из-за ИИ. Не менее интересны и разработки в сфере микрогидродинамики. Этот подход предусматривает размещение микроканалов для подачи жидкости буквально внутри самих чипов, что обеспечивает ещё более высокую эффективность охлаждения. В компании утверждают, что все эти разработки оптимизированы для поддержки ИИ-нагрузок в ЦОД и в то же время дружественны к экологии. Благодаря инновациям можно значительно снизить потребление чистой воды, одновременно обеспечивая повышенную ёмкость серверных стоек, благодаря чему возрастает польза от каждого задействованного квадратного метра. Microsoft намерена стать «водно-положительной» к 2030 году. В ESG-докладе 2023 года компания заявила, что использовала в 2022 году 6,4 млн м3, преимущественно для своих ЦОД. В докладе 2024 года показатель увеличился уже до 7,8 млн м3 в 2023 году. Проблемы с потреблением воды вообще характерны для IT-гиганта и его партнёров. Запись в блоге Microsoft также свидетельствует о том, что компания расширила использование восстановленной и переработанной воды на площадках в Техасе, Вашингтоне, в Калифорнии и Сингапуре. В Нидерландах, Ирландии и Швеции компания собирает дождевую воду и намерена расширить эту практику на Канаду, Великобританию, Финляндию, Италию, Южную Африку и Австрию. В Нидерландах, правда, всё оказалось не так хорошо, как обещала компания. Как заявляют Microsoft, с первого поколения собственных дата-центров в начале 2000-х годов до текущего поколения в 2020-х, использование воды на кВт·ч снизилось более чем на 80 %. Ранее компания сотрудничала с разработчиком систем двухфазного погружного жидкостного охлаждения LiquidStack, который поддерживается одним из поставщиков Microsoft — Wiwynn. В прошлом году LiquidStack представила однофазную систему иммерсионного охлаждения для ИИ-систем, а также запустила в США производство СЖО, но для кого именно она их выпускает, не уточняется.
05.08.2024 [08:16], Сергей Карасёв
Новые кластеры Supermicro SuperCluster с ускорителями NVIDIA L40S ориентированы на платформу Omniverse
emerald rapids
hardware
intel
l40
nvidia
omniverse
sapphire rapids
supermicro
xeon
ии
кластер
сервер
Компания Supermicro расширила семейство высокопроизводительных вычислительных систем SuperCluster, предназначенных для обработки ресурсоёмких приложений ИИ/HPC. Представленные решения оптимизированы для платформы NVIDIA Omniverse, которая позволяет моделировать крупномасштабные виртуальные миры в промышленности и создавать цифровых двойников. Системы SuperCluster for NVIDIA Omniverse могут строиться на базе серверов SYS-421GE-TNRT или SYS-421GE-TNRT3 с поддержкой соответственно восьми и четырёх ускорителей NVIDIA L40S. Обе модели соответствуют типоразмеру 4U и допускают установку двух процессоров Intel Xeon Emerald Rapids или Sapphire Rapids в исполнении Socket E (LGA-4677) с показателем TDP до 350 Вт (до 385 Вт при использовании СЖО). Каждый из узлов в составе новых систем SuperCluster несёт на борту 1 Тбайт оперативной памяти DDR5-4800, два NVMe SSD вместимостью 3,8 Тбайт каждый и загрузочный SSD NVMe M.2 на 1,9 Тбайт. В оснащение включены четыре карты NVIDIA BlueField-3 (B3140H SuperNIC) или NVIDIA ConnectX-7 (400G NIC), а также одна карта NVIDIA BlueField-3 DPU Dual-Port 200G. Установлены четыре блока питания с сертификатом Titanium мощностью 2700 Вт каждый. В максимальной конфигурации система SuperCluster for NVIDIA Omniverse объединяет пять стоек типоразмера 48U. В общей сложности задействованы 32 узла Supermicro SYS-421GE-TNRT или SYS-421GE-TNRT3, что в сумме даёт 256 или 128 ускорителей NVIDIA L40S. Кроме того, в состав такого комплекса входят три узла управления Supermicro SYS-121H-TNR Hyper System, три коммутатора NVIDIA Spectrum SN5600 Ethernet 400G с 64 портами, ещё два коммутатора NVIDIA Spectrum SN5600 Ethernet 400G с 64 портами для хранения/управления, два коммутатора управления NVIDIA Spectrum SN2201 Ethernet 1G с 48 портами. При необходимости конфигурацию SuperCluster for NVIDIA Omniverse можно оптимизировать под задачи заказчика, изменяя масштаб вплоть до одной стойки. В этом случае применяются четыре узла Supermicro SYS-421GE-TNRT или SYS-421GE-TNRT3.
04.08.2024 [15:25], Сергей Карасёв
AAEON представила Pico-MTU4 — самый компактный одноплатный компьютер на базе Intel Core UltraКомпания AAEON анонсировала одноплатный компьютер Pico-MTU4. На сегодняшний день, как утверждается, это самое компактное устройство в своём классе, построенное на платформе Intel Core Ultra (Meteor Lake). Новинка подходит для создания индустриальных робототехнических систем, edge-устройств, оборудования с ИИ-функциями и пр. Плата соответствует типоразмеру Pico-ITX: габариты составляют 100 × 72 мм. Доступны модификации с различными процессорами — вплоть до Core Ultra 7 165U с 12 ядрами (2P+10E; 14 потоков; до 4,9 ГГц; 15 Вт). В состав чипа входят графический блок Intel Graphics Xe и нейромодуль Intel AI Boost NPU для ускорения выполнения операций, связанных с ИИ. Поддерживается до 32 Гбайт памяти LPDDR5-6400. Для подключения накопителей доступны порт SATA-3 и коннектор M.2 2280 M-Key (PCIe 4.0 x4 / SATA). В слот M.2 2230 E-Key (PCIe 4.0 x1 / USB 2.0) может быть установлен адаптер Wi-Fi 6. В оснащение включены сетевые контроллеры Intel I226 2.5GbE и Intel I219 1GbE. За безопасность отвечает модуль TPM 2.0. В набор разъёмов входят два порта USB 3.2 Gen2, два гнезда RJ-45 для сетевых кабелей, порт HDMI 1.4 (3840 × 2160 пикселей; 30 Гц). Кроме того, поддерживаются интерфейсы eDP1.4, USB 2.0 (×2), GPIO, COM (два последовательных порта RS232/422/485). Для одноплатного компьютера Pico-MTU4 заявлена совместимость с Windows 10 и Ubuntu 22.04.2. Диапазон рабочих температур простирается от -20 до +70 °C. Питание (12 В) подаётся через коннектор Phoenix. AAEON предлагает для новинки различные аксессуары, включая соединительные кабели и активный кулер. Последний оснащён вентилятором со скоростью вращения крыльчатки 5200 об/мин. Габариты охладителя составляют 100 × 72 × 14 мм. |
|