Материалы по тегу: hardware

29.06.2024 [21:30], Сергей Карасёв

Alibaba Cloud закроет дата-центры в Австралии и Индии, чтобы сфокусироваться на Юго-Восточной Азии и Мексике

Облачная платформа Alibaba Cloud, по сообщению ресурса Datacenter Dynamics, намерена закрыть ЦОД в Австралии и Индии. Речь идёт о площадках в Сиднее и Мумбаи, работа которых будет свёрнута до конца текущего года. Решение связано с изменением стратегии по развитию инфраструктуры дата-центров.

Alibaba Cloud запустила облачный регион в Сиднее в 2016 году: на сегодняшний день он имеет две зоны доступности. Регион в Мумбаи был открыт в 2018 году и также включает две зоны доступности. ЦОД в Индии прекратят работу уже 15 июля, а объекты в Австралии — 30 сентября 2024 года. Alibaba Cloud рекомендует всем клиентам этих дата-центров при первой возможности перенести свои рабочие нагрузки на площадки компании в Сингапуре или в других регионах.

После сворачивания деятельности в Австралии и Индии усилия компании будут направлены на развитие облачного бизнеса в Юго-Восточной Азии и Мексике. В частности, в мае Alibaba Cloud объявила о планах по формированию мексиканского региона, а также заявила, что в ближайшие три года создаст дополнительные ЦОД на некоторых рынках присутствия, включая Малайзию, Филиппины, Таиланд и Южную Корею.

 Источник изображения: Alibaba

Источник изображения: Alibaba

Индонезия, Малайзия и Таиланд в последнее время смогли привлечь миллиарды долларов инвестиций на развитие ЦОД как от американских, так и азиатских операторов и гиперскейлеров. Индийскому рынку дата-центров тоже предрекают стремительный рост, а вот Сингапур, похоже, вскоре может потерять статус не только регионального, но и международного лидера индустрии ЦОД.

Осенью прошлого года Alibaba объявила о намерении привлечь $3 млрд для развития облачного бизнеса. Компания рассчитывала провести масштабную реорганизацию, в ходе которой на базе облачных активов планировалось создать отдельную структуру. Однако впоследствии от этой инициативы пришлось отказаться в связи с американскими санкциями в отношении Китая. В целом, Alibaba Cloud управляет 89 зонами доступности в 30 регионах мира.

Постоянный URL: http://servernews.ru/1107263
29.06.2024 [21:18], Владимир Мироненко

Omdia: ИИ-приложения станут основной нагрузкой в ЦОД и подстегнут рост расходов на серверы

В настоящее время ИИ является основным драйвером инвестиций в ЦОД, капитальные затраты на которые в этом году вырастут почти на 30 %, пишет The Register со ссылкой на исследование Omdia. Согласно прогнозу аналитиков, в течение нескольких лет ИИ станет основной серверной рабочей нагрузкой в ЦОД.

Приложения ИИ являются наиболее быстрорастущей категорией среди нагрузок, исходя из количества развёртываемых в год серверов. Согласно данным Omdia, рост расходов на серверы в прошлом году полностью приходится на ИИ-оборудование. В 2024 году спрос на использование ИИ ускорил инвестиции в ЦОД — капитальные затраты, «подкреплённые корпоративными денежными резервами крупных гиперскейлеров», как ожидает Omdia, вырастут на 28,5 %.

По подсчётам Omdia, продажи серверов в этом году вырастут на 74 % до $210 млрд с $121 млрд в 2023 году. В дальнейшем количество серверов для обучения ИИ будет расти примерно на 5 % в год до чуть менее 1 млн/год в 2029 году. А количество серверов для инференса будет расти со скоростью 17 % в год, и к 2029 году годовые поставки достигнут 4 млн шт. Это объясняется тем, что серверы для обучения ИИ в основном нужны небольшому количеству гиперскейлеров. Они сосредоточены на достижении максимальной эффективности своего ИИ-оборудования и у них нет потребности закупать много серверов.

 Источник изображений: Omdia

Источник изображений: Omdia

В Omdia считают, что обучение ИИ можно классифицировать как деятельность в области НИОКР, и поэтому, оно будет подлежать плановому распределению бюджета, то есть реинвестированию доли доходов. А количество серверов, необходимых для инференса, наоборот, будет расти по мере увеличения аудитории пользователей приложений ИИ. Как утверждают в Omdia, в основном в течение следующих пяти лет будут продолжать быстро расти продажи ИИ-серверов, а рост поставок других типов серверов будет значительно меньше.

Прогнозируется, что расходы на управление температурным режимом в ЦОД вырастут в 2024 году на 22 % год к году до $9,4 млрд. Побочным эффектом роста спроса на более мощное серверное оборудование стал бум внедрения СЖО. По прогнозам Omdia, общий доход от СЖО превысит к концу этого года отметку в $2 млрд, а к 2028 году будет больше $5 млрд. Доходы от инфраструктуры распределения электроэнергии в этом году впервые превысят $4 млрд, а доходы от источников бесперебойного питания вырастут на 10 % до $13 млрд.

Постоянный URL: http://servernews.ru/1107278
29.06.2024 [13:08], Сергей Карасёв

Энергопотребление ИИ-ускорителя AWS Trainium 3 может достигать 1000 Вт

Облачная платформа Amazon Web Services (AWS) готовит ИИ-ускоритель нового поколения — изделие Trainium 3. Завесу тайны над этим решением, как сообщает ресурс Fierce Networks, приоткрыл вице-президент компании по инфраструктурным услугам Прасад Кальянараман (Prasad Kalyanaraman).

Оригинальный ускоритель AWS Trainium дебютировал в конце 2021 года. Его производительность — 3,4 Пфлопс на вычислениях малой точности и до 840 Тфлопс в FP32-расчётах. В ноябре 2023-го было представлено решение AWS Trainium 2, которое, как утверждается, вчетверо производительнее первой версии. Теперь AWS готовит изделие третьего поколения.

Кальянараман намекнул, что энергопотребление Trainium 3 достигнет 1000 Вт или более. Он не стал называть конкретные цифры, но сказал, что для ускорителя планируется применение СЖО. «Текущее поколение ускорителей не требует СЖО, но следующему она понадобится. Когда мощность чипа превышает 1000 Вт, ему необходимо жидкостное охлаждение», — отметил Кальянараман.

 Источник изображения: AWS

Источник изображения: AWS

В настоящее время единственными ИИ-изделиями, показатель TDP которых достигает 1000 Вт, являются ускорители NVIDIA Blackwell. Вместе с тем, по имеющимся сведениям, Intel разрабатывает устройство в соответствующей категории с энергопотреблением на уровне 1500 Вт.

На текущий момент почти все дата-центры AWS используют технологию воздушного охлаждения. Но Кальянараман сказал, что компания рассматривает возможность внедрения технологии однофазной СЖО (а не иммерсионного охлаждения) для поддержки ресурсоёмких рабочих нагрузок. К внедрению СЖО вынужденно пришли и Meta с Microsoft — компании используют гибридный подход с водоблоками на чипах и теплообменниками на дверях стойки или же в составе отдельной стойки.

Кроме того, отметил Кальянараман, AWS стремится к дальнейшей оптимизации своих ЦОД путём «стратегического позиционирования стоек» и модернизации сетевой архитектуры. Речь идёт о применении коммутаторов следующего поколения с пропускной способностью до 51,2 Тбит/с, а также оптических компонентов.

Постоянный URL: http://servernews.ru/1107261
29.06.2024 [12:58], Сергей Карасёв

Бывший специалист Google по СЖО присоединился к OpenAI

Компания OpenAI, по сообщению ресурса Datacenter Dynamics, наняла еще одного бывшего сотрудника Tesla и Google для развития своей вычислительной инфраструктуры. Несмотря на использование облака Microsoft Azure, OpenAI развивает собственное направление ЦОД, в связи с чем расширяет штат специалистов в соответствующей области.

В OpenAI перешел Реза Хиабани (Reza Khiabani), который ранее в течение почти двух лет работал в Tesla в качестве инженера-теплотехника. Он, в частности, помогал в создании системы охлаждения для ИИ-суперкомпьютера Dojo, для которого планируется построить специальный дата-центр. Однако с реализацией проекта возникли сложности.

До прихода в Tesla Хиабани проработал почти девять лет в Google, из которых основную часть времени выполнял обязанности технического менеджера, архитектора тепловых систем и технического руководителя команды по разработке СЖО для ИИ-ускорителей семейства Cloud TPU. Он курировал проектирование ЦОД, тепловой дизайн TPU и «разработку машстабных систем жидкостного охлаждения».

 Источник изображения: Google

Источник изображения: Google

В OpenAI Хиабани войдёт в техническую команду. Чем именно ему предстоит заниматься, не уточняется. Но можно предположить, что его работа снова будет связана с решениями СЖО для дата-центров, ориентированных на ресурсоёмкие приложения ИИ.

OpenAI активно нанимает бывших специалистов Tesla и Google. В частности, ранее ИИ-компания назначила бывшего руководителя Google TPU Ричарда Хо (Richard Ho) главой отдела аппаратного обеспечения. В OpenAI также перешли ветеран Google Тодд Андервуд (Todd Underwood) и старший инженер-программист команды Tesla Dojo Клайв Чан (Clive Chan).

Постоянный URL: http://servernews.ru/1107258
29.06.2024 [12:52], Сергей Карасёв

ИИ-ускоритель InspireSemi Thunderbird объединяет 6144 ядра RISC-V на карте PCIe

Компания InspireSemi объявила о разработке чипа Thunderbird на открытой архитектуре RISC-V для ИИ-нагрузок. Это изделие легло в основу специализированной карты расширения с интерфейсом PCIe, которая, как утверждается, подходит для решения широкого спектра задач.

Чип Thunderbird содержит 1536 кастомизированных 64-битных суперскалярных ядер RISC-V, а также высокопроизводительную память SRAM. Говорится о наличии ячеистой сети с малой задержкой для меж- и внутричиповых соединений. Кроме того, предусмотрены блоки ускорения определённых алгоритмов шифрования.

 Источник изображения: InspireSemi

Источник изображения: InspireSemi

Идея заключается в том, чтобы объединить универсальность и возможности программирования традиционных CPU с высокой степенью параллелизма GPU. Изделие ориентировано на НРС-приложения, но при этом поддерживает исполнение программ общего назначения. InspireSemi называет новинку «суперкомпьютерным кластером на кристалле». Точно так же назвала свои ИИ-ускорители Esperanto Technologies. Именно её чипы ET-SoC-1, по-видимому, впервые объединили более 1 тыс. ядер RISC-V. Впрочем, сама Esperanto позиционировала их как гибкие и энергоэффективные решения для инференса.

В случае Thunderbird четыре могут быть объединены на одной карте PCIe, что в сумме даёт 6144 ядра RISC-V. Более того, заявлена возможность масштабирования до 256 чипов, связанных с помощью высокоскоростных трансиверов. Таким образом, количество ядер может быть доведено до 393 216.

Чип обеспечивает производительность до 24 Тфлопс (FP64) при энергетической эффективность 50 Гфлопс/Вт. Для сравнения: NVIDIA A100 обладает быстродействием 19,5 Тфлопс (FP64), а NVIDIA H100 — 67 Тфлопс (FP64). Суперскалярные ядра поддерживают векторные и тензорные операции и форматы данных с плавающей запятой смешанной точности. Однако о совместимости с Linux ничего не говорится. Среди возможных областей применения названы ИИ, НРС, графовый анализ, блокчейн, вычислительная гидродинамика, сложное моделирование в области энергетики, изменений климата и пр.

Постоянный URL: http://servernews.ru/1107260
28.06.2024 [15:03], Владимир Мироненко

Micron увеличила выручку на 82 % благодаря буму ИИ, но акции упали из-за слабого прогноза

Micron Technology сообщила финансовые результаты III квартала 2024 финансового года, завершившегося 30 мая. Несмотря на значительный рост выручки по сравнению с прошлым годом, а также то, что показатели за квартал превысили прогноз аналитиков, акции Micron упали в минувшую среду в цене на 8 %, поскольку прогноз компании на текущий квартал оказался ниже ожиданий инвесторов, отметил ресурс MarketWatch.

Выручка Micron в III финансовом квартале составила $6,81 млрд, что на 17 % больше, чем в предыдущем квартале, и на 82 % больше показателя аналогичного периода годом ранее. Также был превышен консенсунс-прогноз аналитиков, опрошенных FactSet, в размере $6,67 млрд. При этом продажи DRAM составили $4,7 млрд (69 % общей выручки), NAND — $2,1 млрд (30 %).

 Источник изображений: Micron Technology

Источник изображений: Micron Technology

Подразделение Compute and Networking (CNBU) принесло компании $2,57 млрд (рост год к году на 85 %), мобильное подразделение (Mobile, MBU) увеличило выручку на 94 % до $1,59 млрд, у подразделения встраиваемых решений (Embedded, EBU) выручка составила $1,29 млрд (рост — 42 %), у подразделения решений для СХД (SBU) — $1,35 млрд (рост — 116 %).

Отчётный квартал компания завершила с чистой прибылью (GAAP) в размере $332 млн или $0,30 на акцию, тогда как годом ранее она объявила о чистом убытке в размере $1,9 млрд, или $1,73 на акцию. Вместе с тем консенсунс-прогноз аналитиков по чистой прибыли равнялся $399,39 млн. Скорректированная прибыль (non-GAAP) на акцию составила $0,62, тогда как аналитики, опрошенные FactSet, ожидали $0,48 прибыли на акцию.

Санджей Мехротра (Sanjay Mehrotra), президент и гендиректор Micron Technology, отметил устойчивый спрос на ИИ-решения, позволивший увеличить выручку и превысить собственный прогноз на III финансовый квартал. «Мы увеличиваем долю в высокодоходных продуктах, таких как память HBM, а выручка от SSD для ЦОД достигла рекордно высокого уровня, демонстрируя силу нашего портфолио продуктов для ИИ, включая DRAM и NAND», — заявил он. Также Мехротра сообщил, что компания «добилась значительного повышения цен» и что «улучшение цен в сочетании с усилением ассортимента продукции привело к увеличению прибыльности на всех конечных рынках».

В IV финансовом квартале Micron ожидает получить скорректированную прибыль (non-GAAP) в размере $1,08 на акцию при выручке в $7,6 млрд. Прогноз аналитики Уолл-стрит на текущий финансовый квартал по прибыли (non-GAAP) составляет $1,02 на акцию при выручке в $7,59 млрд. В комментариях к финансовому отчёту Мехротра отметил, что благодаря росту использования ИИ-технологий, у компании есть «хорошие возможности для достижения существенного рекордного дохода в 2025 финансовом году».

«Мы находимся в начале многолетней гонки за создание общего ИИ, или AGI, который произведёт революцию во всех аспектах жизни», — сообщил глава Micron. — Запуск AGI потребует обучения моделей с постоянно растущими размерами с триллионами параметров и сложных серверов для инференса. ИИ также распространится на периферию через компьютеры с ИИ и смартфоны с ИИ, а также умные автомобили и интеллектуальные промышленные системы. Эти тенденции будут способствовать значительному росту спроса на DRAM и NAND, и мы считаем, что Micron станет одним из крупнейших бенефициаров в полупроводниковой промышленности благодаря возможностям многолетнего роста, обусловленных ИИ».

Постоянный URL: http://servernews.ru/1107220
28.06.2024 [14:58], Руслан Авдеев

Индийский оператор ЦОД Yotta готовится выйти на Nasdaq

Индийский оператор ЦОД Yotta выйдет на IPO на бирже Nasdaq через SPAC-слияние с Cartica Acquisition Corp. Datacenter Dynamics сообщает, что компании Nidar Infrastructure Limited (Hiranandani Group), ЦОД-подразделением которой является Yotta, а также компания Cartica объявили о заключении окончательного соглашения.

Nidar позиционирует себя как ведущего индийского провайдера ЦОД для ИИ- и HPC-решений. Речь идёт о колокейшн-услугах (в том числе для гиперскейлеров), облачных и иных сервисах. Капитализация Nidar составляет около $2,75 млрд. Yotta Infrastructure — это ЦОД-подразделение Nidar и её «родительской» компании Hiranandani Group. В документах Cartica компания Yotta Data and Cloud Limited упоминается как полностью принадлежащее Nidar дочернее предприятие. Сама Nidar Group занимается недвижимостью, компания принадлежит семейству Хиранандани и им же управляется. Последняя также управляет объектами энергетики, что упрощает строительство ЦОД.

 Источник изображения: Yotta

Источник изображения: Yotta

Основанная в 2019 году Yotta разрабатывает, строит и управляет ЦОД уровня Tier III/IV в Индии. У компании уже есть три кампуса ЦОД в Индии, ещё три строятся там же в Индии, а ещё одна — в Бангладеше. Кроме того, планируется строительство объекта в Непале. На текущий момент ёмкость объектов Yotta составляет 33 МВт с возможностью расширения до 892 МВт. В 2023 году Yotta получила $15 млн, а убыток по EBITDA составил $12,3 млн. В текущем году компания рассчитывает на выручку $44,6 млн и убыток по EBITDA на уровне $7,4 млн.

В заявке для SEC отмечается, что Yotta заключила с NVIDIA соглашение на поставку более 32 тыс. ускорителей H100, а также ускорителей NVIDIA L40S. Облачные ИИ-кластеры в ЦОД Yotta создаются при участии инженеров NVIDIA, а для объединения ускорителей используется InfiniBand.

Постоянный URL: http://servernews.ru/1107224
28.06.2024 [12:54], Руслан Авдеев

1 ГВт — это только начало: ZincFive наращивает поставки никель-цинковых аккумуляторов для ЦОД

Поставщик никель-цинковых аккумуляторов ZincFive сообщил, что суммарная мощность отгруженных и заказанных АКБ превысила 1 ГВт (ёмкость батарей не указывается). Компания также объявила, что увеличила инвестиции в США и планирует расширить там как разработку, так и производство новых продуктов. Масштабирование бизнеса подогревается ростом спроса на ИИ-инфраструктуру.

В компании в очередной раз подчеркнули, что её решения безопаснее, надёжнее и экологичнее других распространённых типов аккумуляторов. По словам ZincFive, обеспечению экоустойчивости теперь уделяется повышенное внимание — как сама компания, так и её клиенты намерены снижать углеродные выбросы.

 Источник изображения: ZincFive

Источник изображения: ZincFive

Вендор продвигает никель-цинковые аккумуляторы более 10 лет. Литий-ионные варианты критикуют за неконтролируемый нагрев, часто приводящий к серьёзным пожарам, включая самый масштабный в мире сбой ЦОД Kakao. Утверждается, что никель-цинковые батареи требуют минимального обслуживания, не перегреваются, при этом чрезвычайно надёжны в качестве резервных источников питания для ЦОД.

Оператор дата-центров Corscale использует аккумуляторы ZincFive в кампусе Gainesville Crossing в Северной Вирджинии с 2022 года, применение АКБ компании в своих ИБП одобрила ABB. У компании есть и конкуренты. В конце прошлого года сообщалось, что Ni-Zn аккумуляторы японской компании FDK готовы к использованию в дата-центрах.

Постоянный URL: http://servernews.ru/1107206
28.06.2024 [12:35], Сергей Карасёв

Loongson представила 64-ядерные серверные процессоры с чиплетной компоновкой

Китайская компания Loongson, по сообщению Tom's Hardware, начала пробный выпуск процессоров 3C6000, 3D6000 и 3E6000 для серверных систем. В настоящее время эти изделия проходят тестирование, а серийное производство запланировано на IV квартал 2024 года.

Чип 3C6000 содержит 16 ядер LA664 (32 потока инструкций) с микроархитектурой LoongArch, разработанной Loongson. Утверждается, что новинка обеспечивает вдвое более высокую производительность по сравнению с процессором 3C5000, функционирующим на частоте 2,2 ГГц. Для 3C6000 реализована поддержка четырёх каналов оперативной памяти DDR4-3200.

 Источник изображения: Loongson

Источник изображения: Loongson

Решения 3D6000 и 3E6000, в свою очередь, имеют чиплетную компоновку. Они объединяют соответственно два и четыре кристалла 3C6000, связанных посредством технологии Loongson Coherent Link. В результате, получаются CPU с 32 и 64 вычислительными ядрами с возможностью одновременной обработки 64 и 128 потоков инструкций.

Архитектура чиплетов считается будущим микропроцессоров. Причём Китай делает особую ставку на чиплетную компоновку на фоне жёстких санкций со стороны США, которые ограничивают доступ китайских компаний к передовым технологиям производства полупроводниковой продукции. Объединяя несколько кристаллов в составе одного CPU, разработчики из КНР получают возможность наращивать производительность чипов без применения наиболее «тонких» техпроцессов.

В Китае в условиях активного импортозамещения наложен запрет на использование процессоров Intel и AMD в компьютерах и серверах для государственного сектора. Благодаря этому спрос на отечественную продукцию растёт, а Loongson увеличивает рыночную долю.

Постоянный URL: http://servernews.ru/1107203
28.06.2024 [12:33], Сергей Карасёв

Представлена российская системная плата «Ключевская» для двух Arm-процессоров

Российская технологическая компания «Е-Флопс» объявила о разработке системной платы под названием «Ключевская», которая позиционируется в качестве основы модульной серверной платформы для хранения и обработки данных. Выпуск новинки, на которую получен патент, планируется организовать в сентябре нынешнего года.

Изделие имеет 20-слойную конструкцию, а его габариты составляют 446 × 203 мм. Поддерживаются два процессора с архитектурой Arm64 (48 ядер, частота до 2,2 ГГц). Доступны 12 слотов для модулей оперативной памяти DDR4-3200 (L)RDIMM. Имеется 80 линий PCIe 4.0, из которых 48 совместимы с CCIX. Название процессора не указывается, но по описанию подходит, например, Baikal-S (BE-S1000).

 Источник изображений: «Е-Флопс»

Источник изображений: «Е-Флопс»

Системная плата получила два разъёма M.2 2242 для NVMe SSD и два слота PCIe 4.0 x16 для карт расширения с возможностью горячей замены. Есть слот PCIe 4.0 x16 OCP 3.0, четыре разъёма PCIe 4.0 x16/CCIX для установки райзеров, а также 260-контактный коннектор SO-DIMM DDR4 для модуля удалённого мониторинга и управления стандарта RunBMC. Упомянуты интерфейсы USB 2.0 и 1GbE.

Модульная концепция предусматривает, что часть функциональности перенесена на так называемые «сателлитные платы». В частности, интерфейсы Ethernet, USB, DP, индикация и управление реализованы на IO-карте. Предусмотрена возможность дополнительного межпроцессорного соединения, увеличивающего скорость обмена данными в два раза, и возможность четырехпроцессорной SMP-сборки из двух типовых системных плат.

Изготовление плат осуществляется по контрактному производству в два основных этапа (без учета подготовительных работ, закупки сырья и материалов, функций технического контроля и пр.). Текстолит производится на заводах КНР из-за недоступности необходимых технологий в России. Вместе с тем поверхностный монтаж полностью выполняется на территории РФ.

Постоянный URL: http://servernews.ru/1107199

Входит в перечень общественных объединений и религиозных организаций, в отношении которых судом принято вступившее в законную силу решение о ликвидации или запрете деятельности по основаниям, предусмотренным Федеральным законом от 25.07.2002 № 114-ФЗ «О противодействии экстремистской деятельности»;

Система Orphus