Лента новостей

21.05.2024 [20:01], Владимир Мироненко

NetApp представила новые All-Flash СХД AFF A-Series для ИИ-приложений и других требовательных задач

Компания NetApp представила новые системы хранения данных FAS (AFF) A-Series, предназначенные для обработки требовательных ИТ-задач, таких как приложения генеративного ИИ, среды VMware и корпоративные базы данных.

По словам NetApp, в качестве унифицированного решения для хранения данных новые системы подходят для любого типа данных, приложений или облаков, обеспечивая удвоенную производительность по сравнению с существующими решениями A-Series (A70 по сравнению с A400, A90 по сравнению с A800 и A1K по сравнению с A900) — до 40 млн IOPS и 1 Тбайт/с при 99,9999 % доступности данных. Поставки систем AFF A-Series начнут в конце июня. Они также будут доступны по подписке NetApp Keystone.

Новые системы All-Flash предназначены для рабочих нагрузок нового поколения с различными потребностями:

  • AFF A70 — интегрированная платформа среднего класса, оптимизированная для достижения идеального баланса между ценой и производительностью.
  • AFF A90 — интегрированная платформа высокого класса для критически важных рабочих задач.
  • AFF A1K — модульная платформа высшего класса, предназначенная для самых требовательных нагрузок.
 Источник изображений: NetApp

Источник изображений: NetApp

Системы A70 и A90 имеют одинаковый 4U-шасси с 48 слотами для NVMe SSD и диапазон сырой «ёмкости» от 68 Тбайт до 3,7 Пбайт. A70 и A90 встроенный контроллер и полки для дисков, тогда как A1K является модульным решением с отдельным 2U-контроллером и 2U-шасси с 24 слотами для накопителей. Новинки получили более современные интерфейсы 200GbE и FC64. Основной систем являются процессоры Intel Xeon последнего поколения с DDR5 и PCIe 5.0.

Благодаря поддержке протоколов блочного, файлового и объектного доступа, а также интеграции с AWS, Google Cloud и Microsoft Azure, системы A-Series позволят компаниям консолидировать несколько рабочих нагрузок. По данным производителя, новые системы обеспечивают на 50 % меньшую стоимость IO-операций, на 55 % меньше затрат на единицу пропускной способности и на 45 % меньше затрат на единицу плотности.

NetApp сообщила, что новые СХД обладают лучшим в отрасли показателем эффективной ёмкости. Все новинки могут масштабироваться до 24 узлов, а максимальная эффективная ёмкость может достигать 185 Пбайт. Компрессия и дедупликация работают в фоновом режиме и используют возможности Intel QuickAssist (QAT). По словам компании, приложения баз данных благодаря использованию новых СХД работают на 44 % быстрее, а общая эффективность хранения данных увеличивается на 71 %.

Системы NetApp AFF серии A обеспечивают многоуровневую защиту и обнаружение программ-вымогателей в режиме реального времени для предотвращения атак вредоносных программ с точностью более 99 %, гарантию восстановления и поддерживают создание неизменяемых резервных копий. Кроме того, новые системы будут обеспечивать возможность разгрузки шифрования для IPsec или TLS 1.3. Эта функция будет включена в будущих выпусках ПО ONTAP, чтобы обеспечить надёжное сквозное шифрование данных без влияния на производительность.

Также было представлено совместное решение NetApp и Lenovo для конвергентной инфраструктуры с системами AFF A-Series, предназначенное для оптимизации внедрения и управления корпоративными рабочими нагрузками генеративного ИИ, включая запуск настраиваемых чат-ботов, инструментов Copilot и других приложений.

 Источник изображения: Lenovo

Источник изображения: Lenovo

Новая версия NetApp AIPod от Lenovo сочетает в себе возможности AIPod с серверами Lenovo ThinkSystem SR675 V3 на базе процессоров AMD и ускорителей NVIDIA L40S. Фактически речь идёт об интеграции платформы NVIDIA OVX с СХД NetApp. Также совместное решение включает в себя сетевую платформу NVIDIA Spectrum-X.

Постоянный URL: https://servernews.ru/1105127
21.05.2024 [19:37], Сергей Карасёв

Российский сервер с четырьмя Intel Xeon Sapphire Rapids: Fplus представила платформу «Буран-SR242»

Компания Fplus анонсировала первый, по её словам, российский сервер, поддерживающих установку четырёх процессоров. Система под названием «Буран-SR242» (SR-242E31-624T) предназначена для решения ИИ-задач, работы с большими данными, создания цифровых двойников, НРС-нагрузок и пр. Сервер выполнен в форм-факторе 2U на платформе Intel Xeon Sapphire Rapids.

Каждый из четырёх процессоров (TDP до 350 Вт) может насчитывать до 60 ядер. Поддерживается до 16 Тбайт оперативной памяти DDR5 в виде 64 модулей. Во фронтальной части располагаются 24 отсека для SFF-накопителей SAS/SATA/NVMe, а сзади находятся ещё два посадочных места для SFF-устройств SATA. Кроме того, можно установить два модуля M.2 SATA/NVMe объёмом до 4 Тбайт каждый. Упомянута поддержка массивов RAID 0/1/10/1E/5/50/6/60.

По заявлениям Fplus, новинка сконструирована так, чтобы заказчики могли легко интегрировать её в уже существующую IT-инфраструктуру. Четырехсокетное исполнение позволяет наращивать производительность постепенно и таким образом уменьшать размер первоначальных инвестиций, говорит компания. Кроме того, возможна установка двух двухслотовых карт расширения с TDP до 300 Вт.

 Источник изображений: Fplus

Источник изображений: Fplus

Слоты расширения выполнены по схеме 6 × PCIe 5.0 и 2 × PCIe 4.0. Есть выделенный порт PCIe 5.0 для карты OCP 3.0. Питание обеспечивают два блока с сертификатом Platinum мощностью до 2700 Вт. За охлаждение отвечают шесть вентиляторов диаметром 60 мм с резервированием N+1 и возможностью горячей замены. Диапазон рабочих температур простирается от 10 до +35 °C.

Fplus полностью контролирует процесс разработки и производства сервера, а на площадке компании реализуются меры по повышению качества конечной продукции. Физические модули TPM 2.0 (Trust Platform Module) и TCM 2.0 (Trusted Cryptography Module) служат для хранения криптографических ключей, применяемых при обновлении внутреннего ПО.

«Выпускать "Бураны" будут на нескольких площадках в России, в том числе на заводе Fplus в Подмосковье. Производственный процесс выстроен с учётом балльной системы локализации, чтобы в дальнейшем устройства вошли в реестр Минпромторга», — отмечает компания. Говорится также, что до сих пор в сегменте четырёхсокетных серверов доминировали зарубежные производители — почти все объёмы закрывались параллельным импортом. Системы с поддержкой четырёх процессоров также есть в ассортименте «DатаРу».

Постоянный URL: https://servernews.ru/1105152
21.05.2024 [18:48], Алексей Степин

Intel отказалась от Ponte Vecchio в пользу Gaudi и Falcon Shores

Ускоритель Intel Ponte Vecchio на базе архитектуры Xe стал настоящим технологическим чудом, объединив 47 чиплетов в своей сложнейшей, многослойной компоновке на базе EMIB и Foveros. Увы, амбициозный ускоритель задержался: анонсирован он был в 2019 году, но его массовое производство было налажено только к 2023 году.

Он продолжит трудиться в уже построенных суперкомпьютерах — в свежем TOP500 система Aurora, использующая данные ускорители, добралась до второго места, хотя постройка машины была завершена почти год назад. Однако новых ускорителей на базе этого решения не будет — проект Rialto Bridge свернут, да и жизненный цикл Ponte Vecchio подходит к концу.

Эту архитектуру погубил именно замах: Ponte Vecchio был задуман как универсальный ускоритель, способный эффективно работать практически со всеми существующими форматами вычислений, от полновесного FP64 до характерных для ИИ FP16, BF16 и INT8. Но решения NVIDIA и AMD успели уйти вперёд, появились и более узкоспециализированные ИИ-решения.

 Источник изображений: Intel

Источник изображений: Intel

Причём последние появились и у самой Intel: с приобретением активов Habana Labs компания получила перспективную ИИ-архитектуру Gaudi. С точки зрения рыночных перспектив она оказалась куда лучше Ponte Vecchio, уже во втором поколении чипов успешно сражаясь с решениями NVIDIA, особенно в области удельной производительности. И в области ИИ-ускорителей Intel теперь делает ставку именно на Gaudi3.

 Gaudi3. Источник: Intel

В Falcon Shores компания намерена совместить несколько подходов. Согласно последним данным, новинка будет включать в себя элементы архитектур Xe и Gaudi, получит модульный дизайн, поддержку современных ИИ-фреймворков и будет использовать масштабируемые интерфейсы ввода-вывода и HBM3e. Выпуск Falcon Shores намечен на 2025 год. Intel намеревается сфокусировать своё внимание на рынке корпоративных ИИ-систем, для чего планируется как можно быстрее расширять рыночную нишу Gaudi. Однако для рынка HPC ведущей связкой пока останется Xeon с ускорителями серии Max.

 Источник: Intel

Следует отметить, что фокус на специфичных для ИИ архитектурах не означает экономичность. Если самый быстрый вариант Ponte Vecchio в лице OAM-ускорителя Data Center GPU Max 1550 имеет TDP 600 Вт, то у Gaudi3 даже с воздушным охлаждением этот показатель вырастет до 900 Вт. Это вынуждает использовать формат OAM 2.0, но для Falcon Shores и он не подойдёт — Intel говорит уже 1500 Вт, что больше, нежели у NVIDIA Blackwell с его 1200 Вт.

Постоянный URL: https://servernews.ru/1105136
21.05.2024 [16:36], Руслан Авдеев

Core42 и Cerebras построят в Техасе ИИ-суперкомпьютер с 173 млн ядер

Базирующаяся в ОАЭ компания Core42 занялась строительством ИИ-суперкомпьютера, в эксплуатацию объект должны ввести до конца текущего года. HPC Wire сообщает, что компьютер Condor Galaxy 3 (CG-3) получит 192 узла с 5-нм мегачипами Cerebras WSE-3 и 172,8 млн ИИ-ядер.

WSE-3 в 50 раз крупнее актуальных ИИ-ускорителей NVIDIA и, конечно, гораздо производительнее. По данным Core42, развёртывание CG-3 в Далласе (Техас) начнётся в июне и завершится в сентябре–октябре. Core42 уже считается значимым игроком на рынке ЦОД, HPC- и ИИ-систем. Машины G42 уже попадали в TOP500 — это системы Artemis (NVIDIA) и POD3 (Huawei). Последняя покинула рейтинг в 2023 году.

Суперкомпьютер CG-3, как теперь сообщается, получит 192 узла CS-3. Каждый узел с чипом WSE-3 обеспечивает до 125 Пфлопс (FP16 с разрежением), так что общая производительность Condor Galaxy 3 составит 24 Эфлопс. Всего же Cerebras намеревается построить девять суперкомпьютеров семейства Condor Galaxy. Машины GC-1 и GC-2 на базе чипов WSE-2 также созданы при участии G42.

 Источник изображения: Cerebras

Источник изображения: Cerebras

Core42 появилась в 2023 году в результате слияния G42 Cloud и G42 Inception AI. Родительская компания G42, основанная в 2018 году, также сотрудничает с NVIDIA, AMD, OpenAI и другими компаниями. G42 не так давно попала под пристальное внимание американских властей. Её подозревали в том, что она помогала Китаю получать доступ к новейшим ускорителям NVIDIA и другому ИИ-оборудованию американских компаний. В результате, как считается, она была вынуждена отказать от сотрудничества с Huawei.

Также сообщалось, что G42 заключила с американским правительством взаимовыгодное секретное соглашение — компания обязалась лишить КНР доступа к ускорителям, а в ответ ей самой разрешали сохранить доступ к продукции NVIDIA. Не исключено, что были оговорены и иные пункты. По некоторым данным, именно в то же время, когда было заключено соглашение с руководством США, Microsoft инвестировала в G42 около $1,5 млрд.

Постоянный URL: https://servernews.ru/1105124
21.05.2024 [15:59], Сергей Карасёв

Объём производства российского оптоволокна сократился

В I квартале 2024 года объём производства российских оптоволоконных кабелей в натуральном выражении составил приблизительно 842 тыс. км. Это на 11 % меньше по сравнению с прошлогодним результатом, о чём сообщает газета «Коммерсантъ», ссылаясь на данные профильной ассоциации «Электрокабель».

Говорится, что спрос на оптоволокно в России в годовом исчислении упал на 1 % — до 855 тыс. км. При этом в деньгах продажи уменьшились на примерно на 4 %, составив 2,7 млрд руб. Эксперты объясняют ситуацию несколькими причинами. Объём производства в РФ упал из-за сокращения числа государственных проектов, связанных с использованием оптоволоконного кабеля. Кроме того, увеличились поставки китайской продукции — на 5 % в 2023-м. Плюс к этому закупки оптоволокна телекоммуникационными компаниями в целом в I квартале снизились на 15–20 %.

По оценкам, в 2023 году общий объём производства оптоволоконных кабелей в России составил 4,45 млн км, что на 2 % больше результата за предыдущий год. В деньгах рынок вырос на 25 % — до 13,8 млрд руб. В 2022 году на фоне сложившейся геополитической обстановки объём потребления оптоволокна снизился на 30 % из-за санкций и задержек с поставками оборудования. В 2023-м проблемы удалось частично решить, но достигнуть уровня 2021 года (около 4,7 млн км) всё равно не получилось.

В «МегаФоне» и МТС отмечают, что работают только с поставщиками из России и Белоруссии, в «ВымпелКоме» — «преимущественно с отечественными производителями». Однако эксперты подчёркивают, что частные операторы, хотя и покупают отечественный кабель, но тот, который произведён из зарубежного волокна. Дело в том, что российское волокно дороже импортного, а участники рынка в сложной макроэкономической обстановке вынуждены экономить.

Ранее говорилось, что на импортозамещение оптоволокна в РФ понадобится 20 млрд руб. В частности, Минпромторг объявил тендер на сумму от 1,09 млрд руб. на проведение опытно-конструкторских работ по созданию отечественной технологии выпуска кварцевых заготовок (преформ) для оптоволокна. Вместе с тем Федеральная антимонопольная служба (ФАС) России предлагает организовать в стране запуск полного цикла производства оптоволокна.

Постоянный URL: https://servernews.ru/1105141
21.05.2024 [12:49], Руслан Авдеев

Google рассчитывает потратить €1 млрд на расширение основного ЦОД в Финляндии, который заодно обогреет дома местных жителей

По данным Bloomberg, Google намерена потратить на расширение основного дата-центра в Финляндии €1 млрд ($1,1 млрд) — преимуществом ЦОД является его лёгкий доступ к «зелёной» энергии. Расширение позволит на четверть увеличить штат, наняв ещё 500 человек в этом и следующем годах.

ЦОД расположен в городе Хамина на южном побережье Финляндии. В регионе хорошо налажены поставки возобновляемой энергии, что вполне соответствует цели компании по полному переходу офисов и дата-центров на «зелёную» энергетику до конца текущего десятилетия.

IT-гигант развивает и сотрудничество с местной коммунальной компанией — тепло от работы ЦОД будет передаваться в местную систему отопления. Технология районного центрального отопления весьма популярна в этой части севера Европы. Если проект успешно реализуют, это будет способствовать и будущим инвестициям. По словам представителя Google, со временем новые площадки, возможно, будут строиться в местах, где легче использовать «мусорное» тепло дата-центров. В ходе пилотного проекта тепло коммунальной компании Haminan Energia Oy будет поставляться бесплатно.

 Источник изображения: rivage/unsplash.com

Источник изображения: rivage/unsplash.com

Google — не первая технологическая компания, предлагающая тепло своих ЦОД местным поставщикам тепла в северных широтах. Например, Microsoft намерена обогреть теплом ЦОД в Дании до 6 тыс. домов. С той же целью тепло нескольких ЦОД применяется и в Стокгольме. При этом финский дата-центр Yandex почти восемь лет назад начал отапливать дома жителей Мянтсяля.

Постоянный URL: https://servernews.ru/1105120
20.05.2024 [19:32], Александр Бенедичук

FPGA с HBM2e: AMD без лишнего шума выпустила ускоритель Alveo V80 стоимостью всего $9,5 тыс.

AMD начала массовое производство ускорителя Alveo V80 стоимостью $9,5 тыс., передаёт Wccftech. Новинка на базе SoC Versal HBM предназначена для рабочих нагрузок среднего уровня, существенно зависящих от пропускной способности памяти (ПСП), и, как ожидается, получит широкое распространение в области HPC, сетей и СХД.

Alveo V80 базируется на гибридной 7-нм SoC Versal XCV80 HBM и включает 32 Гбайт HBM2e-памяти с ПСП 820 Гбайт/с. FPGA предлагает 10 848 DSP, 2,6 млн LUT, 132 Мбит BRAM и 541 Мбит UltraRAM. Также есть два ядра общего назначения Arm Cortex-A72, дополненных 4 или 8 Гбайт DDR4-3200 ECC, и пара ядер Arm Cortex-R5F. На плате есть DIMM-слот для установки 32 Гбайт DDR4-памяти.

 Источник изображения: AMD

Источник изображения: AMD

Ускоритель обладает развитой сетевой подсистемой, которая включает три криптодвижка класса 400G, шесть 100G Ethernet MAC, три 600G Ethernet MAC и один 600G-интерфейс Interlaken для межчипового взаимодействия. Впрочем, на самой карте есть только четыре порта QSFP56, работающих либо в режиме 2 × 100GbE, либо 4 × 10/25/40/50GbE. Сама карта имеет интерфейс PCIe 4.0 x16, который также может быть сконфигурирован как два PCIe 5.0 x8. В задней части есть пара коннекторов MCIO x4 и один MCIO x8.

 Источник изображения: AMD

Источник изображения: AMD

Ускоритель выполнен в виде двухслотовой карты с пассивным охлаждением и имеет TDP до 190 Вт. При этом у него есть сразу два восьмиконтактных гнезда для дополнительного питания. По словам компании, Alveo V80 является своего рода наследницей Alveo U55C и в 2–4 раза лучше её по ряду параметров.

Постоянный URL: https://servernews.ru/1105060
20.05.2024 [18:13], Руслан Авдеев

В погоне за ИИ: большинство строящихся в Северной Америке ЦОД арендуют ещё до того, как они готовы, несмотря на рост цен

С 2023 года стремительно растёт доля строящихся в Северной Америке дата-центров, которые бронируются ещё до того, как они готовы к эксплуатации. The Register сообщает, что в I квартале текущего года речь шла уже о 84 % предварительно забронированной ёмкости.

По данным CBRE за 2023 год, более 2,5 ГВт (83 %) из 3 ГВт строящихся мощностей уже арендованы. Эта тенденция сохранится и в 2024 году. Так, в I квартале 2024 года доля таких ЦОД составила уже 84,3 % от общей ёмкости. Ранее этот показатель был ближе к 50 %, а теперь речь, вероятно, идёт о рекорде как минимум с 2020 года. Спрос в Европе тоже достиг рекордных показателей, взрывной рост заблаговременной аренды начался во II квартале 2023 года.

При этом строительство ЦОД выросло на 46 % в 2023 году в сравнении с 2022-м, а фактическое предложение увеличилось на 26 %. В уже существующих дата-центрах свободно лишь порядка 3,7 % ёмкости — это не антирекорд всех времён, но довольно близко к этому. При этом далеко не все владельцы кампусов горят желанием продлять договоры на прежних условиях, многие предпочитают освобождать ёмкости для сдачи уже по новым, максимально высоким ценам. Поскольку спрос весьма высок, стоимость аренды выросла в 2022 году на 14,5 % в сравнении с предшествовавшим годом, а в 2023 взлетела на 18,6 %.

При этом новые ЦОД вряд ли значительно упростят ситуацию для потенциальных арендаторов, поскольку выросла цена строительства с учётом дефицита критически важных материалов вроде генераторов, систем охлаждения и трансформаторов. Правда, сам дефицит оборудования, по слухам, напрямую связан именно с ростом темпов строительства. И, конечно, строительство новых дата-центров происходит не так уж быстро — обычно на реализацию проекта уходит от года до трёх.

Возможность строить много ЦОД во многом зависит от готовности инвестировать в такие проекты. Крупные компании вроде Microsoft намерены резко нарастить ёмкость своих объектов, хотя в масштабах рынка потребуется намного больше средств, чем готовы выделить компании. В CBRE ожидают, что в долгосрочной перспективе вложения окупятся с учётом ежегодного совокупного увеличения выручки от ИИ-решения на 58 % (по оценкам S&P Market Intelligence). Впрочем, если прогнозы не оправдаются, вряд ли спрос на новые мощности ЦОД останется на прежнем высоком уровне.

Постоянный URL: https://servernews.ru/1105085
20.05.2024 [13:50], Руслан Авдеев

Google Cloud умудрилась поломать собственную сетевую инфраструктуру, но быстро исправилась

Прошла всего неделя после того, как Google удалила облачную учётную запись австралийского пенсионного фонда UniSuper, но, похоже, инженеры компании только начинают входить во вкус. По данным The Register, в минувшую пятницу Google Cloud нарушила работу десятков сервисов.

Изначально в Google Cloud объявили о запуске «автоматизации техобслуживания для отключения неиспользуемого компонента контроля сети в одной локации». Но в результате отключение состоялось сразу в 40 локациях, так что почти три часа пользователи 33 сервисов Google Cloud, включая крупные службы вроде Compute Engine и Kubernetes Engine, столкнулись с рядом проблем:

  • новые инстансы не имели сетевого подключения;
  • перенесённые/перезапущенные виртуальные машины потеряли сетевое подключение;
  • конфигурации виртуальных сетей (брандмауэров и т.п.) обновить не удалось;
  • частичная потеря пакетов для отдельных сетевых потоков VPC (Virtual Private Cloud) в регионах us-central1 и us-east1;
  • невозможность выделения портов (DPA) в Cloud NAT;
  • сбои при создании новых узлов и пулов GKE (Google Kubernetes Engine).

Прочие сервисы, требовавшие использования виртуальных машин в Google Cloud Engine или обновление конфигураций сети, столкнулись с проблемами с 15:22 по 18:10 по тихоокеанскому времени США.

 Источник изображения: NOAA/unsplash.com

Источник изображения: NOAA/unsplash.com

В Google объяснили инциденты ошибкой в системе автоматизированного отключения сетей. После перезапуска некорректно работавшего компонента проблема была устранена. Инструмент автоматизации заблокировали до принятия необходимых мер безопасности, а клиентам сообщили, что пока риска повторения сбоев нет. Впрочем, подмоченная репутация компании позволяет усомниться в её заявлениях. Облачное подразделение Google пообещало со временем раскрыть больше информации о произошедшем.

Постоянный URL: https://servernews.ru/1105075
20.05.2024 [13:05], Руслан Авдеев

Британский ЦОД Humber Tech Park будет зарабатывать на ИИ и помидорах

Кампус ЦОД ёмкостью 386 МВт и стоимостью около £3 млрд ($3,8 млрд), строительство которого планируется в графстве Линкольншир (Великобритания), должен стать источником тепла для не только для районной системы отопления, но и для подсобного тепличного хозяйства, передаёт Datacenter Dynamics.

Согласно заявке, строительство кампуса Humber Tech Park предполагается в поселении Южный Киллингхолм. Компания намерена получить разрешение на строительство объекта из трёх зданий общей площадью 278 тыс. м2. ЦОД подойдёт для размещения ИИ-систем, хотя о том, какое именно оборудование будет использовано, пока не сообщается. На территории кампуса будет построена и новая электроподстанция для обеспечения потребностей оборудования и инфраструктуры в энергии.

 Источник изображения: Markus Spiske/unsplash.com

Источник изображения: Markus Spiske/unsplash.com

Проект предполагает несколько вариантов утилизации «мусорного» тепла для повышения экологичности. Предложено уже традиционное подключение к локальной отопительной системе. Но план предусматривает и постройку комплекса теплиц площадью 27 тыс. м2 для выращивания помидор. Ожидается, что подсобное хозяйство будет приносить до £3,5 млн ($4,43 млн) ежегодно. Тепло ЦОД в последние годы часто применяется для выращивания водорослей, овощей и рыбы, поэтому британский проект стал лишь одним из многих подобного типа.

Постоянный URL: https://servernews.ru/1105070
Система Orphus