Лента новостей

25.03.2024 [18:12], Руслан Авдеев

Генеративный ИИ и HAMR станут драйверами роста рынка HDD

В своё время технология 3D NAND немало способствовала росту плотности записи и повышению ёмкости SSD. DigiTimes сообщает, что обычные жёсткие диски, в последнее время всё чаще заменяемые твердотельными альтернативами, могут получить второе дыхание благодаря развитию генеративного ИИ и внедрению техники термомагнитной записи (HAMR). Разработка Seagate Technology, по некоторым оценкам, способна дать ежегодный рост плотности записи HDD на уровне 20 %.

По данным японского исследовательского института Techno System Research (TSR), мировые поставки HDD достигли пика в 2010 году, составив 650 млн единиц. С тех пор поставки поступательно уменьшались, в 2023 году упав до 120 млн единиц — более 500 млн «потерянных» HDD заменили SSD. Правда, суммарная ёмкость жёстких дисков продолжает расти, несмотря на снижение отгрузок в штуках.

 Фото: Jandira Sonnendeck / Unsplash

Фото: Jandira Sonnendeck / Unsplash

Вместе с тем HDD всё ещё выгоднее SSD по соотношению цена/ёмкость, особенно для накопителей nearline-класса. По данным Nikkei, в 2023 году у HDD цена за гигабайт составляла $0,013, а SSD большой ёмкости — на уровне $0,123/Гбайт, т.е. в 9,5 раз больше, чем HDD. По оценкам IDC, для хранения данных генеративного ИИ потребуется средний ежегодный прирост ёмкости накопителей на уровне около 20 %. Если компания ограничена в средствах, она предпочтёт HDD именно из-за более выгодного соотношения цена и ёмкости. Есть и ещё один фактор — сегодня на строительство каждого ЦОД уходит $1–1,5 млрд, а затраты на электроэнергию составляют $10–100 млн ежегодно.

Однако технология PMR актуальна только для жёстких дисков относительно небольшой ёмкости, а более прогрессивные ePMR от Western Digital (WD) и FC-MAMR от Toshiba показывают ежегодный рост плотности примерно на 8 %, пишет DigiTimes. В 2021 году Toshiba предложила технологию MAS-MAMR, позволяющую поднять максимальную ёмкость HDD до 30 Тбайт и дополнительно снизить энергопотребление в пересчёте на Тбайт, что позволило бы модернизировать уже действующие дата-центры.

Seagate же готова начать производство HAMR HDD ёмкостью более 30 Тбайт, в 2025 году она намерена выпустить HDD на 40 Тбайт, а в 2027–2028 гг. ёмкость её накопителей превысит 50 Тбайт. В результате у жёстких дисков действительно откроется второе дыхание к концу десятилетия. Впрочем, Pure Storage прогнозирует, что к этому моменту жёсткие диски, напротив, будут полностью вытеснены SSD благодаря энергоэффективности последних. А спрос на ИИ только подстегнёт замену. Не будут испытывать проблем, похоже, только LTO-библиотеки.

Постоянный URL: https://servernews.ru/1102239
25.03.2024 [15:07], Руслан Авдеев

AWS намерена вложить $5,8 млрд в строительство ЦОД в Южной Корее и уже приобрела участок для первого объекта

Гиперскейлер Amazon Web Services (AWS) приобрёл земельный участок для строительства дата-центра в Южной Корее и уже получил разрешение на возведение соответствующего объекта. По данным TelecomPaper, покупкой занималось дочернее подразделение — Amazon Corporate Services Korea. И это только часть масштабного плана инвестиций в ЦОД на территории страны.

По имеющимся сведениям, дочернее предприятие Amazon приобрело землю и другую недвижимость в окрестностях города Инчхон — разрешение на строительство получено недавно. ЦОД будет занимать площадь 32,475 м2 — речь идёт о комплексе высотой в семь этажей общей ёмкостью около 100 МВт. Кампус будет включать четыре дата-центра, а также телекоммуникационную площадку.

 Источник изображения: Sava Bobov/unsplash.com

Источник изображения: Sava Bobov/unsplash.com

Общий план AWS значительно масштабнее. Ещё в прошлом году компания заявила о намерении вложить в местную облачную инфраструктуру ₩7,85 трлн (более $5,8 млрд) в течение 5 лет, а таже сформировать 12,3 тыс рабочих мест. Теперь же сообщается, что AWS завершила подготовку подробного проекта кампуса ЦОД и начала выбирать подрядчика, готового взяться за непосредственную реализацию проекта. Amazon эти сообщения не комментирует.

Это не единственный масштабный проект, связанный со строительством дата-центров в Южной Корее. В феврале 2024 года появилась информация о намерении создать в стране кластера из 50 ЦОД общей ёмкостью 1 ГВт, по 20 МВт каждый.

Постоянный URL: https://servernews.ru/1102234
24.03.2024 [15:05], Сергей Карасёв

Nutanix обвиняет бывших сотрудников и стартап Tessell в краже интеллектуальной собственности

Компания Nutanix, разработчик решений в области гибридных мультиоблачных платформ и HCI, по сообщению The Register, подала в федеральный окружной суд Северной Калифорнии иск против троих своих бывших сотрудников и основанного ими стартапа Tessell, который специализируется на облачных продуктах DBaaS (база данных как услуга).

В деле фигурируют Бала Кучибхотла (Bala Kuchibhotla), Камалдип Хануджа (Kamaldeep Khanuja) и Бакул Бантиа (Bakul Banthia). По заявления истцов, они использовали мощности, оборудование, сервисы Nutanix и даже исходный код Nutanix Era при разработке решений Tessell. Продукт Nutanix Era — это специализированный софт, который автоматизирует и упрощает администрирование баз данных.

 Источник изображения: pixabay.com

Источник изображения: pixabay.com

В иске утверждается, что названные лица, будучи сотрудниками Nutanix, «спланировали, разработали, получили первоначальное финансирование и продемонстрировали прототипы конкурирующего продукта» с использованием ресурсов Nutanix. Более того, один из прототипов решения Tessell работал на серверах Nutanix. Таким образом, как отмечается в судебных документах, ответчики якобы завладели исходным кодом Era и использовали его для создания своих собственных продуктов в рамках участия в стартапе Tessell.

Проведенное специалистами Nutanix расследование выявило кражу интеллектуальной собственности. Бывшие сотрудники обвиняются в нарушении контракта и хищении корпоративной информации, тогда как фирме Tessell вменяется незаконное использование чужой интеллектуальной собственности. Говорится, что Tessell «осознанно и преднамеренно» нарушила авторские права и патенты Nutanix. Ответчики ситуацию пока никак не комментируют.

Постоянный URL: https://servernews.ru/1102200
24.03.2024 [15:03], Сергей Карасёв

Tencent увеличит инвестиции в облака на Ближнем Востоке

Tencent, по сообщению Bloomberg, намерена расширить свой облачный бизнес на Ближнем Востоке на фоне стремительного развития ИИ. Речь идёт о реализации проектов в Саудовской Аравии и ОАЭ.

Исполнительный вице-президент Tencent Доусон Тонг (Dowson Tong) в ходе выступления в Эр-Рияде отметил, что инвестиции компании в указанном регионе «всё ещё находятся на начальной стадии», но будут быстро расти. Tencent считает, что этот рынок имеет большой потенциал, особенно в свете необходимости наращивания вычислительных мощностей и ресурсов для хранения данных.

На первом этапе Tencent сосредоточится на развитии облачных хранилищ — как для сторонних клиентов (в частности, из сфер развлечений и игр), так и для своих собственных нужд. Недавно Tencent выпустила арабскую версию Honor of Kings — одной из самых популярных мобильных игр. Кроме того, Tencent намерена развернуть на Ближнем Востоке вычислительные мощности для приложений ИИ. В эту сферу Саудовская Аравия и ОАЭ вкладывают значительные средства, фокусируясь в том числе на разработке региональных больших языковых моделей.

 Источник изображения: Tencent

Источник изображения: Tencent

Проекты в сегменте дата-центров и облаков на Ближнем Востоке активно развивают и другие крупные компании. Так, Aramco Digital и Groq сообщили о намерении создать в Саудовской Аравии крупнейший в мире центр по развитию ИИ. Строительством ЦОД в этой стране занимаются Saudi Call и China Mobile, тогда как Oracle и Microsoft развернут здесь новые облачные регионы. Huawei уже запустила в Эр-Рияде свой первый облачный регион на Ближнем Востоке, тогда как HPE ввела в эксплуатацию предприятие по выпуску серверов. Вместе с тем Microsoft, Oracle и Du намерены сформировать суверенные облака в ОАЭ.

Постоянный URL: https://servernews.ru/1102199
24.03.2024 [15:00], Сергей Карасёв

ИИ-облако нового поколения: выходцы из Google DeepMind создали платформу Foundry, получив $80 млн инвестиций

Компания Foundry Technologies, по сообщению ресурса Datacenter Dynamics, запустила публичную облачную платформу, оптимизированную для нагрузок ИИ. Инвестиции в проект составили $80 млн, а сама Foundry при этом получила оценку приблизительно $350 млн.

Говорится, что средства привлечены в рамках посевного раунда и раунда Series A. Инвестиционную программу возглавили Lightspeed Venture Partners и Sequoia Capital. К ним присоединились более дюжины других инвесторов, в том числе венчурное подразделение Microsoft, главный научный сотрудник Google Джефф Дин (Jeff Dean) и соучредитель Databricks Матей Захария (Matei Zaharia).

 Источник изображения: pixabay.com

Источник изображения: pixabay.com

Джаред Куинси Дэвис (Jared Quincy Davis), генеральный директор и основатель Foundry, ранее работал научным сотрудником в команде Google DeepMind. Кроме того, в новом проекте участвуют другие специалисты DeepMind, учёные Стэнфордского университета (Stanford University) и Захария. Создание Foundry началось в 2022 году, а сейчас состоялось официальное открытие платформы.

В рамках нового ИИ-облака предоставляется доступ к нескольким типам инстансов. Некоторые из них базируются на ускорителях NVIDIA H100, тогда как другие используют менее мощные аппаратные конфигурации, ориентированные на экономическую эффективность. Клиенты могут наращивать или сокращать вычислительные ресурсы по мере необходимости.

«Мы создаём новое поколение публичных облаков на базе платформы оркестрации, которые делают доступ к вычислительным ресурсам ИИ таким же простым, как включение света», — говорит Дэвис.

Отмечается, что сервисы Foundry проектируются в соответствии с «самыми высокими стандартами безопасности». Платформа подходит для обучения ИИ-моделей, инференса и запуска готовых сервисов. Привлечённые средства компания намерена направить на развитие проекта и расширение партнёрской сети.

Постоянный URL: https://servernews.ru/1102196
24.03.2024 [02:19], Сергей Карасёв

WEKApod для SuperPOD: WekaIO представила платформу хранения данных для ИИ-кластеров NVIDIA

Компания WekaIO, разработчик решений для хранения данных, анонсировала высокопроизводительное All-Flash хранилище WEKApod, оптимизированное для работы с платформой NVIDIA DGX SuperPOD на базе NVIDIA DGX H100. Новинка объединяет специализированное ПО WekaIO и «лучшее в своем классе оборудование».

Хранилище WEKApod спроектировано для ресурсоёмких нагрузок ИИ. Базовая конфигурация состоит из восьми 1U-узлов, обеспечивающих суммарную вместимость в 1 Пбайт. Показатель IOPS (операций ввода-вывода в секунду) достигает 18,3 млн. Заявленная пропускная способность при чтении составляет до 720 Гбайт/с, при записи — до 186 Гбайт/с.

Утверждается, что восемь узлов WEKApod обеспечивает производительность, необходимую для 128 систем NVIDIA DGX H100. При этом WEKApod может масштабироваться до сотен узлов блоками по четыре узла. Таким образом, можно сформировать систему необходимой вместимости с высокой отказоустойчивостью для обучения больших языковых моделей (LLM), ИИ-приложений, работающих в реальном времени, и пр.

 Источник изображения: WekaIO

Источник изображения: WekaIO

Отмечается, что архитектура WEKApod обеспечивает снижение энергопотребления благодаря оптимальному использованию пространства, улучшенному охлаждению и средствам энергосбережения в режиме простоя. В результате, достигается потенциальное сокращение углеродного следа до 260 т/Пбайт.

WEKApod использует адаптеры NVIDIA ConnectX-7 и NVIDIA Base Command Manager для мониторинга и управления. Каждый из узлов несёт на борту процессор AMD EPYC 9454P (48C/96T; 2,75–3,80 ГГц; 290 Вт) и 384 Гбайт памяти DDR5-4800. Есть посадочные места для 14 накопителей формата E3.S с интерфейсом PCIe 5.0. Производительность в расчёте на узел достигает 90 Гбайт/с при чтении и 23,3 Гбайт/с при записи, а величина IOPS равна 2,3 млн при произвольном чтении и 535 тыс. при произвольной записи.

Постоянный URL: https://servernews.ru/1102175
24.03.2024 [02:06], Сергей Карасёв

Micron показала модули памяти MCR DIMM DDR5-8800 ёмкостью 256 Гбайт

Компания Micron, по сообщению ресурса Tom's Hardware, продемонстрировала на конференции NVIDIA GTC 2024 модули оперативной памяти MCR DIMM ёмкостью 256 Гбайт для серверов следующего поколения, в том числе для систем, построенных на процессорах Intel Xeon Granite Rapids. Модули имеют увеличенную высоту, но Micron также намерена выпустить варианты стандартной высоты для серверов типоразмера 1U.

Изделия соответствуют стандарту DDR5-8800. С каждой стороны модуля расположены по 40 чипов памяти. Заявленное энергопотребление изделия составляет 20 Вт, тогда как у RDIMM объёмом 128 Гбайт при использовании профиля DDR5-4800 оно равно 10 Вт. Новые изделия Micron позволяют оснащать серверы 3 Тбайт памяти при наличии 12 слотов ОЗУ и 6 Тбайт при наличии 24 слотов.

 Источник изображения: Micron

Источник изображения: Micron

MCR DIMM использует специальный буфер между DRAM и CPU, который позволяет двум физическим рангам функционировать так, как если бы они были двумя отдельными модулями памяти, работающими параллельно. Это позволяет извлекать из памяти вдвое больше данных за каждый такт, а также увеличить скорость обмена информацией с CPU. Таким образом, можно одновременно поднять и ёмкость, и производительность памяти.

SK hynix также поддерживает MCR DIMM, а вот AMD и JEDEC готовят альтернативный стандарт MRDIMM, который тоже поддерживает создание высокоёмких модулей DDR5-8800. Впрочем, концептуально оба решения восходят к OMI/DDIMM от IBM и даже FB-DIMM.

Постоянный URL: https://servernews.ru/1102169
24.03.2024 [01:23], Руслан Авдеев

Equinix, одного из крупнейших операторов ЦОД, обвинили в подтасовке бухгалтерской отчётности и продаже несуществующих мощностей

Аналитическая компания Hindenburg Research обвинила одного из крупнейших в мире операторов ЦОД Equinix, который владеет более 260 объектами по всему миру, в манипуляциях с бухгалтерской отчётностью. По данным Datacenter Dynamics, речь идёт и о недостоверной трактовке фактов и, как сообщают СМИ, продаже клиентам «несбыточных мечтаний» об ИИ.

Заявления Hindenburg поднимают вопросы, касающиеся будущего Equinix, извлекавшей определённые выгоды из рыночных ожиданий того, что ИИ-компаниям понадобится больше дата-центров большей ёмкости. После публикации отчёта акции компании упали в цене, а ранее планировавшийся выпуск облигаций был отложен. Equinix, чья рыночная капитализация составляет $80 млрд, заявила, что знает о докладе и сейчас изучает претензии.

 Источник изображения: Equinix

Источник изображения: Equinix

В Hindenburg заявляют, что REIT-фонд Equinix сразу после формирования в 2015 году начал использовать в отчётности показатели скорректированных фондов от операционной деятельности (AFFO) — ключевую метрику прибыльности таких структур, которая учитывает регулярные затраты на обслуживание. В том же году появились данные о значительном снижении расходов на обслуживание, что как раз приводит к завышению AFFO. Только в 2023 году показатели AFFO предположительно были завышены на 22 %.

Отчасти речь идёт о прямом подлоге — регулярные работы по обслуживанию и модернизации систем представляются как капитальные инвестиции в развитие. Например, речь может идти о модификации серийных номеров на восстановленном оборудовании, чтобы представить его как новое, а рутинная замена батарей классифицируется как «замена аккумуляторной системы». Выяснилось, что подобные манипуляции привели к увеличению AFFO на $3 млрд с 2015 года, а также выплате топ-менеджменту бонусов акциями на сумму $295,8 млн.

 Источник: Hindenburg Research

Источник: Hindenburg Research

Более того, Hindenburg обвиняет Equinix в продаже ёмкостей, которых у оператора фактически нет, поскольку он рассчитывает, что клиенты всё равно не будут использовать все выкупленные ресурсы на 100 %. Hindenburg в комментарии Bloomberg отмечает, что на фоне эйфории, связанной с ИИ, Equinix кажется инвесторам ключевым бенефициаром этого сегмента, тогда как на деле верно обратное — ИИ представляет риск для бизнеса Equinix, поскольку оператор уже ограничен в доступных энергетических мощностях.

В Hindenburg подчёркивают и угрозу, связанную с переходом многих финансовых институтов из ЦОД Equinix в облака. Речь идёт о биржах Nasdaq, CME Group, Deutsche Boerse и Лондонской фондовой бирже. Хотя у Equinix имеются решения для гиперскейлеров, на их долю приходится менее 1 % выручки. Впрочем, в Equinix уверены в наличии долгосрочных возможностей и соответствии требованиям клиентов, рассчитывающих на цифровую трансформацию и внедрение распределённой, гибридной и мультиоблачной инфраструктуры.

Постоянный URL: https://servernews.ru/1102184
23.03.2024 [22:42], Сергей Карасёв

Quantum представила ленточную библиотеку Scalar i7 Raptor для ИИ-приложений

Компания Quantum анонсировала ленточную библиотеку Scalar i7 Raptor, ориентированную на гиперскейлеров и крупных корпоративных заказчиков. Решение предназначено для работы в том числе с ИИ-приложениями, оперирующими большими объёмами данных.

Разработчик заявляет, что на сегодняшний день Scalar i7 Raptor — это самое плотное и наиболее масштабируемое ленточное хранилище на рынке. Новинка предоставляет заказчикам «экономичную, экологичную и безопасную платформу» для формирования озёр данных, а также частных и гибридных облачных систем.

Благодаря высокой плотности хранения информации клиенты могут снизить затраты на инфраструктуру, пространство в дата-центре, питание, охлаждение, обслуживание и администрирование. Реализованы функции защиты от программ-вымогателей, такие как блокировка ленты. Средства аналитики на базе ИИ позволяют прогнозировать возможные сбои и повышать общую производительность. В результате, улучшается доступность и минимизируется возможное время простоя.

 Источник изображения: Quantum

Источник изображения: Quantum

Scalar i7 Raptor интегрируется с ActiveScale — системой объектного S3-хранилища Quantum. Утверждается, что решение отличается самым низким в отрасли энергопотреблением и использует экологически чистые материалы и процессы на протяжении всего жизненного цикла: от производства и доставки до эксплуатации, технического обслуживания и утилизации. Кроме того, говорится об упрощённом развёртывании.

Технические характеристики Scalar i7 Raptor пока не раскрываются. На сегодняшний день семейство ленточных библиотек Quantum включает варианты i3 на 25–400 слотов, i6 на 50–800 слотов и i600 на 100–14 100 слотов. Существует также масштабируемый продукт i6H (на изображении), предназначенный для гиперскейлеров: предполагается, что именно ему на смену и придёт Scalar i7 Raptor. В продажу новинка поступит в начале 2025 года. Quantum надеется, что она поможет ей поправить финансовое положение, а пока компании грозит делистинг с Nasdaq.

Постоянный URL: https://servernews.ru/1102170
23.03.2024 [22:33], Сергей Карасёв

Akamai внедрит в своей сети ПО Neural Magic для ускорения ИИ-нагрузок

CDN-провайдер Akamai Technologies объявил о заключении соглашения о стратегическом партнёрстве с компанией Neural Magic, разработчиком специализированного ПО для ускорения рабочих нагрузок, связанных с ИИ. Сотрудничество призвано расширить возможности глубокого обучения на базе распределённой вычислительной инфраструктуры Akamai.

Компания Akamai реализует комплексную стратегию по трансформации в распределённого облачного провайдера. В частности, в начале 2023 года Akamai запустила платформу Connected Cloud на базе Linode: это более распределённая альтернатива сервисам AWS или Azure. А в феврале 2024 года была представлена система Gecko (Generalized Edge Compute), которая позволяет использовать облачные вычисления на периферии.

 Источник изображения: pixabay.com

Источник изображения: pixabay.com

В рамках сотрудничества с Neural Magic провайдер предоставит клиентам высокопроизводительную инференс-платформу. Утверждается, что софт Neural Magic даёт возможность запускать ИИ-модели на обычных серверах на базе CPU без дорогостоящих ускорителей на основе GPU. ПО позволяет ускорить выполнение ИИ-задач с помощью технологий автоматического разрежения моделей (model sparsification).

Софт Neural Magic дополнит возможности Akamai по масштабированию, обеспечению безопасности и доставке приложений на периферии. Это позволит компаниям развёртывать ИИ-сервисы в инфраструктуре Akamai c более низкими задержками и повышенной производительностью без необходимости аренды GPU-ресурсов. Платформа Akamai и Neural Magic особенно хорошо подходит для ИИ-приложений, в которых большие объёмы входных данных генерируются близко к периферии.

Постоянный URL: https://servernews.ru/1102189
Система Orphus