Материалы по тегу: i

21.06.2024 [12:05], Сергей Карасёв

«ИИ-гигафабрику» для xAI построят Dell и Supermicro

Оборудование для мощнейшего ИИ-суперкомпьютера компании xAI, курируемой Илоном Маском (Elon Musk), как сообщает Datacenter Dynamics, будут поставлять Dell и Supermicro. Речь идёт о серверах, оборудованных высокопроизводительными ускорителями NVIDIA. После анонса акции обеих компаний выросли в цене.

Напомним, что xAI реализует проект по созданию самого мощного в мире вычислительного комплекса, ориентированного на задачи ИИ. Строительство суперкомпьютера будет осуществляться в несколько этапов. Так, в ближайшее время должна быть запущена система, содержащая 100 тыс. ускорителей NVIDIA H100. А летом 2025 года планируется ввести в эксплуатацию кластер из 300 тыс. новейших ускорителей NVIDIA B200.

О том, что участие в масштабном проекте xAI принимает корпорация Dell, сообщил её генеральный директор Майкл Делл (Michael Dell). Эти сведения подтвердил и сам Маск: по его словам, Dell «соберёт половину стоек, которые войдут в состав суперкомпьютера». За строительство оставшейся части системы будет отвечать Supermicro.

По имеющейся информации, огромный дата-центр xAI, прозванный «ИИ-гигафабрикой», расположится в окрестностях Мемфиса (штат Теннесси). О том, в какой пропорции работы по строительству машины будут распределены между Dell и Supermicro, на данный момент нет. Стоимость проекта оценивается в миллиарды долларов.

 Фото: Michael Dell

Фото: Michael Dell

xAI в настоящее время арендует около 16 тыс. ускорителей NVIDIA H100 в облаке Oracle Cloud, а также использует веб-сервисы Amazon и свободные мощности на ЦОД-площадках X/Twitter. В мае 2024 года стартап осуществил раунд финансирования Series B, в ходе которого было привлечено $6 млрд. В результате, рыночная стоимость xAI достигла $24 млрд. Создаваемый суперкомпьютер будет использоваться в том числе для поддержания работы чат-бота xAI Grok следующего поколения.

Постоянный URL: http://servernews.ru/1106831
20.06.2024 [15:13], Сергей Карасёв

Orange Pi представила одноплатный компьютер KunPeng Pro на чипе Huawei с NPU

В ассортименте Orange Pi, по сообщению ресурса CNX Software, появился одноплатный компьютер под названием KunPeng Pro на аппаратной платформе Huawei. Новинка, использующая Linux-дистрибутив openEuler, предназначена для решения различных задач, связанных с ИИ.

В основу решения положен неназванный Arm-процессор Kunpeng с четырьмя ядрами и встроенным ИИ-движком, обеспечивающим производительность до 8 TOPS. Объём памяти LPDDR4X может составлять 8 или 16 Гбайт.

Оснащение включает чип SPI-флеш ёмкостью 32 Мбайт, модуль eMMC вместимостью 32, 64, 128 или 256 Гбайт, а также слот microSD. Дополнительно может быть установлен SSD формата M.2 2280 с интерфейсом SATA/NVMe. Есть контроллер 1GbE, адаптеры Wi-Fi 5 и Bluetooth 4.2. Размеры составляют 107 × 68 мм, масса — 82 г.

 Источник изображения: Orange Pi

Источник изображения: Orange Pi

Одноплатный компьютер располагает двумя коннекторами HDMI 2.0 с поддержкой видео до 4Kp60, двумя портами USB 3.0 Type-A, 3,5-мм аудиогнездом, гнездом RJ-45 для сетевого кабеля, а также двумя портами USB Type-C, один из которых служит для подачи питания (до 65 Вт). Присутствуют также интерфейсы MIPI DSI (2 линии) и 2 × MIPI CSI, 40-контактная колодка GPIO (UART, I2C, SPI, I2S, PWM), коннекторы для вентилятора охлаждения и батарейки. Приобрести Orange Pi KunPeng Pro можно по ориентировочной цене от $173.

Нужно отметить, что ранее команда Orange Pi анонсировала другой одноплатный компьютер с процессором Huawei — модель AIPro. Это решение получило чип Ascend с четырьмя 64-битными ядрами и ИИ-ускорителем с быстродействием до 8/20 TOPS на операциях INT8 (FP16).

Постоянный URL: http://servernews.ru/1106789
18.06.2024 [00:18], Владимир Мироненко

С чистого листа: VMware возобновила сотрудничество с Dell и подписала OEM-соглашения с Lenovo и HPE

VMware, поглощённая Broadcom в результате сделки на $69 млрд, переподписала OEM-соглашения с тремя ключевыми поставщиками оборудования: Dell, HPE и Lenovo. Это, в частности, позволит им и дальше продавать гиперконвергентные системы и серверы с предустановленным стеком ПО VMware.

Сообщивший об этом ресурс The Register утверждает, что это большое достижение для VMware, поскольку гиперконвергентная инфраструктура, сочетающая в себе вычислительные мощности, СХД и сетевую виртуализацию, являются популярным способом комплектации ИТ-продуктов для корпоративного сегмента, и теперь к их продаже присоединились три крупнейших производителя соответствующего оборудования. Все три компании имеют значительную клиентскую базу, поэтому сделка с VMware тоже пойдёт им на пользу.

Ранее Dell сообщила Комиссии по ценным бумагам и биржам США (SEC), что с 25 января перестали работать дистрибуторские соглашения, заключённые с VMware, когда та входила в состав Dell. В свою очередь, Broadcom объявила в феврале, что уравнивает правила игры для OEM-партнёров VMware, включая Dell, HPE, Lenovo и т.д.

 Источник изображения: VMware

Источник изображения: VMware

После заключения нового соглашения с VMware компания Dell опубликовала заявление, в котором заявила: «Новое соглашение основано на более чем 20-летнем сотрудничестве Dell и VMware и позволяет компаниям продолжать предоставлять совместно разработанные решения, которые помогают организациям внедрять современные приложения и оптимизировать свои ЦОД». В заявлении указано, что сделка охватывает HCI-платформы Dell VxRail и Dell vSAN Ready Nodes, серверы Dell PowerEdge и системы Dell PowerFlex.

Подписание новых соглашений произошло спустя после того, как Intel и AMD анонсировали новые линейки серверных процессоров. Виртуализация только выигрывает от многоядерности, поскольку позволяет обеспечить ещё большую консолидацию мощностей. По мнению The Register, это хорошая новость для Broadcom, которая изменила политику лицензирования продуктов VMware, что многие связали с повышением цен, хотя чипмейкер утверждает, что на самом деле новое предложение является более выгодными для клиентов.

Постоянный URL: http://servernews.ru/1106632
13.06.2024 [21:48], Руслан Авдеев

Microsoft арендует у Oracle ускорители NVIDIA для нужд OpenAI

Microsoft снова прибегнет к помощи Oracle для того, чтобы помочь OpenAI расширить вычислительные мощности. По данным The Register, компания арендует ИИ-мощности у Oracle Cloud Infrastructure (OCI). Microsoft уже вложила в OpenAI огромные средства и, по некоторым данным, владеет почти половиной компании, но, похоже, ресурсов Azure не хватает для того, чтобы ИИ-стартап смог свободно расти.

В ходе последнего квартального отчёта Oracle заявлялось, что компания скоро построит «очень-очень большой дата-центр», около половины которого будет использовать Microsoft. Предполагается, что в нём будет использовано немало ускорителей NVIDIA с СЖО, предназначенных в первую очередь для обучения ИИ-моделей. ИИ-инфраструктура Oracle второго поколения будет существенно производительней первого и спрос на неё будет велик, говорит Oracle.

Так, OCI Supercluster сможет объединить до 64 тыс. суперускорителей NVIDIA Blackwell GB200 посредством RDMA-интерконнекта с ультранизкой задержкой и получит высокопроизводительные хранилища. Суперкластером помимо Microsoft будут пользоваться Adept, Modal, MosaicML, NVIDIA, Reka, Suno, Together AI, Twelve Labs и xAI — Илон Маск (Elon Musk) уже объявил о готовности потратить $10 млрд на облачные серверы Oracle. При этом Oracle предлагает собственный сервис OCI Generative AI, который является конкурентом Azure OpenAI.

 Источник изображения: Pawel Nolbert/unsplash.com

Источник изображения: Pawel Nolbert/unsplash.com

Первые слухи о взаимном использовании облачных ресурсов Microsoft и Oracle появились год назад. Впоследствии Microsoft действительно арендовала ускорители NVIDIA у Oracle. Кроме того, компании стали значительно ближе к другу к другу — Oracle разместила свои комплексы Exadata в Azure. Аналогичное решение вскоре появится и в Google Cloud Platform — сервис последней Cross-Cloud Interconnect будет доступен в 11 облачных регионах OCI, а до конца 2024 года должен стартовать проект Oracle Database@Google Cloud.

В последнем квартале быстрее всего у Oracle росла выручка от облачных сервисов лицензионной поддержки. В компании заявляют о крупнейших контрактах в истории на фоне спроса на обучение ИИ-моделей и рекордных уровнях продаж сервисов OCI. При этом клиенты переходят от разовых закупок на многолетнее облачное обслуживание, чего Oracle и добивалась. Обязательства компании (RPO) уже достигли $98 млрд.

В ближайшем будущем Oracle будет наращивать производительность ИИ-инфраструктуры, чтобы клиенты могли пользоваться актуальными моделями, и строить всё больше крупных дата-центров. Ёмкость некоторых ЦОД приблизится к 1 ГВт. По слухам, Microsoft и OpenAI в марте 2024 года изучали возможность строительства кампуса на 5 ГВт за $100 млрд. Кроме того, как считается, Microsoft является одним из крупнейших заказчиков CoreWeave. Прямо сейчас Microsoft стремительно наращивает ёмкость своих ЦОД и ежемесячно вводит в строй по пять ИИ-суперкомпьютеров.

Постоянный URL: http://servernews.ru/1106455
13.06.2024 [10:49], Сергей Карасёв

В AlmaLinux появилась поддержка Raspberry Pi 5

Участники проекта AlmaLinux объявили о расширении перечня поддерживаемых одноплатных компьютеров Raspberry Pi. Теперь этот дистрибутив можно использовать в том числе с Raspberry Pi 5.

AlmaLinux фактически заполняет пробел, оставшийся после прекращения выпуска стабильных версий CentOS Linux. Поддержка этой ОС прекратилась в конце 2021 года, а не в 2029-м, как ожидалось. Место CentOS заняла CentOS Stream, вечная бета-версия RHEL. В сложившейся ситуации компания CloudLinux анонсировала Lenix — альтернативу привычной CentOS. В дальнейшем проект Lenix был переименован в AlmaLinux.

 Источник изображения: Raspberry Pi

Источник изображения: Raspberry Pi

Отмечается, что, помимо Raspberry Pi 5, платформа AlmaLinux может использоваться на одноплатных компьютерах Raspberry Pi 4 Model B, Raspberry Pi 400, Raspberry Pi 3 Model B+ и Raspberry Pi 3 Model A+. При этом 32-битные варианты Raspberry Pi (ARMv6/ARMv7) и оригинальная модификация Raspberry Pi 3 (без символа «+» в обозначении) не поддерживаются. Образы AlmaLinux для Raspberry Pi доступны для загрузки в официальном репозитории, а также на зеркалах.

Нужно отметить, что будучи автономной, полностью бесплатной ОС, система AlmaLinux получает ежегодную финансовую помощь в размере $1 млн от CloudLinux и поддержку более чем 25 других спонсоров.

Постоянный URL: http://servernews.ru/1106411
10.06.2024 [13:24], Руслан Авдеев

OpenAI намерена закупать термоядерную энергию у Helion в «огромных объёмах»

Компания OpenAI, активно усиливающая свои ИИ-системы, по слухам, намерена закупать в «огромных объёмах» энергию для своих ЦОД у разработчика термоядерных проектов — компании Helion. По данным Datacenter Dynamics, в последнюю инвестировал $375 млн сам глава OpenAI Сэм Альтман (Sam Altman), который является председателем совета директоров Helion, а также другие крупные игроки IT-рынка.

Термоядерная энергия в перспективе обеспечит практически неограниченные поставки дешёвого «чистого» электричества, но, несмотря на потраченные на её разработку огромные средства, никаких коммерческих решений в этой сфере пока не существует. В Helion заверяют, что её термоядерная электростанция заработает уже в 2028 году. Она, как ожидается, будет использовать гелий-3. Другие компании в основном полагаются в своих разработках на тритий.

 Источник изображения: Helion

Источник изображения: Helion

Microsoft заключила с Helion соглашение о покупке «чистой» энергии ещё в прошлом году — это первый в своём роде контракт, связанной с термоядерным синтезом. В рамках сделки Helion будет поставлять Microsoft до 50 МВт безуглеродной энергии. Параллельно Microsoft является инвестором OpenAI, компании работают вместе над ИИ-ЦОД Stargate на 5 ГВт. Проект обойдётся в $100 млрд и будет запущен уже в 2028 году.

Ранее Альтман уже заявлял, что новые энерготехнологии вроде термоядерного синтеза будут необходимы ИИ-инфраструктуре из-за больших потребностей наиболее передовых систем. Альтман заявил, что справиться с возникающими задачами без качественного прорыва невозможно и добавил, что необходим термоядерный синтез или комбинация чрезвычайно дешёвых солнечных элементов с энергохранилищами — в огромных масштабах.

Постоянный URL: http://servernews.ru/1106233
07.06.2024 [15:42], Руслан Авдеев

«ИИ-гигафабрика» xAI разместится в гигантском дата-центре в Теннеси

ИИ-стартап xAI, курируемый Илоном Маском (Elon Musk), намерен построить гигантский дата-центр с самым производительным в мире ИИ-суперкомпьютером. По данным Datacenter Dynamics, ЦОД разместится в окрестностях Мемфиса (штат Теннесси), а пока ожидает одобрения властей.

В обозримом будущем компания должна получить сотни тысяч ускорителей для обучения новых моделей, в частности, чат-бота Grok, предлагаемого, например, по подписке в социальной сети X (Twitter). Ранее в Сеть утекла информация, что NVIDIA передаст xAI чипы, изначально предназначавшиеся для Tesla — Маск весьма вольно распоряжается активами подконтрольных ему бизнесов, часто вызывая недовольство инвесторов.

Пока проект ожидает окончательного разрешения от местного бизнес-инкубатора Memphis Shelby County Economic Development Growth Engine (EDGE), а также муниципальных и федеральных властей. Впрочем, гораздо важнее дождаться одобрения энергетической компании Tennessee Valley Authority (TVA). Реализация проекта сулит появление высокооплачиваемых рабочих мест и увеличение доходов штата, что поможет поддерживать и модернизировать местную инфраструктуру.

 Источник изображения: Heidi Kaden/unsplash.com

Источник изображения: Heidi Kaden/unsplash.com

Муниципальные власти уже назвали проект «крупнейшей мультимиллиардной инвестицией в истории Мемфиса, а Маск окрестил ЦОД «гигафабрикой для вычислений» по аналогии с Tesla Gigafactory. По данным местных СМИ, приглянувшаяся Маску площадка принадлежит инвесткомпании Phoenix Investors, сотрудничающей с xAI и местными властями. Ранее объект управлялся компанией Electrolux.

Неизвестно, насколько масштабной будет первая фаза проекта и сколько средств на неё потратят. Ранее Маск заявлял, что xAI развернёт в ближайшие месяцы 100 тыс. ускорителей NVIDIA H100, а кластер из ещё 300 тыс. B200 введут в эксплуатацию следующим летом. Считается, что xAI арендует около 16 тыс. H100 у Oracle Cloud, также компания пользуется услугами AWS и свободными мощностями X (Twitter).

Постоянный URL: http://servernews.ru/1106126
06.06.2024 [13:23], Руслан Авдеев

Маск подтвердил передачу ИИ-стартапу xAI 12 тыс. ускорителей H100, предназначавшихся Tesla

Глава Tesla и других компаний Илон Маск (Elon Musk) подтвердил передачу ускорителей NVIDIA H100, ранее заказанных Tesla, социальной сети X и ИИ-стартапу xAI. Слухи об этом, напоминает The Register, появились в СМИ — в распоряжение журналистов попала внутренняя документация и электронная переписка с NVIDIA.

В частности, в одной из записок за декабрь прошлого года прямо указывалось, что Илон отдаёт приоритет внедрению 12 тыс. ускорителей в X вместо Tesla. Общая стоимость такого количества H100 превышает $500 млн. Вместо этого заказанные для X экземпляры H100 позже будут переданы Tesla (поставки ожидались в январе и июне 2024 года). Кроме того, есть проблемы и с созданием ИИ-суперкомпьютера Dojo на базе собственных чипов, который должен улучшить положение Tesla.

Приоритетным для Маска, вероятно, является кластер H100, создаваемый X и тесно связанным с сетью стартапом xAI. Компании совместно работают над большими языковыми моделями, стоящими за чат-ботом Grok, уже доступным премиум-подписчикам X. По данным утечки из NVIDIA, 100 тыс. H100 приказано передать к концу года в xAI для создания «крупнейшего в мире» кластера ускорителей, который разместится в Северной Дакоте.

 Источник изображения: Alexander Shatov/unsplash.com

Источник изображения: Alexander Shatov/unsplash.com

Хотя на уровне компаний комментариев не поступало, сам Маск подтвердил, что у Tesla просто не было места для чипов NVIDIA, поэтому они хранились на складе. При этом ещё не так давно Маск уверял инвесторов Tesla, как важны HPC-системы и ИИ для компании. Более того, ещё в апреле появилась новость о том, что автопроизводитель только в течение одного квартала вложил в ИИ $1 млрд.

Также миллиардер сообщал, что один из заводов Tesla в Техасе вместит 50 тыс. H100 для обучения систем автономного вождения, в общей сложности число ускорителей достигло бы 85 тыс. Пока нет точных данных об обстоятельствах передачи ускорителей между Tesla и X или xAI. Нет даже информации о том, заплатила ли уже Tesla за «железо» и получила ли за него какую-то компенсацию.

Условия передачи H100 могут иметь большое значение с учётом того, что Маск не является единоличным владельцем Tesla. Если выяснится, что Маск злоупотребил властью, к нему могут возникнуть вопросы как у инвесторов, так и у регуляторов. Впрочем, Tesla не впервые приходится делиться активами с X. Вскоре после покупки Twitter более 50 сотрудников автопроизводителя якобы отправили на «усиление» социальной соцсети. Есть данные, что сотрудников Tesla привлекают к работам и в других компаниях Маска, причём без дополнительной платы.

Время для новостей не особенно удачное — на следующей неделе акционеры Tesla будут голосовать по ряду предложений, главным из которых является официальный перенос штаб-квартиры в Техас. Также речь пойдёт о переизбрании брата Кимбала, брата Илона Маска (Kimbal Musk), в совет директоров и других ключевых для бизнесмена вопросах.

Тем временем в Tesla падают продажи со II половины 2022 года, увольняют сотрудников и, главное, стоимость акций компании падает критическими темпами. Приказ передать H100 станет дополнительным козырем в руках критиков миллиардера, которые утверждают, что его активное участие в других проектах мешает ему сконцентрироваться на автобизнесе и эффективно выполнять обязанности главы Tesla.

Постоянный URL: http://servernews.ru/1106057
05.06.2024 [12:15], Сергей Карасёв

Комплект Raspberry Pi AI Kit с ИИ-ускорителем Hailo расширит возможности Raspberry Pi 5

Команда Raspberry Pi анонсировала комплект Raspberry Pi AI Kit, который позволяет наделить ИИ-возможностями одноплатный компьютер Raspberry Pi 5, дебютировавший в сентябре 2023 года. Модуль расширения уже доступен для заказа по ориентировочной цене $70.

В основу Raspberry Pi AI Kit положен ИИ-чип Hailo-8L, созданный Hailo Technologies. Это изделие ориентировано на приложения, которым не требуется слишком высокое ИИ-быстродействие. Заявленное быстродействие достигает 13 TOPS, а стандартное энергопотребление составляет 1,5 Вт.

 Источник изображений: Raspberry Pi

Источник изображений: Raspberry Pi

В случае Raspberry Pi AI Kit чип Hailo-8L установлен на модуль типоразмера M.2 2242, который подключается к соответствующему коннектору на плате расширения M.2 HAT+. Эта плата, в свою очередь, обменивается данными с Raspberry Pi 5 посредством интерфейса PCIe 2.0. Габариты M.2 HAT+ составляют 65 × 56,5 × 5,6 мм. Заявленный диапазон рабочих температур простирается от 0 до +50 °C. Новинка может быть смонтирована поверх одноплатного компьютера.

Отмечается, что при использовании обновлённой версии Raspberry Pi OS распознавание чипа Hailo-8L происходит автоматически, после чего ускоритель становится доступен для обработки ИИ-нагрузок. Говорится о полной интеграции с программным стеком Raspberry Pi Camera, что позволяет реализовывать различные приложения на основе машинного зрения.

Постоянный URL: http://servernews.ru/1105976
04.06.2024 [15:04], Сергей Карасёв

MSI анонсировала серверы на базе Intel Xeon 6 в формате 1U/2U

Компания MSI представила серверы на новейшей аппаратной платформе Intel Xeon 6 с процессорами Xeon, оснащёнными энергоэффективными ядрами E-core (Sierra Forest).

В частности, дебютировали модели CX170-S5062 и CX270-S5062 в форм-факторе 1U и 2U соответственно. Они оснащены материнской платой стандарта DC-MHS. Серверы имеют двухсокетное исполнение, располагают 32 слотами DDR5-DIMM и одним разъёмом PCIe 5.0 x16 OCP NIC 3.0.

Модель CX170-S5062 будет предлагаться в модификациях с поддержкой 8 или 12 накопителей SFF U.2 NVMe с интерфейсом PCIe 5.0. Предусмотрены два слота расширения для карт PCIe 5.0. В свою очередь, решение CX270-S5062 может нести на борту до 24 накопителей SFF U.2 NVMe (PCIe 5.0). Доступны шесть разъёмов PCIe 5.0, два из которых рассчитаны на двухслотовые ускорители на базе GPU.

 Источник изображения: MSI

Источник изображения: MSI

Кроме того, MSI анонсировала односокетный сервер CX271-S3066 формата 2U c 24 отсеками для SFF-накопителей U.2 NVMe. Система поддерживает 16 модулей оперативной памяти DDR5. Есть три слота PCIe 5.0 x16, два разъёма OCP NIC 3.0 и два коннектора M.2 NVMe. Сервер предназначен прежде всего для рабочих нагрузок общего назначения.

Все новинки поддерживают модуль управления DC-SCM2 Server Management Module с контроллером Aspeed AST2600 BMC. Отсеки для накопителей располагаются во фронтальной части.

Постоянный URL: http://servernews.ru/1105908
Система Orphus