Лента новостей
24.03.2024 [15:00], Сергей Карасёв
ИИ-облако нового поколения: выходцы из Google DeepMind создали платформу Foundry, получив $80 млн инвестицийКомпания Foundry Technologies, по сообщению ресурса Datacenter Dynamics, запустила публичную облачную платформу, оптимизированную для нагрузок ИИ. Инвестиции в проект составили $80 млн, а сама Foundry при этом получила оценку приблизительно $350 млн. Говорится, что средства привлечены в рамках посевного раунда и раунда Series A. Инвестиционную программу возглавили Lightspeed Venture Partners и Sequoia Capital. К ним присоединились более дюжины других инвесторов, в том числе венчурное подразделение Microsoft, главный научный сотрудник Google Джефф Дин (Jeff Dean) и соучредитель Databricks Матей Захария (Matei Zaharia). ![]() Источник изображения: pixabay.com Джаред Куинси Дэвис (Jared Quincy Davis), генеральный директор и основатель Foundry, ранее работал научным сотрудником в команде Google DeepMind. Кроме того, в новом проекте участвуют другие специалисты DeepMind, учёные Стэнфордского университета (Stanford University) и Захария. Создание Foundry началось в 2022 году, а сейчас состоялось официальное открытие платформы. В рамках нового ИИ-облака предоставляется доступ к нескольким типам инстансов. Некоторые из них базируются на ускорителях NVIDIA H100, тогда как другие используют менее мощные аппаратные конфигурации, ориентированные на экономическую эффективность. Клиенты могут наращивать или сокращать вычислительные ресурсы по мере необходимости. «Мы создаём новое поколение публичных облаков на базе платформы оркестрации, которые делают доступ к вычислительным ресурсам ИИ таким же простым, как включение света», — говорит Дэвис. Отмечается, что сервисы Foundry проектируются в соответствии с «самыми высокими стандартами безопасности». Платформа подходит для обучения ИИ-моделей, инференса и запуска готовых сервисов. Привлечённые средства компания намерена направить на развитие проекта и расширение партнёрской сети.
24.03.2024 [02:19], Сергей Карасёв
WEKApod для SuperPOD: WekaIO представила платформу хранения данных для ИИ-кластеров NVIDIAКомпания WekaIO, разработчик решений для хранения данных, анонсировала высокопроизводительное All-Flash хранилище WEKApod, оптимизированное для работы с платформой NVIDIA DGX SuperPOD на базе NVIDIA DGX H100. Новинка объединяет специализированное ПО WekaIO и «лучшее в своем классе оборудование». Хранилище WEKApod спроектировано для ресурсоёмких нагрузок ИИ. Базовая конфигурация состоит из восьми 1U-узлов, обеспечивающих суммарную вместимость в 1 Пбайт. Показатель IOPS (операций ввода-вывода в секунду) достигает 18,3 млн. Заявленная пропускная способность при чтении составляет до 720 Гбайт/с, при записи — до 186 Гбайт/с. Утверждается, что восемь узлов WEKApod обеспечивает производительность, необходимую для 128 систем NVIDIA DGX H100. При этом WEKApod может масштабироваться до сотен узлов блоками по четыре узла. Таким образом, можно сформировать систему необходимой вместимости с высокой отказоустойчивостью для обучения больших языковых моделей (LLM), ИИ-приложений, работающих в реальном времени, и пр. ![]() Источник изображения: WekaIO Отмечается, что архитектура WEKApod обеспечивает снижение энергопотребления благодаря оптимальному использованию пространства, улучшенному охлаждению и средствам энергосбережения в режиме простоя. В результате, достигается потенциальное сокращение углеродного следа до 260 т/Пбайт. WEKApod использует адаптеры NVIDIA ConnectX-7 и NVIDIA Base Command Manager для мониторинга и управления. Каждый из узлов несёт на борту процессор AMD EPYC 9454P (48C/96T; 2,75–3,80 ГГц; 290 Вт) и 384 Гбайт памяти DDR5-4800. Есть посадочные места для 14 накопителей формата E3.S с интерфейсом PCIe 5.0. Производительность в расчёте на узел достигает 90 Гбайт/с при чтении и 23,3 Гбайт/с при записи, а величина IOPS равна 2,3 млн при произвольном чтении и 535 тыс. при произвольной записи.
24.03.2024 [02:06], Сергей Карасёв
Micron показала модули памяти MCR DIMM DDR5-8800 ёмкостью 256 ГбайтКомпания Micron, по сообщению ресурса Tom's Hardware, продемонстрировала на конференции NVIDIA GTC 2024 модули оперативной памяти MCR DIMM ёмкостью 256 Гбайт для серверов следующего поколения, в том числе для систем, построенных на процессорах Intel Xeon Granite Rapids. Модули имеют увеличенную высоту, но Micron также намерена выпустить варианты стандартной высоты для серверов типоразмера 1U. Изделия соответствуют стандарту DDR5-8800. С каждой стороны модуля расположены по 40 чипов памяти. Заявленное энергопотребление изделия составляет 20 Вт, тогда как у RDIMM объёмом 128 Гбайт при использовании профиля DDR5-4800 оно равно 10 Вт. Новые изделия Micron позволяют оснащать серверы 3 Тбайт памяти при наличии 12 слотов ОЗУ и 6 Тбайт при наличии 24 слотов. MCR DIMM использует специальный буфер между DRAM и CPU, который позволяет двум физическим рангам функционировать так, как если бы они были двумя отдельными модулями памяти, работающими параллельно. Это позволяет извлекать из памяти вдвое больше данных за каждый такт, а также увеличить скорость обмена информацией с CPU. Таким образом, можно одновременно поднять и ёмкость, и производительность памяти. SK hynix также поддерживает MCR DIMM, а вот AMD и JEDEC готовят альтернативный стандарт MRDIMM, который тоже поддерживает создание высокоёмких модулей DDR5-8800. Впрочем, концептуально оба решения восходят к OMI/DDIMM от IBM и даже FB-DIMM.
24.03.2024 [01:23], Руслан Авдеев
Equinix, одного из крупнейших операторов ЦОД, обвинили в подтасовке бухгалтерской отчётности и продаже несуществующих мощностейАналитическая компания Hindenburg Research обвинила одного из крупнейших в мире операторов ЦОД Equinix, который владеет более 260 объектами по всему миру, в манипуляциях с бухгалтерской отчётностью. По данным Datacenter Dynamics, речь идёт и о недостоверной трактовке фактов и, как сообщают СМИ, продаже клиентам «несбыточных мечтаний» об ИИ. Заявления Hindenburg поднимают вопросы, касающиеся будущего Equinix, извлекавшей определённые выгоды из рыночных ожиданий того, что ИИ-компаниям понадобится больше дата-центров большей ёмкости. После публикации отчёта акции компании упали в цене, а ранее планировавшийся выпуск облигаций был отложен. Equinix, чья рыночная капитализация составляет $80 млрд, заявила, что знает о докладе и сейчас изучает претензии. ![]() Источник изображения: Equinix В Hindenburg заявляют, что REIT-фонд Equinix сразу после формирования в 2015 году начал использовать в отчётности показатели скорректированных фондов от операционной деятельности (AFFO) — ключевую метрику прибыльности таких структур, которая учитывает регулярные затраты на обслуживание. В том же году появились данные о значительном снижении расходов на обслуживание, что как раз приводит к завышению AFFO. Только в 2023 году показатели AFFO предположительно были завышены на 22 %. Отчасти речь идёт о прямом подлоге — регулярные работы по обслуживанию и модернизации систем представляются как капитальные инвестиции в развитие. Например, речь может идти о модификации серийных номеров на восстановленном оборудовании, чтобы представить его как новое, а рутинная замена батарей классифицируется как «замена аккумуляторной системы». Выяснилось, что подобные манипуляции привели к увеличению AFFO на $3 млрд с 2015 года, а также выплате топ-менеджменту бонусов акциями на сумму $295,8 млн. Более того, Hindenburg обвиняет Equinix в продаже ёмкостей, которых у оператора фактически нет, поскольку он рассчитывает, что клиенты всё равно не будут использовать все выкупленные ресурсы на 100 %. Hindenburg в комментарии Bloomberg отмечает, что на фоне эйфории, связанной с ИИ, Equinix кажется инвесторам ключевым бенефициаром этого сегмента, тогда как на деле верно обратное — ИИ представляет риск для бизнеса Equinix, поскольку оператор уже ограничен в доступных энергетических мощностях. В Hindenburg подчёркивают и угрозу, связанную с переходом многих финансовых институтов из ЦОД Equinix в облака. Речь идёт о биржах Nasdaq, CME Group, Deutsche Boerse и Лондонской фондовой бирже. Хотя у Equinix имеются решения для гиперскейлеров, на их долю приходится менее 1 % выручки. Впрочем, в Equinix уверены в наличии долгосрочных возможностей и соответствии требованиям клиентов, рассчитывающих на цифровую трансформацию и внедрение распределённой, гибридной и мультиоблачной инфраструктуры.
23.03.2024 [22:42], Сергей Карасёв
Quantum представила ленточную библиотеку Scalar i7 Raptor для ИИ-приложенийКомпания Quantum анонсировала ленточную библиотеку Scalar i7 Raptor, ориентированную на гиперскейлеров и крупных корпоративных заказчиков. Решение предназначено для работы в том числе с ИИ-приложениями, оперирующими большими объёмами данных. Разработчик заявляет, что на сегодняшний день Scalar i7 Raptor — это самое плотное и наиболее масштабируемое ленточное хранилище на рынке. Новинка предоставляет заказчикам «экономичную, экологичную и безопасную платформу» для формирования озёр данных, а также частных и гибридных облачных систем. Благодаря высокой плотности хранения информации клиенты могут снизить затраты на инфраструктуру, пространство в дата-центре, питание, охлаждение, обслуживание и администрирование. Реализованы функции защиты от программ-вымогателей, такие как блокировка ленты. Средства аналитики на базе ИИ позволяют прогнозировать возможные сбои и повышать общую производительность. В результате, улучшается доступность и минимизируется возможное время простоя. ![]() Источник изображения: Quantum Scalar i7 Raptor интегрируется с ActiveScale — системой объектного S3-хранилища Quantum. Утверждается, что решение отличается самым низким в отрасли энергопотреблением и использует экологически чистые материалы и процессы на протяжении всего жизненного цикла: от производства и доставки до эксплуатации, технического обслуживания и утилизации. Кроме того, говорится об упрощённом развёртывании. Технические характеристики Scalar i7 Raptor пока не раскрываются. На сегодняшний день семейство ленточных библиотек Quantum включает варианты i3 на 25–400 слотов, i6 на 50–800 слотов и i600 на 100–14 100 слотов. Существует также масштабируемый продукт i6H (на изображении), предназначенный для гиперскейлеров: предполагается, что именно ему на смену и придёт Scalar i7 Raptor. В продажу новинка поступит в начале 2025 года. Quantum надеется, что она поможет ей поправить финансовое положение, а пока компании грозит делистинг с Nasdaq.
23.03.2024 [22:33], Сергей Карасёв
Akamai внедрит в своей сети ПО Neural Magic для ускорения ИИ-нагрузокCDN-провайдер Akamai Technologies объявил о заключении соглашения о стратегическом партнёрстве с компанией Neural Magic, разработчиком специализированного ПО для ускорения рабочих нагрузок, связанных с ИИ. Сотрудничество призвано расширить возможности глубокого обучения на базе распределённой вычислительной инфраструктуры Akamai. Компания Akamai реализует комплексную стратегию по трансформации в распределённого облачного провайдера. В частности, в начале 2023 года Akamai запустила платформу Connected Cloud на базе Linode: это более распределённая альтернатива сервисам AWS или Azure. А в феврале 2024 года была представлена система Gecko (Generalized Edge Compute), которая позволяет использовать облачные вычисления на периферии. ![]() Источник изображения: pixabay.com В рамках сотрудничества с Neural Magic провайдер предоставит клиентам высокопроизводительную инференс-платформу. Утверждается, что софт Neural Magic даёт возможность запускать ИИ-модели на обычных серверах на базе CPU без дорогостоящих ускорителей на основе GPU. ПО позволяет ускорить выполнение ИИ-задач с помощью технологий автоматического разрежения моделей (model sparsification). Софт Neural Magic дополнит возможности Akamai по масштабированию, обеспечению безопасности и доставке приложений на периферии. Это позволит компаниям развёртывать ИИ-сервисы в инфраструктуре Akamai c более низкими задержками и повышенной производительностью без необходимости аренды GPU-ресурсов. Платформа Akamai и Neural Magic особенно хорошо подходит для ИИ-приложений, в которых большие объёмы входных данных генерируются близко к периферии.
23.03.2024 [22:29], Владимир Мироненко
Micron уже продала всю HBM3E-память, которую выпустит в 2024 году и распределила заказы на 2025 годКомпания Micron Technology, приступившая в феврале к массовому производству передовой памяти HBM3E, сообщила, что уже имеет на руках контракты на весь объём поставок до конца 2024 года, а также на большую часть поставок в 2025 году. Память Micron HBM3E (Micron называет её HBM3 Gen2) одной из первых получила сертификацию для использования в ускорителях NVIDIA (G)H200, так что, по всей видимости, Micron станет ключевым поставщиком для NVIDIA, пишет AnandTech. «Наша HBM распродана на 2024 календарный год и подавляющая часть наших поставок на 2025 год уже распределена, — сообщил глава Micron Санджей Мехротра (Sanjay Mehrotra) в комментариях к отчёту за II квартал 2024 финансового года. Первый продукт HBM3E от Micron представляет собой сборку 8-Hi ёмкостью 24 Гбайт с 1024-бит интерфейсом и общей пропускной способностью 1,2 Тбайт/с. NVIDIA H200 использует шесть таких модулей. Micron также начала поставки образцов сборок 12-Hi ёмкостью 36 Гбайт. ![]() Источник изображения: Micron В отчёте за II квартал 2024 финансового года Micron похвасталась результатами, которые оказались значительно выше прогнозов. Напомним, что до этого у компании были убытки пять кварталов подряд. В отчётном квартале Micron получила выручку в размере $5,82 млрд, превысив на 58 % на результат II квартала 2023 финансового года, равный $3,69 млрд, и на 23 % — результат предыдущего квартала, равный $4,73 млрд. При этом доля в общей выручке продаж DRAM составила 71 %, NAND — 27 %. Поставки подразделения сетевых и вычислительных решений (Compute and Networking, CNBU) выросли год к году на 59 % до $2,2 млрд, мобильного подразделения (Mobile, MBU) — на 69 % до $1,6 млрд, у подразделения встраиваемых решений (Embedded, EBU) зафиксирован рост на 28 % до $1,11 млрд, у подразделения решений для СХД — рост на 79 % до $905 млн. Компания сообщила о прибыли в размере $793 млн или $0,71 на акцию, в то время как годом ранее у неё были убытки (GAAP) в $2,31 млрд или $2,12 на акцию. Скорректированная прибыль (non-GAAP) составила $0,42 на акцию по сравнению с убытком в $1,91 на акцию годом ранее. Согласно прогнозу аналитиков, опрошенных FactSet, у Micron должны были быть убытки (non-GAAP) в размере $0,25 на акцию при выручке в $5,35 млрд. В текущем квартале Micron ожидает получить скорректированную прибыль (non-GAAP) в размере $0,42 на акцию при выручке в $6,6 млрд. Аналитики Уолл-стрит прогнозируют в III финансовом квартале прибыль (non-GAAP) в размере $0,09 на акцию при выручке в $6 млрд.
23.03.2024 [20:11], Сергей Карасёв
CoreWeave намерена привлечь новые инвестиции при оценке в $16 млрдКомпания CoreWeave, специализирующаяся на облачных услугах для решения ИИ-задач, ведет переговоры о привлечении новых инвестиций. Об этом сообщает Bloomberg, ссылаясь на информацию, полученную от осведомлённых лиц, которые пожелали остаться неизвестными. Говорится, что CoreWeave рассматривает возможность продажи как новых, так и имеющихся акций, а некоторые держатели ценных бумаг компании могут предложить часть своих активов. Условия программы ещё не согласованы и могут измениться. ![]() Источник изображения: CoreWeave В апреле 2023-го CoreWeave получила $221 млн в ходе раунда финансирования Series B, а позднее привлекла ещё $200 млн. В августе 2023-го компания объявила о долговом финансировании в размере $2,3 млрд под залог ускорителей NVIDIA. В декабре прошлого года CoreWeave провела очердной раунд финансирования — на $642 млн. Средства предоставили Fidelity Management & Research Company, Investment Management Corporation of Ontario (IMCO), Jane Street, J. P. Morgan Asset Management, Nat Friedman & Daniel Gross, Goanna Capital, Zoom Ventures и др. Говорится, что в 2023 году рыночная стоимость CoreWeave оценивалась в $7 млрд. В случае привлечения новых инвестиций капитализация компании, как отмечает Bloomberg, может достичь $16 млрд. Соучредитель и генеральный директор CoreWeave Майкл Интратор (Michael Intrator) отмечает, что это поможет компании перейти «в следующую фазу стремительного роста». В середине марта 2024 года CoreWeave назначила нового финансового директора: им стал Нитин Агравал (Nitin Agrawal), который ранее занимал должность вице-президента по финансам облачной платформы Google Cloud. На фоне подготовки к дальнейшему росту CoreWeave сообщила о нескольких других изменениях в составе своего высшего руководства. В частности, соучредитель Браннин Макби (Brannin McBee) теперь исполняет обязанности директора по развитию, а соучредитель Брайан Вентуро (Brian Venturo) назначен директором по стратегии. Питер Саланки (Peter Salanki), занимавший пост вице-президента по инжинирингу, переведён на должность технического директора. Говорится также, что в 2023 году CoreWeave увеличила количество своих дата-центров с 3 до 14, тогда как численность персонала выросла в четыре раза.
23.03.2024 [16:02], Сергей Карасёв
Supermicro представила ИИ-системы SuperCluster с ускорителями NVIDIA H100/H200 и суперчипами GH200Компания Supermicro анонсировала вычислительные кластеры SuperCluster с ускорителями NVIDIA, предназначенные для обработки наиболее ресурсоёмких приложений ИИ и обучения больших языковых моделей (LLM). Дебютировали системы, оснащённые жидкостным и воздушным охлаждением. В частности, представлен комплекс SuperCluster в составе пяти стоек на основе 4U-узлов СЖО. Каждый из узлов может нести на борту два процессора Intel Xeon Sapphire Rapids / Xeon Emerald Rapids или два чипа AMD EPYC 9004 (Genoa), дополненные памятью DDR5-5600. Доступны восемь фронтальных отсеков для SFF-накопителей NVMe и два слота M.2 NVMe. Каждый из узлов рассчитан на установку восьми ускорителей NVIDIA H100 или H200. Таким образом, в общей сложности SuperCluster с 32 узлами насчитывает до 256 ускорителей. Говорится о применении интерконнекта NVIDIA Quantum-2 InfiniBand, а также Ethernet-технологии NVIDIA Spectrum-X. Используется платформа для работы с ИИ-приложениями NVIDIA AI Enterprise 5.0, которая теперь включает микросервисы на базе загружаемых контейнеров. ![]() Источник изображений: Supermicro Ещё одна система SuperCluster предусматривает конфигурацию из девяти стоек с узлами в форм-факторе 8U с воздушным охлаждением. У таких узлов во фронтальной части находятся 12 отсеков для SFF-накопителей NVMe и три отсека для SFF-устройств с интерфейсом SATA. В остальном характеристики аналогичны решениям типоразмера 4U. Общее количество узлов в системе равно 32. ![]() Кроме того, вышел комплекс SuperCluster с девятью стойками на основе узлов 1U с воздушным охлаждением. Эти узлы комплектуются суперчипом NVIDIA GH200 Grace Hopper. Есть восемь посадочных мест для накопителей E1.S NVMe и два коннектора M.2 NVMe. В кластере объединены 256 узлов. Отмечается, что данная система оптимизирована для задач инференса в облачном масштабе.
23.03.2024 [15:53], Сергей Карасёв
VK купила YClients почти за 4 млрд руб.Интернет-холдинг VK завершил сделку по приобретению YClients — крупнейшей российской платформы онлайн-записи и автоматизации бизнеса в сфере услуг. В начале 2024 года VK выплатил 1,2 млрд руб. в качестве отложенного вознаграждения за покупку сервиса, тогда как общая стоимость актива составила 3,9 млрд руб. В обнародованном финансовом отчёте VK говорится, что соглашение о покупке 100% долей в группе компаний YClients было заключено в декабре 2023-го. Эта SaaS-платформа предназначена для онлайн-записи, автоматизации работы с клиентской базой и уведомлениями. Кроме того, она предоставляет функции аналитики, финансового и складского учёта, позволяет вести программу лояльности и осуществлять другие бизнес-процессы. ![]() Источник изображения: YClients YClients разрабатывает различные облачные продукты, такие как «Арника», «Дента», SQNS и др. Их пользователями являются около 45 тыс. представителей малого и среднего бизнеса, а ежемесячно компания обрабатывает более 18 млн записей. VK планирует осуществить «бесшовную интеграцию» сервисов Yclients в свои платформы. В частности, на сегодняшний день «Календарь Mail.ru» интегрировался с платформой автоматизации YClients, добавив возможность автоматического создания события через онлайн-запись или приложение YPlaces. Благодаря этому пользователи могут добавить напоминание о предстоящем мероприятии в свой «Календарь Mail.ru» с помощью одной кнопки. В YClients доступна интеграция с IP-телефонией: Telefon-IP, Hotlead, Mango Office. Благодаря этому ускоряется обработка звонков. Можно контролировать поток входящих вызовов и сохранять записи разговоров, чтобы анализировать их и оперативно реагировать на нестандартные ситуации. Кроме того, поддерживается интеграция с кассовым оборудованием. YClients даёт возможность следить за всеми скидками, бонусами, сертификатами и абонементами в фоновом режиме. В целом, с помощью YClients клиент может встроить форму для записи на собственный сайт и 15 популярных партнёрских площадок, где пользователи ищут те или иные услуги. |
|