Материалы по тегу: ии
22.08.2024 [09:23], Руслан Авдеев
ЦОД в Вирджинии потребляют огромные объёмы питьевой воды, а развитие ИИ только усугубляет ситуациюОзабоченность экоактивистов вероятным воздействием ЦОД на природу штата Вирджиния (США) стала ещё серьёзнее. Financial Times сообщает, что потребление воды дата-центрами выросло почти на ⅔ в сравнении с 2019 годом, а рост спроса на ИИ только ухудшает положение. Северная Вирджиния давно считается мировой столицей ЦОД, там работает порядка 300 соответствующих объектов. По данным Financial Times, за последние пять лет потребление воды в некоторых округах выросло почти на ⅔ — соответствующие данные были собраны энтузиастами благодаря законам о свободе информации, передаёт The Register. Около 7 млн м3 воды было использовано в 2023 году, тогда как в 2019 году — около 4,3 млн м3. В ЦОД вода используется в основном для охлаждения. В обозримом будущем ожидается рост расхода воды, связанный с ИИ, поскольку соответствующее оборудование потребляет всё больше энергии и работает безостановочно. Так, на одну беседу с ChatGPT уходит примерно поллитра воды. При этом некоторые ЦОД находятся в регионах с дефицитом питьевой воды — даже части Вирджинии страдают от засух. Более того, во время засух и жаркой погоды дата-центрам требуется больше воды, чем обычно. Хотя именно в Вирджинии, согласно данным Northern Virginia Technology Council, с 2015 по 2023 гг. ёмкость объектов увеличилась в пять раз. Экоактивисты, политики и просто неравнодушные граждане, обеспокоенные тем, что ЦОД занимают всё больше земли и тратят всё больше энергии и воды, сформировали НКО Virginia Data Center Reform Coalition в попытке остановить бесконтрольный рост дата-центров в штате. Так, в одном из отчётов заявляется, что ЦОД, обслуживаемые коммунальными службами только в округе Лаудон (Loudoun) Северной Вирджинии, увеличили использование питьевой воды более чем на 250 % с 2019 по 2023 гг. Впрочем, представитель компании Aquatech заявил, что большинство ЦОД в округе используют переработанные сточные воды, которые иначе просто слили бы в Чесапикский залив, а многие новые ЦОД вообще не забирают воду для охлаждения. Крупнейшие операторы вроде AWS берут на себя обязательства по снижению потребления воды, компания ещё в 2022 году анонсировала намерение стать «водно-положительной» к 2030 году. Впрочем, в Microsoft, наоборот, признали, что в прошлом году потребление воды на её объектах выросло на треть — виной тому именно развитие генеративных ИИ-систем. Дефицит водных ресурсов наблюдается и в других регионах. Так, британская Thames Water пригрозила урезать подачу воды дата-центрам или взвинтить цены.
22.08.2024 [00:13], Руслан Авдеев
Alibaba и Tencent отметили стабилизацию спроса на облачные CPU и рост спроса на ИИ-ускорителиСпрос на CPU-мощности в ключевых китайских облаках Alibaba Cloud и Tencent Cloud выровнялся и теперь клиентов больше интересуют ИИ-ускорители, сообщает The Register. Рост спроса на предложения, связанные с ИИ, зарегистрировала и Lenovo. На прошлой неделе Alibaba и Tencent опубликовали квартальную отчётность, выручка Alibaba Cloud выросла год к году на 6 % до $3,7 млрд. Tencent не раскрывает показатели гиперскейл-сегмента, но отмечает рост спроса на облачные сервисы, благодаря чему квартальные показатели подразделения Business Services выросли год к году на «десятки процентов». Представитель Tencent объявил инвесторам, что бизнес по аренде ИИ-ускорителей переживает настоящий бум. Впрочем, абсолютные показатели достаточно скромные в сравнении с американским рынком, поскольку у КНР меньше хорошо финансируемых ИИ-стартапов. По некоторым данным, местные стартапы часто располагают $1–$2 млрд, тогда как в США объём инвестиций может достигать и $10–$90 млрд. Tencent в любом случае не теряет клиентов даже на фоне замещения CPU на GPU. В Alibaba сообщают, что спрос на ИИ-продукты и связанные технологии очень большой, причём он всё ещё далёк от удовлетворения. Для Alibaba Cloud во II половине 2024 года прогнозируется двузначный рост в процентах и большая часть выручки придётся на ИИ-продукты. При этом в Alibaba констатируют, что спрос на традиционные вычисления в облаке на базе классических процессоров ограничен, большая часть роста связана именно с ИИ-продуктами на основе ускорителей. В Lenovo тоже сообщили, что в подразделении Infrastructure Solutions Group (ISG) зарегистрирован рекордный рост выручки до $3,2 млрд — это на 65 % выше год к году, частично благодаря спросу на ИИ-решения, причём и на базе обычных серверов, и на базе систем с ИИ-ускорителями. Инвесторам объявили, что оживлённые вложения в ИИ-инфраструктуру и улучшение поставок ускорителей помогут компании вырасти. Пока же ISG отчиталась о квартальных убытках в объёме $37 млн. Впрочем, это лучше, чем $60,4 млн убытков в аналогичном квартале прошлого года и $97 млн в прошлом квартале. В ходе отчёта экспертов заинтересовало, почему рост выручки на 65 % не привёл к прибыльности соответствующего бизнеса. В самой компании обещают дальнейшую оптимизацию бизнеса в соответствии с требованиями эры гибридных и ИИ-вычислений. Другими словами, не исключены увольнения и/или сокращение продуктовых линеек.
21.08.2024 [12:15], Елена Копытова
«Базис» расширил возможности DevOps-конвейера разработки Basis Digital EnergyКомпания «Базис», российский разработчик решений для организации динамической инфраструктуры, виртуальных рабочих мест и оказания облачных услуг, выпустила новую версию 1.3.0 своего DevOps-конвейера для организации полного цикла разработки, тестирования и сопровождения информационной системы Basis Digital Energy, одного из ключевых продуктов в экосистеме компании. В новом релизе были добавлены более 30 новых функций, расширяющих возможности Digital Energy, в том числе обеспечивающих работу в закрытом контуре организации, проверку кластера на соответствие стандартам CIS Benchmark и расширенную совместимость с Basis Dynamix, платформой для управления виртуальными средами. Переносите старые кластеры и создавайте новыеОдним из ключевых новшеств версии 1.3.0 стала возможность создания кластера типа Digital Energy. Теперь администратор может инициировать создание виртуальной машины в Basis Dynamix — другом флагманском решении экосистемы «Базис» — с последующей передачей управления в Digital Energy. Вместе с этим появилась возможность добавлять и удалять управляющие и рабочие узлы кластера Digital Energy, а также проверять их на соответствие стандартам безопасности CIS Benchmark. В качестве операционной системы узла кластера могут использоваться ОС «Альт» и Ubuntu. Если в организации уже существуют кластеры от какого-либо поставщика, их можно добавить в Basis Digital Energy через конфигурационный файл Kubernetes. После этого можно будет управлять приложениями внутри кластера через веб-интерфейс Basis Digital Energy. Для улучшения качества работы с кластерами были добавлены функция формирования журнала заданий, позволяющая видеть историю и результаты выполнения всех заданий внутри созданного кластера, и функция автомасштабирования (в бета-версии). Последняя в случае исчерпания ресурсов узла распределяет копии ресурсоемкого приложения по другим узлам внутри кластера, а при необходимости может заказывать новые виртуальные машины (ВМ) в Basis Dynamix, подключать их к уже существующему кластеру и распределять копии приложения по этим ВМ. Все это обеспечивает запущенному приложению нужные ресурсы для вычислений и одновременно позволяет избежать сбоев в его работе. Работайте с локальным кластером в закрытом контуреДругим ключевым новшеством Basis Digital Energy 1.3.0 стала поддержка локальных (непубличных) репозиториев чартов, пакетов, образов приложений и контейнеров. Возможность развернуть кластер в закрытом контуре важна в первую очередь для организаций с высокими требованиями к защите информационных систем, например, для субъектов КИИ. Невозможность получить из интернета удаленный доступ к кластерам существенно уменьшает поверхность атаки на IT-системы организации, т.е. увеличивает ее защищенность. Назначайте пользователям ролиДополнительную защиту от информационных угроз обеспечат новая ролевая модель пользователей и средства разграничения доступа. В Basis Digital Energy 1.3.0 стало возможно настраивать политики с ограничением действий различных пользователей внутри продукта. Более того, благодаря гибкости ролевой модели, для каждого пользователя может создаваться своя политика. Также в новой версии Digital Energy появились два инструмента авторизации, интегрированные в Basis Dynamix — через decs3o и Basis Virtual Security; выбор зависит от текущей конфигурации продукта. Благодаря этим инструментам сотрудник организации может практически бесшовно работать с различными продуктами в рамках экосистемы «Базис». Расширяйте возможности с помощью плагинов и приложенийВ релизе Basis Digital Energy 1.3.0 появилась поддержка наиболее популярных на рынке плагинов CNI (Container Networking Interface) — Flannel и Calico, а также двух инструментов контейнеризации — containerd и CRI-O. Подключить плагины как сетевые интерфейсы и включить в кластер средства работы с контейнерами, альтернативные Docker, можно при создании кластера типа Digital Energy. В дальнейшем список поддерживаемых плагинов и инструментов будет расширяться. Наконец, в версии 1.3.0 появилась возможность через веб-интерфейс буквально парой кликов установить ряд популярных приложений, в числе которых Longhorn, Jenkins, GitLab, Vault, Redmine и множество других. Ранее установка этих (и любых других) приложений была возможна только через командную строку, а при таком подходе описание конфигураций для приложений отнимало много сил и времени. «В нашей экосистеме Digital Energy является одним из самых быстроразвивающихся продуктов, поэтому в каждом релизе количество новых возможностей измеряется десятками. Версия 1.3.0 принесла нашим заказчикам инструменты для работы с кластерами, в том числе кластерами типа Digital Energy, обновленную ролевую модель пользователей, поддержку работы в закрытом контуре и другие преимущества. Мы поставили перед собой задачу сделать из Digital Energy лучший продукт на рынке и вполне осознаем, что это долгий и непростой путь, но уверены, что движемся в правильном направлении. Об этом говорят результаты независимых тестов: недавно наше решение вошло в первую тройку рейтинга российских платформ Kubernetes по версии отраслевого портала CNews», — отметил Дмитрий Сорокин, технический директор «Базис». Реклама | ООО "БАЗИС" ИНН 7731316059 erid: F7NfYUJCUneLtX1CkiPD
21.08.2024 [11:23], Сергей Карасёв
Amazon купила разработчика ИИ-чипов Perceive за $80 млн для развития LLM на периферииКомпания Xperi объявила о заключении соглашения по продаже своего подразделения Perceive, которое занимается разработкой специализированных ИИ-чипов. Покупателем является Amazon, сумма сделки составляет $80 млн в виде денежных средств. Завершить поглощение планируется до конца 2024 года. Perceive со штаб-квартирой в Сан-Хосе (Калифорния, США) создаёт ИИ-решения для работы с большими языковыми моделями (LLM) на периферийных устройствах. Такое оборудование обычно обладает ограниченными возможностями в плане вычислительных ресурсов, средств подключения и хранения данных. Чипы Perceive проектируются с учетом особенностей edge-платформ. В частности, Perceive разработала процессор Ergo AI. Утверждается, что он позволяет запускать «нейронные сети ЦОД-класса» даже на устройствах с самыми жёсткими требованиями к энергопотреблению. Это могут быть системы конференц-связи и носимые гаджеты. Отмечается, что Ergo AI может поддерживать самые разные ИИ-нагрузки — от классификации и обнаружения объектов до обработки аудиосигналов и языка. Как именно Amazon намерена использовать решения Perceive, не уточняется. Но известно, что Amazon приобретает разработчика ИИ-чипов через своё подразделение Devices & Services, в которое входят голосовой помощник Alexa, интеллектуальные колонки и устройства серий Echo и Fire TV. Ожидается, что сделка не потребует одобрения со стороны регулирующих органов. После поглощения большинство из 44 сотрудников Perceive присоединятся к Amazon. Perceive, которую возглавляют со-генеральные директоры Мурали Дхаран (Murali Dharan) и Стив Тейг (Steve Teig), имеет сотрудников в США, Канаде, Ирландии, Румынии и Эстонии. Лаборатория Perceive в Бойсе (Айдахо, США) продолжит функционировать. Нужно отметить, что подразделение Amazon Web Services (AWS) уже не один год разрабатывает собственные аппаратные решения для ИИ-задач и облачных платформ. Это, в частности, чипы семейства Graviton и ИИ-ускорители Trainium. В конце 2023 года дебютировало изделие Graviton4 с 96 ядрами Arm для широкого спектра нагрузок. К выпуску готовится мощный ускоритель Trainium 3, энергопотребление которого может достигать 1000 Вт.
19.08.2024 [18:17], Владимир Мироненко
AMD купила поставщика решений для гиперскейлеров ZT Systems за $4,9 млрдAMD объявила о приобретении за $4,9 млрд компании ZT Systems, поставщика аппаратного оборудования для гиперскейлеров, базирующегося в Секокусе (штат Нью-Джерси). Согласно пресс-релизу, обширный опыт ZT Systems в проектировании и оптимизации решений для облачных вычислений поможет корпоративным клиентам AMD значительно ускорить развёртывание инфраструктур ИИ. Три четверти суммы будет оплачено деньгами, остальная часть — акциями. Сумма сделки включает условный платёж в размере до $400 млн, выплата которого увязана с выполнением определённых показателей производительности компании. Ожидается, что сделка будет завершена в I половине 2025 года. ZT Systems основана в 1994 году, на текущий момент её годовая выручка составляет порядка $10 млрд. «Объединение наших высокопроизводительных ИИ-ускорителей Instinct, процессоров EPYC и сетевых продуктов с ведущим в отрасли опытом ZT Systems в области систем для ЦОД позволит AMD предоставлять комплексную инфраструктуру ИИ в ЦОД», — заявила гендиректор AMD Лиза Су (Lisa Su). «Системы ИИ — наш стратегический приоритет номер один», — сообщила она в интервью Reuters. ZT Systems совместно с AMD разрабатывала одни из первых решений на базе первых EPYC, Instinct MI250, а теперь MI300. После закрытия сделки ZT Systems присоединится к бизнес-группе AMD Data Center Solutions. Гендиректор ZT Фрэнк Чжан (Frank Zhang) возглавит производственный бизнес, а президент ZT Дуг Хуан (Doug Huang) возглавит группы по проектированию и поддержке клиентов, оба будут подчиняться исполнительному вице-президенту и гендиректору AMD Форресту Норроду (Forrest Norrod). AMD планирует оставить около 1000 инженеров из 2500 сотрудников, работающих сейчас в ZT Systems. При этом AMD не планирует создавать системы наподобие NVIDIA DGX. Сообщается, что AMD займётся поиском стратегического партнёра для продажи бизнеса по производству инфраструктурных решений для ЦОД ZT Systems. По словам Су, у AMD нет планов конкурировать с такими компаниями как Supermicro. Как ожидается, на продажу производственного бизнеса ZT Systems уйдёт ещё 12–18 месяцев после закрытия сделки. В октябре прошлого года ZT Systems объявила о приобретении производственной площадки в Техасе и намерении трудоустроить 1500 человек. Вероятно, именно эта площадка с персоналом и будет продана третьему лицу. Также у компании есть производственные мощности в родном Секокусе и в Алмело (Нидерланды). ZT Systems тесно сотрудничает с крупными IT-производителями, включая NVIDIA и Intel. ZT Systems не раскрывает имена всех своих клиентов, но, похоже, в последние годы её авторитет значительно укрепился благодаря предоставлению специализированной поддержки в некоторых из самых сложных и дорогостоящих аспектов проектирования архитектуры вычислений ИИ, отметил ресурс TechCrunch. По неофициальным данным, ZT Systems является поставщиком Amazon AWS и Microsoft Azure. Приобретение ZT Systems знаменует собой последнюю из серии инвестиций AMD, направленных на значительное усиление позиций в области ИИ. За последние 12 месяцев AMD инвестировала более $1 млрд в расширение экосистемы ИИ и укрепление возможностей ПО в этой области. Аналитик Moor Insights & Strategy Патрик Мурхед (Patrick Moorhead) высказал мнение, что новое приобретение позволит AMD занять заметную долю рынка ИИ ЦОД, объём которого в 2027 году составит $400 млрд.
19.08.2024 [12:52], Сергей Карасёв
Ola представила индийские ИИ-чипы Bodhi 1, Ojas и Sarv 1Компания Ola-Krutrim, дочернее предприятие одного из крупнейших в Индии производителей электрических двухколёсных транспортных средств Ola Electric, по сообщению Tom's Hardware, объявила о разработке первых в стране специализированных чипов для задач ИИ. Анонсированы изделия Bodhi 1, Ojas и Sarv 1. Впоследствии выйдет решение Bodhi 2. Но, судя по всему, речь всё же идёт о совместной работе с Untether AI. Чип Bodhi 1 предназначен для инференса, благодаря чему может использоваться при обработке больших языковых моделей (LLM) и визуальных приложений. По заявлениям Ola Electric, Bodhi 1 обеспечивает «лучшую в своём классе энергоэффективность», что является критически важным параметром для ресурсоёмких ИИ-систем. Чип Sarv 1, в свою очередь, ориентирован на облачные платформы и дата-центры, обрабатывающие ИИ-нагрузки. Процессор Sarv 1 базируется на наборе инструкций Arm. Изделие Ojas предназначено для работы на периферии и может быть оптимизировано под специфичные задачи — автомобильные приложения, Интернет вещей, мобильные сервисы и пр. В частности, сама Ola Electric намерена применять Ojas в своих электрических скутерах следующего поколения для повышения эффективности зарядки, улучшения функциональности систем помощи водителю (ADAS) и пр. ![]() Источник изображения: Tom's Hardware В рамках презентации Ola Electric продемонстрировала, что её ИИ-решения обеспечивают более высокие производительность и энергоэффективность, нежели ускорители NVIDIA. При этом индийская компания не уточнила, с какими именно ускорителями производилось сравнение. Ожидается, что процессоры Bodhi 1, Ojas и Sarv 1 выйдут на массовый рынок в 2026 году, тогда как Bodhi 2 появится в 2028-м. О том, где планируется изготавливать изделия, пока ничего не сообщается. Одновременно с анонсом индийских чипов производитель ИИ-ускорителей Untether AI объявил о сотрудничестве с Ola-Krutrim, в рамках которого была продемонстрирована производительность текущих решений speedAI и было объявлено о совместной разработке будущих ИИ-ускорителей для ЦОД, которые будут использованы для тюнинга и инференса ИИ-моделей Krutrim. В Индии активно развивается как ИИ-индустрия (в том числе на государственном уровне), так и рынок ЦОД. Попутно страна пытается добиться технологической независимости как от азиатских, так и от западных IT-гигантов.
19.08.2024 [10:10], Сергей Карасёв
Gigabyte представила ИИ-серверы с ускорителями NVIDIA H200 и процессорами AMD и IntelКомпания Gigabyte анонсировала HGX-серверы G593-SD1-AAX3 и G593-ZD1-AAX3, предназначенные для задач ИИ и НРС. Устройства, выполненные в форм-факторе 5U, включают до восьми ускорителей NVIDIA H200. При этом используется воздушное охлаждение. Модель G593-SD1-AAX3 рассчитана на два процессора Intel Xeon Emerald Rapids с показателем TDP до 350 Вт, а версия G593-ZD1-AAX3 располагает двумя сокетами для чипов AMD EPYC Genoa с TDP до 300 Вт. Доступны соответственно 32 и 24 слота для модулей оперативной памяти DDR5. ![]() Серверы наделены восемью фронтальными отсеками для SFF-накопителей NVMe/SATA/SAS-4, двумя сетевыми портами 10GbE на основе разъёмов RJ-45 (выведены на лицевую панель) и выделенным портом управления 1GbE (находится сзади). Есть четыре слота FHHL PCIe 5.0 x16 и восемь разъёмов LP PCIe 5.0 x16. Модель на платформе AMD дополнительно располагает двумя коннекторами М.2 для SSD с интерфейсом PCIe 3.0 x4 и x1. ![]() Питание у обоих серверов обеспечивают шесть блоков мощностью 3000 Вт с сертификатом 80 Plus Titanium. Габариты новинок составляют 447 × 219,7 × 945 мм. Диапазон рабочих температур — от +10 до +35 °C. Есть два порта USB 3.2 Gen1 и разъём D-Sub. Массовое производство серверов Gigabyte серии G593 запланировано на II половину 2024 года. Эти системы станут временной заменой (G)B200-серверов, выпуск которых задерживается.
16.08.2024 [16:56], Руслан Авдеев
Закупочная ёмкость SSD для ИИ-нагрузок превысит 45 Эбайт в 2024 годуСпрос на ИИ-системы и соответствующие серверы привёл к росту заказов на SSD корпоративного класса в последние два квартала. По данным TrendForce, производители компонентов для твердотельных накопителей налаживают производственные процессы, готовясь к массовому выпуску накопителей нового поколения, которые появятся на рынке в 2025. Увеличение заказов корпоративных SSD от пользователей ИИ-серверов привело к росту контрактных цен на эту категорию товаров на более чем 80 % с IV квартала 2023 года по III квартал 2024. При этом SSD играют ключевую роль в развитии ИИ, поскольку только они годятся для эффективной работы с моделями. Помимо собственно хранения данных модели они также нужны для создания контрольных точек во время обучения, чтобы в случае сбоев можно было быстро «откатить» модель и возобновить обучение. Благодаря высокой скорости записи и чтения, а также повышенной надёжности в сравнении с HDD, для тренировки моделей обычно выбирают TLC-накопители ёмкостью 4–8 Тбайт. Эффективность RAG и больших языковых моделей (LLM), особенно для генерации медиаконтента, зависят и от ёмкости, и от производительности накопителей, поэтому для инференса более предпочтительны TLC/QLC-накопители ёмкостью от 16 Тбайт. Со II квартала 2024 года спрос на SSD для ИИ-серверов ёмкостью больше 16 Тбайт значительно вырос. С повышением доступности ускорителей NVIDIA H100/H20/H200 клиенты начали наращивать спрос и на TLC SSD на 4 и 8 Тбайт. В агентстве считают, что закупочная ёмкость SSD для в 2024 году превысит 45 Эбайт, а в следующие несколько лет спрос на серверные SSD будет увеличиваться более чем на 60 % ежегодно. В частности, на SSD для ИИ-нагрузок потенциально уйдёт до 9 % всей NAND-памяти в 2025, тогда как в 2024 году этот показатель, как ожидается, составит 5 %.
16.08.2024 [12:24], Руслан Авдеев
Huawei Cloud рассматривает Азиатско-Тихоокеанский регион в качестве ключевого рынка для своих ИИ-продуктовОблачное подразделение Huawei Technologies рассматривает Азиатско-Тихоокеанский регион (АТР) как потенциально огромный рынок для своих ИИ-решений. Как сообщает SCMP, облачные сервисы компании в регионе за последние четыре года выросли в 20 раз несмотря на американские санкции. По словам представителя Huawei Cloud Жаклин Ши (Jacqueline Shi), следующим шагом компании в регионе станет предоставление всеобъемлющих ИИ-решений. В их числе облачный сервис Ascend Cloud, платформа для ИИ-разработки ModelArts и разработанная самой Huawei большая языковая модель (LLM) Pangu. Компания уже сотрудничает со службой прогнозов погоды в Таиланде над внедрением Pangu, также работая с другими отраслями, например — финансовой. ![]() Источник изображения: Jovan Vasiljević/unsplash.com План экспансии в АТР демонстрирует намерения компании диверсифицировать денежные поступления и привлечь больше зарубежных клиентов на фоне роста интереса к генеративным ИИ-решениям во многих отраслях. По словам Ши, регион является для компании одним из крупнейших рынков облачных вычислений, именно здесь Huawei в первую очередь запускала некоторые облачные продукты, вроде DBaaS — до того, как предложить их по всему миру. В мае 2024 года Huawei запустила первый в Египте публичный облачный сервис в Каире, одновременно запустив LLM для арабского языка. В сентябре прошлого года Huawei запустила ЦОД в столице Саудовской Аравии Эр-Рияде для обеспечения страны и других государств Ближнего Востока, Северной Африки и Центральной Азии публичными облачными сервисами. По данным Canalys, сегодня компания считается вторым по величине провайдером облачных сервисов в материковом Китае, отставая только от облачного подразделения Alibaba Group. Согласно отчётам Huawei, облачные вычисления стали одним из сильнейших векторов роста компании в 2023 году, выручка год к году выросла на 21,9 % до ¥55,29 млрд ($7,6 млрд). Облачная ИИ-платформа Ascend строится на разработанных самой компанией процессорах и фреймфорках, это позволяет преодолевать американские санкции, ограничивающие доступ КНР к полупроводникам и технологиям американского происхождения. В материковом Китае чипы семейства Huawei Ascend теперь служат альтернативой ускорителям NVIDIA, поставки которых в Китай ограничены. Это не единственные инициативы Huawei, связанные с облачными решениями. Недавно компания представила сетевой монитор, способный быстро найти даже отдельный неисправный чип в целом дата-центре, а на днях появилась информация о том, что Huawei готовит к выпуску ИИ-ускоритель Ascend 910C способный конкурировать с NVIDIA H100.
15.08.2024 [22:28], Руслан Авдеев
Supermicro впервые арендовала дата-центр за $600 млн и тут же сдала мощности в субаренду ИИ-облаку LambdaПроизводитель оборудования Supermicro в июне арендовал 21 МВт в ЦОД компании Prime Data Centers в Верноне (Калифорния). Datacenter Dynamics сообщает, что в докладе по форме K-8, поданным в Комиссию по ценным бумагам и биржам США (SEC), вендор объявил, что намерена сдать полученные площади и ёмкости стартапу Lambda Labs. В докладе Supermicro упомянула, что заключила т.н. соглашение Master Colocation Services Agreement относительно дата-центра общей ёмкостью 33 МВт. Supermicro впервые заключила подобную сделку, во всяком случае публично. При этом уже отмечалось, что компания расширяет спектр своей деятельности в сфере ЦОД. Сделка сроком 10 лет оценивается в $600 млн. Сюда входят ежемесячные платежи, счета за энергию и прочие выплаты. Эти расходы будут компенсироваться Lambda в рамках сублицензионного соглашения (помимо дополнительных ежемесячных платежей). Пока неизвестно, согласилась ли Lambda в рамках сделки покупать серверы у Supermicro. Компания помимо облака Lambda Cloud предлагает покупателям и собственные аппаратные платформы на основе оборудования Supermicro и Gigabyte, а также программный стек для ИИ-задач. Lambda намерена привлечь ещё $800 млн для экспансии на рынке дата-центров. Сегодня компания управляет ЦОД в Сан-Франциско (Калифорния) и Аллене (Техас). Стартап CoreWeave, прямой и гораздо более успешный конкурент Lambda Labs, к концу году хочет управлять уже 28 ИИ ЦОД, преимущественно в США. Но и в материковой Европе компания готова вложить $2,2 млрд в развитие своих ИИ ЦОД (и ещё £1 млрд в Великобритании). Ранее CoreWeave попыталась купить за $1 млрд своего же колокейшн-провайдера Core Scientific, но в итоге стороны подписали два 12-летних контракта по аренде мощностей. |
|