Материалы по тегу: s

06.10.2025 [14:41], Руслан Авдеев

Разработчик царь-ускорителей Cerebras Systems отозвал заявку на IPO

Cerebras Systems решила отозвать заявку о выходе на публичные торги — информация об IPO компании впервые появилась около года назад. Оператор ЦОД и разработчик ИИ-чипов сообщил, что документы об IPO ещё не были одобрены регуляторами, сообщает Bloomberg.

Всего несколько дней назад компания закрыла раунд финансирования G на $1,1 млрд, что подняло её стоимость до $8,1 млрд. На тот момент руководство заявляло, что привлечённые средства никак не скажутся на планах выхода на публичные торги. Сообщалось, что они будет потрачены на расширение технологического портфолио, включая разработку ИИ-ускорителей, упаковку, создание ИИ-суперкомпьютеров и др.

Раунд финансирования Cerebras стал последним в череде инвестиций в технологическую индустрию, которая тратит миллиарды на новую ИИ-инфраструктуру, призванную преобразить мировую экономику. В последние недели на рынке IPO в США наблюдается оживление. В частности, успешно дебютировали технологические компании Netskope и Figure Technology Solutions, акции которых выросли более чем на 20 % от цены размещения.

 Источник изображения: Cerebras

Источник изображения: Cerebras

Cerebras подала заявку о выходе на IPO в сентябре 2024 года, но выход на биржу так и не состоялся. Это связывается с позицией американских регуляторов, занявшихся расследованием инвестиций G42 из Абу-Даби на $335 млн. 87 % выручки Cerebras за первые шесть месяцев 2024 года поступили от G42, а строящиеся в США дата-центры предназначены для использования именно компанией из ОАЭ, имеющей связи с Китаем. Впрочем, в марте Cerebras объявила, что разрешила все спорные вопросы с регулятором CFIUS.

Последний раунд финансирования возглавили Fidelity Management & Research и Atreides Management. В числе инвесторов — Tiger Global, Valor Equity Partners и венчурный капиталист 1789 Capital, также приняли участие и прежние инвесторы, включая Altimeter Capital Management and Benchmark.

На днях Cerebras запустила новый ЦОД в Оклахома-Сити (Oklahoma City, Оклахома) при сотрудничестве со Scale Datacenters. Также компания имеет действующие кластеры для инференса в Санта-Кларе (Santa Clara) и Стоктоне (Stockton) в Калифорнии (последний в плавучем ЦОД Nautilus), а также в Далласе (Dallas, Техса). Также компания создаёт кластеры в Миннеаполисе (Миннесота), Монреале (Канада) на объекте Bit Digital, а также в некоторых локациях на Среднем Западе США и в Европе. Компания внедрила оборудование в Эдинбургском университете (University of Edinburgh), Сандийскийх национальных лабораториях (Sandia National Labs), в лабораториях Лос-Аламоса (Los Alamos Labs), на мощностях G42/Core42 и др.

Постоянный URL: http://servernews.ru/1130345
06.10.2025 [11:25], Руслан Авдеев

20 тыс. км и 260 Тбит/с: подводный кабель Bifrost между США и Сингапуром, созданный при участии Meta✴ и AWS, готов к эксплуатации

Компания Keppel объявила о завершении строительства 260-Тбит/с подводного интернет-кабеля Bifrost протяжённостью более 20 тыс. км, соединяющим США и Сингапур. Передача коммерческого трафика должна начаться в ближайшие недели. Кабельная система проходит через Яванское море и море Сулавеси. Ответвления тянутся до Гуама, Мексики и Филиппин. Круговая задержка (RTT) составляет 165 мс, что на 10 мс меньше, чем у существующих в регионе маршрутов, говорит Keppel.

По словам Keppel, ВОЛС улучшит цифровую связь Юго-Восточной Азии и США, поддержит стремительно растущую цифровую экономику региона и укрепит позиции Сингапура как ведущего цифрового хаба в Азии. Посадочные станции предусмотрены в Гровер-Бич (Grover Beach, Калифорния), Алупанге (Alupang, Гуам), Туасе (Tuas, Сингапур), Винеме (Winema, Орегон), Росарито (Rosarito, Мексика), Давао (Davao, Филиппины), Манадо и Джакарте (Manado и Jakarta, Индонезия).

Кабель разработан при сотрудничестве Keppel, AWS, Meta и Telekom Indonesia. Проект был анонсирован в 2021 году, изначально его планировали ввести в эксплуатацию ещё во II квартале 2024 года. В распоряжение Keppel поступит 5 из 12 пар волокон в Bifrost, они совместно принадлежат как самой компании, так и её инвесторам, с соотношением долей 40/60.

 Источник изображения: Converge Digest

Источник изображения: Converge Digest

По данным Converge Digest!, Филиппины находятся в выгодном положении в центре региона, поэтому кабельная система Bifrost должна удовлетворить рестущие потребности в подключениях к Сети в Азиатско-Тихоокеанском регионе и обеспечить прямую связь с США. Это не только увеличит пропускную способность сетей компании, но и позволит диверсифицировать сетевую инфраструктуру Филиппин.

 Источник изображения: Submarine Cable Map

Источник изображения: Submarine Cable Map

Прокладкой кабеля занималась Alcatel Submarine Networks (ASN). В компании выразили удовлетворение и гордость тем, что Keppel и её партнёры выбрали именно французский бизнес в качестве исполнителя. ASN отвечает и за прокладку транстихоокеанского кабеля E2A между Японией, Южной Кореей, Тайванем и США. Ранее Meta анонсировала создание кабеля ORCA между США и Тайванем. А сейча она работает над созданием самого протяжённого в мире подводного интернет-кабеля Project Waterworth длиной 50 тыс. км, который объединит пять континентов.

Постоянный URL: http://servernews.ru/1130326
06.10.2025 [10:54], Владимир Мироненко

250 Тбит/с на чип: Ayar Labs, Alchip и TSMC предложили референс-дизайн для упаковки ASIC, памяти и оптических модулей в одном чипе

Компания Ayar Labs (США), занимающаяся разработкой интерконнекта на базе кремниевой фотоники, и тайваньский производитель ASIC-решений Alchip Technologies представили референсную платформу проектирования ИИ ASIC с несколькими оптическими IO-модулями на основе технологии кремниевой фотоники TSMC COUPE (Compact Universal Photonic Engine).

В начале сентября компании объявили о стратегическом партнёрстве с целью ускорения масштабирования ИИ-инфраструктуры благодаря объединению технологии CPO компании Ayar Labs, экспертизы Alchip в области создания и упаковки кастомных ASIC, а также технологии упаковки и техпроцесса компании TSMC. Как сообщил технический директор Ayar Labs Владимир Стоянович (Vladimir Stojanovic) в интервью EE Times, платформа предназначена для устранения узких мест в передаче данных, замедляющих работу ИИ-инфраструктуры, путём эффективного сокращения времени простоя системы и создания крупных высокопроизводительных ИИ-кластеров нового поколения.

Партнёры отметили, что по мере роста ИИ-моделей и размеров кластеров традиционные медные соединения достигают своих физических и энергетических пределов. Путём замены меди на интегрированную оптику (CPO) решение Alchip и Ayar Labs обеспечивает расширенную дальность связи, низкую задержку, энергоэффективность и высокий радикс, необходимые для масштабных развертываний ИИ-ускорителей. «Масштабируемые сети ИИ-кластеров ограничены расстоянием медных соединений. В то же время энергоэффективность сети ограничена плотностью мощности и возможностями систем охлаждения», — пояснил Эрез Шайзаф (Erez Shaizaf), технический директор Alchip, добавив, что CPO снимает эти ограничения.

 Источник изображений: Ayar Labs

Источник изображений: Ayar Labs

Новое совместное решение включает оптические модули Ayar Labs TeraPHY, размещённые вместе с решениями Alchip на общей подложке, обеспечивая прямой доступ ИИ-ускорителя к оптическому интерфейсу. Такая интеграция обеспечивает пропускную способность 100+ Тбит/с на каждый ускоритель и поддерживает более 256 оптических портов на устройство. TeraPHY не привязан к какому-либо протоколу и обеспечивает гибкую интеграцию с кастомными чиплетами. Референсный дизайн позволяет партнёрам «заложить основу» для быстрого создания подобной системы.

Платформа референсного проекта включает два вычислительных кристалла с чиплетами HBM и другими чиплетами, в сочетании с восемью оптическими IO-модулями на базе чиплета TeraPHY. Такая конструкция обеспечит двустороннюю пропускную способность 200–250 Тбит/с для каждой сборки (SiP), что значительно превышает показатели современных крупных GPU, сообщил Стоянович. Это позволит масштабировать систему, а также значительно расширить объём памяти, имеющей пропускную способность, сопоставимую с HBM, добавил он.

Оптический модуль Ayar Labs основан на чиплете TeraPHY PIC с двумя дополнительными слоями чиплетов, собранными с помощью TSMC COUPE. Два слоя электронных чиплетов собраны по технологии TSMC SoIC (System on Integrated Chips), которая использует вертикальное размещение нескольких кристаллов друг над другом, чтобы обеспечить более плотное соединение между ними, позволяя снизить энергопотребление, увеличить производительность и уменьшить задержки. По словам Стояновича, такой дизайн будет масштабироваться до уровня UCIe-A и выше как минимум в течение следующего десятилетия.

Совместное решение Alchip и Ayar Labs позволяет масштабировать многостоечную сетевую фабрику без потерь мощности и задержек, характерных для подключаемых оптических кабелей, за счёт минимизации длины электрических трасс и размещения оптических соединений вблизи вычислительного ядра. Благодаря поддержке UCIe для межкомпонентных соединений и гибкому размещению конечных точек на границе чипов, команды разработчиков могут интегрировать масштабируемое решение Alchip и Ayar Labs с существующими вычислительными блоками, стеками памяти и ускорителями, обеспечивая при этом соблюдение требований к производительности, целостности сигнала и температурному режиму на уровне всей сборки.

Как сообщается, компании предоставят командам разработчиков дополнительные материалы, референсные архитектуры и варианты сборки. Платформа референсного дизайна включает в себя тестовые программы, позволяющие тестировать сборку и прошивку управления модулем, что облегчает его интеграцию в сборку. «Заказчику нужна поддержка, чтобы он понимал процессы оценки надёжности и испытаний, поэтому мы тесно сотрудничаем с Alchip, чтобы предоставить заказчику доступ ко всему этому пакету», — рассказал Стоянович.

Постоянный URL: http://servernews.ru/1130323
06.10.2025 [09:19], Сергей Карасёв

Corning и GlobalFoundries создадут оптические коннекторы для кремниевой фотоники

Американский контрактный производитель полупроводниковых изделий GlobalFoundries и компания Corning, специализирующаяся на производстве стёкол, керамики и т.п., объявили о сотрудничестве. Совместными усилиями партнёры разработают разъёмные волоконно-оптические коннекторы для кремниевой фотоники.

Речь идёт о решении GlassBridge для платформы GF Fotonix. Коннектор на основе стеклянного волновода совместим с V-образными канавками GF Fotonix. Система предназначена для удовлетворения растущих потребностей ИИ ЦОД в высокой пропускной способности каналов связи. Разрабатываются также другие механизмы соединения, включая вертикальное разъёмное решение типа Fibre-to-PIC (Photonic Integrated Circuit).

Сотрудничество предусматривает использование передовых разработок Corning в области материалов, оптического волокна и средств связи. Это, в частности, стёкла специального состава, стеклянные подложки и методы лазерной обработки. Кроме того, будут применяться оптоволоконные массивы (Fibre Array Unit — FAU) с волокнами со сверхточным выравниванием сердцевины, благодаря которому минимизируются потери.

 Источник изображения: Corning

Источник изображения: Corning

В перспективе разъёмы нового типа помогут повысить удобство развёртывания и эксплуатации высокоскоростного интерконнекта на основе кремниевой фотоники в дата-центрах, ориентированных на ресурсоёмкие приложения ИИ и НРС. Не так давно GlobalFoundries объявила о том, что её платформа кремниевой фотоники выделена в отдельное продуктовое семейство. При этом компания увеличила объём инвестиции в соответствующей сфере в два раза.

Постоянный URL: http://servernews.ru/1130317
02.10.2025 [21:02], Владимир Мироненко

Microsoft потратит $33 млрд на доступ к 100+ тыс. NVIDIA GB300 в неооблаках, но со временем хочет перейти на свои ИИ-ускорители

В Сети появились новые подробности о сделке стоимостью до $19,4 млрд, заключённой Microsoft с Nebius Group NV в начале сентября. Как сообщает Bloomberg со ссылкой на информированные источники, Microsoft получит пятилетний доступ к выделенной инфраструктуре на базе более чем 100 тыс. суперускорителей NVIDIA GB300. Ранее сообщалось, что речь идёт о мощностях нового ЦОД Nebius в Вайнленде (Нью-Джерси, США).

Как пишет Forbes, Nebius отличается от многих облачных провайдеров тем, что фокусируется только на рабочих нагрузках ИИ и МО, что позволяет лучше оптимизировать архитектуру ЦОД в отличие от гиперскейлеров, которые занимаются решением множества задач. Кроме того, Nebius отличается от других неооблаков, таких как CoreWeave, тем, что предоставляет инструменты и сервисы для разработчиков, которые позволяют совершенствовать ИИ-модели, выполнять инференс и разрабатывать кастомные решения, а не просто фокусируется на «чистой» вычислительной мощности. При этом Nebius начала наращивать вычислительные мощности ещё до того, как возник спрос на эти ресурсы, отметил Forbes.

Подобные контракты Microsoft заключила с ещё несколькими неооблаками (neocloud), включая CoreWeave, Nscale и Lambda, на общую сумму в $33 млрд, и они обеспечивают её большую выгоду. Вместо того, чтобы тратить огромные ресурсы на строительство собственных ЦОД, Microsoft обращается к проверенному поставщику ИИ-инфраструктуры, благодаря чему может быстрее совершенствовать свою ИИ-инфраструктуру с меньшими первоначальными затратами, используя высвободившиеся мощности для предоставления клиентам прибыльных услуг на базе ИИ. Вдобавок такой подход позволяет Microsoft быстрее менять стратегию, чем при использовании собственных дата-центров. В начале бума ИИ Microsoft арендовала мощности даже у Oracle, своего прямого конкурента, для поддержки ИИ-функций в поиске Bing.

 Источник изображения: Nebius/Bloomberg

Источник изображения: Nebius/Bloomberg

Эти сделки также устраняют для Microsoft значительную часть финансовых рисков, связанных со строительством собственных ЦОД. Она не только сразу получает необходимые мощности для своих ИИ-сервисов, вместо того чтобы тратить годы на строительство ЦОД, но и перекладывает на других вопросы строительства, финансирования и управление этими ЦОД, что даёт компании большую финансовую гибкость. Так, Microsoft может отнести некоторые затраты к операционным, а не капитальным, что, по словам аналитика Bernstein Марка Мёрдлера (Mark Moerdler), даёт потенциальные преимущества для денежного потока, налогообложения и способа представления прибыли в финотчётах.

Компания использует серверы неооблаков не только для обучения ИИ-моделей, но и для сложного инференса. Сделки с неооблаками становятся популярными и у конкурентов Microsoft, хотя им далеко до её масштабов. В мае 2025 года OpenAI расширила с конкурирующей с Nebius компанией CoreWeave контракт стоимостью $11,9 млрд на $4 млрд, после чего заключила ещё одно соглашение на $6,5 млрд, увеличив общую сумму соглашений до $22,4 млрд. Ещё один технологический гигант Meta подписал сделку с CoreWeave на сумму в $14,2 млрд, обеспечив себе доступ к её облачным ИИ-сервисов на период до 2031 года.

Вместе с тем в долгосрочной перспективе Microsoft намерена переключиться на ИИ-ускорители собственной разработки, которые обеспечивают лучший показатель TCO, передаёт CNBC. Два года назад компания представила первые ИИ-чипы Maia 100. Следующее поколение этих чипов, как ожидается, появится в 2026 году. При этом компания сосредоточится не на чипах в отдельности, а будет использовать более системный подход, учитывающий вопросы охлаждения, интерконнекта и т.д. Пока что, признаёт Microsoft, в течение многих лет решения NVIDIA обеспечивали лучшее соотношение цены к производительности.

Постоянный URL: http://servernews.ru/1130220
02.10.2025 [13:10], Руслан Авдеев

Meta✴ приобрела Rivos, разработчика RISC-V-ускорителей, совместимых с CUDA

Meta Platforms приобрела занимающийся разработкой ИИ-чипов на базе RISC-V стартап Rivos. Это должно ускорить разработку собственных полупроводников и снизить зависимость от сторонних поставщиков, сообщает Silicon Angle. Условия покупки пока неизвестны, но ключевой инвестор стартапа, Walden Catalyst, с гордостью сообщил о сделке, а нынешний генеральный директор Intel Лип-Бу Тан (Lip-Bu Tan), имевший прямое отношение к созданию и развитию стартапа, поздравил команду.

Стартап был основан в 2021 году, а в 2023-м к нему присоединились около полусотни бывших инженеров Apple. Meta будет использовать опыт Rivos для расширения работ над семейством собственных ИИ-ускорителей Meta Training and Inference Accelerator (MTIA). Впрочем, Rivos использовала комплексный подход, разрабатывая CPU и GPUGPU-чипы с кеш-когерентностью и унифицированным доступом к памяти (DDR и HBM), дополненные интегрированным 800G-интерконнектом на базе Ultra Ethernet. Это похоже на подход NVIDIA при создании суперускорителей.

В 2025 году Rivos выпустила на TSMC тестовый чип, работающий на частоте 3,1 ГГц и программный стек, совместимый с NVIDIA CUDA. Изначальная стратегия предполагала создание энергоэффективного ИИ-ускорителя с частотой до 3,5 ГГц, совместимого с существующей экосистемой, который планировалось продавать гиперскейлерам (хотя бы одному). Первую коммерческую платформу компания собиралась выпустить в следующем году, она позволила бы перекомпилировать, а не переписывать с нуля приложения, созданные для платформ NVIDIA. Компания также принимала участие в создании RISC-V RVA23 Profile.

 Источник изображения: Rivos

Источник изображения: Rivos

Хотя Meta не раскрыла стоимость сделки, вероятно, речь идёт о миллиардных тратах. В августе сообщалось, что стартап вёл переговоры с инвесторами о возможном раунде финансирования в объёме $300–$400 млн, а то и $500 млн, что повысило бы оценку стоимости компании до более чем $2 млрд.

ИИ-проекты Meta полагаются преимущественно на сторонние аппаратные решения. Компания потратила миллиарды долларов на покупку ускорителей, в основном NVIDIA, и потратит ещё миллиарды на аренду ИИ-инфраструктуры у сторонних игроков. В частности, буквально на днях она подписала новую сделку с CoreWeave на $14,2 млрд. В этом году капзатраты могут достигнуть $72 млрд, а выпуск собственных чипов позволил бы компании сэкономить миллиарды долларов, снизив зависимость от NVIDIA и облачных операторов.

 Источник изображения: Rivos

Источник изображения: Rivos

По словам Constellation Research, Meta является единственным крупным ИИ-предприятием, почти полностью зависящим от инфраструктурных решений NVIDIA. Имеются данные, что компания уже взаимодействовала с Rivos некоторое время, поэтому и решила приобрести стартап целиком. Если инициатива увенчается успехом, это поможет Meta снизить расходы как на обучение, так и на инференс. Также сообщается, что Meta работает с TSMC над выпуском своего нового чипа, и уже отправила на производство необходимую документацию для выпуска пробных образцов для оценки их эффективности.

Постоянный URL: http://servernews.ru/1130183
02.10.2025 [09:22], Владимир Мироненко

Cerebras привлекла $1,1 млрд инвестиций, получив оценку более $8 млрд

Американский разработчик ИИ-ускорителей Cerebras Systems сообщил о привлечении $1,1 млрд инвестиций в рамках раунда финансирования серии G, в результате чего его оценка достигла $8,1 млрд, сообщил SiliconANGLE. Компания утверждает, что её ИИ-ускорители в несколько раз быстрее чипов NVIDIA. В числе клиентов Cerebras такие компании, как Meta, IBM и Mistral AI.

Раунд возглавили Fidelity Management & Research и Atreides Management, к которым присоединились известные венчурные компании, включая Tiger Global, Valor Equity Partners и 1789 Capital. В раунде также приняли участие существующие инвесторы Altimeter, Alpha Wave и Benchmark.

 Источник изображений: Cerebras

Источник изображений: Cerebras

Генеральный директор Эндрю Фельдман (Andrew Feldman) сообщил, что привлечённые инвестиции будут направлены в расширение сети ЦОД и дальнейшую разработку «железа» и ПО. Он добавил, что это не повлияет на планы компании по выходу на биржу, пишет Bloomberg. Как считает ресурс The Next Platform, теперь у Cerebras благодаря новому финансированию гораздо больше времени для расширения и диверсификации клиентской базы, чтобы сделать IPO более привлекательным. Согласно прогнозу The Next Platform, компания выйдет на биржу в следующем году.

В сентябре прошлого года Cerebras подала заявку на первичное публичное размещение акций (IPO) в Комиссию по ценным бумагам и биржам США (SEC), но столкнулась с проблемами в получении разрешения Комитета по иностранным инвестициям Министерства финансов США (CFIUS) на его проведение из-за чрезмерной зависимости от одного клиента — компании G42 из Абу-Даби (ОАЭ), которую подозревали в связях с КНР. В марте Cerebras сообщила, что урегулировала с CFIUS все вопросы, а позже Фельдман заявил, что Cerebras по-прежнему нацелена на IPO.

В то время как поставщики GPU, включая NVIDIA и AMD, соревнуются в гонке за то, сколько чипов с ограниченной матрицей площадью около 800 мм² они могут разместить на сокет вычислительного устройства, Cerebras со старта ограничена размерами кремниевых пластин. Отрасль остановилась на выпуске пластин диаметром 300 мм, т.к. задача по выпуску 450-мм пластин оказалась экономически нецелесообразной. Если бы Cerebras могла использовать 450-мм пластины, производительность её царь-ускорителей Wafer Scale Engines выросла бы в 2,25 раза без какого-либо изменения технологического процесса.

Аналитики ресурса The Next Platform считают, что Cerebras, необходимо обнародовать планы до 2032 года, прежде чем она станет публичной. Это позволит укрепить доверие инвесторов. NVIDIA опубликовала планы до 2028 года, и все инвесторы знают, чего ожидать от неё в ближайшем будущем. В дальнейшем Cerebras сможет адаптировать планы с учётом сложившейся ситуации, как это сделала NVIDIA с выпуском чипа Rubin CPX, которого изначально в её планах не было.

UPD 04.10.2025: Cerebras отказалась от IPO и отозвала заявку в Комиссию по ценным бумагам и биржам США (SEC).

Постоянный URL: http://servernews.ru/1130166
01.10.2025 [11:51], Сергей Карасёв

ИИ-стартап Rebellions привлёк финансирование от Arm и Samsung, получив оценку в $1,4 млрд

Южнокорейский разработчик ИИ-чипов Rebellions, по сообщению Datacenter Dynamics, провёл раунд финансирования Series C, в ходе которого на развитие привлечено $250 млн. В число инвесторов вошли Arm и Samsung Ventures. В результате стартап получил оценку на уровне $1,4 млрд. Фирма Rebellions, основанная в 2020 году, создаёт ускорители для ИИ-инференса, которые обеспечивают энергоэффективность и высокую производительность при небольших задержках.

В 2023 году Rebellions начала массовое производство серверных ускорителей Atom и Atom Max для запуска больших языковых моделей (LLM) в дата-центрах. А в мае нынешнего года стартап представил ускоритель Rebel-Quad, оснащённый 144 Гбайт памяти HBM3e с пропускной способностью до 4,8 Тбайт/с. Это изделие, как утверждается, обеспечивает ИИ-производительность до 1 Пфлопс в режиме FP16 и до 2 Пфлопс на операциях FP8. Устройство выполнено в виде карты расширения с интерфейсом PCIe 5.0 x16. Заявленное энергопотребление — до 600 Вт. Rebellions отмечает, что по эффективности (количеству транзакций на 1 Вт затрачиваемой энергии) ускоритель Rebel-Quad приблизительно в 3,2 раза превосходит изделие NVIDIA H200.

 Источник изображения: Rebellions

Источник изображения: Rebellions

В инвестиционном раунде Series C, помимо Arm и Samsung Ventures, приняли участие Korea Development Bank и Korelya Capital. Полученные средства будут направлены в том числе на организацию массового производства Rebel-Quad, а также на укрепление позиций на рынках США, Европы и Азиатско-Тихоокеанского региона. По заявлениям Rebellions, её решения уже применяются клиентами в Японии, Саудовской Аравии и США.

Нужно отметить, что в январе 2024 года Rebellions осуществила раунд финансирования Series B, в ходе которого было получено $124 млн. Позднее компания привлекла $15 млн от Wa’ed Ventures, венчурного подразделения саудовского нефтегазового и химического гиганта Aramco. А в июне 2024-го стартап объявил о слиянии с разработчиком ИИ-чипов Sapeon Korea, который был выделен из SK Telecom в 2016 году.

Постоянный URL: http://servernews.ru/1130113
30.09.2025 [23:25], Владимир Мироненко

С 1 ноября клиентов гиперскейлеров вынудят покупать лицензии на VMware напрямую у Broadcom

В связи с отменой Broadcom бессрочных лицензий VMware и переходом на модель подписки BYOS (Bring Your Own Subscription, «принеси свою собственную подписку»), обеспечивающую переносимость лицензии на проверенные VMware решения на базе VMware Cloud Foundation (VCF), клиенты крупнейших облачных провайдеров должны с 1 ноября покупать подписки на VCF напрямую у неё, без посредников. Об изменениях отношений с гиперскейлерами Broadcom объявила в самом конце августа.

Google Cloud Platform анонсировала изменения в работе сервиса Google Cloud VMware Engine (GCVE) от Google Cloud Platform (GCP), который позволяет запускать рабочие нагрузки на основе VMware в инфраструктуре Google Cloud, однако через несколько часов удалила запись. Тем не менее, копия сообщения прямо говорит, что теперь клиентам придётся обращаться за лицензиями и разрешением на их использование в GCP к Broadcom. Google первой среди гиперскейлеров предложила клиентам опцию Bring Your Own License (BYOL) для сред VMware в начале 2024 года.

Согласно договорённости Google и Broadcom, пользователи GCP получат следующие возможности:

  • при модели ценообразования CUD (committed use discount), предполагающей скидки за обязательство использовать определённый объём ресурсов в течение определённого периода, клиенты, заказавшие CUD GCVE на 1 или 3 года до 15 октября 2025 года, смогут продолжать использовать GCVE с лицензией VCF до конца срока её действия;
  • для любых новых приобретений по модели CUD, совершённых после 15 октября 2025 года, пользователям GCP будет необходимо отдельно приобрести переносимые лицензии VCF непосредственно у Broadcom, а также оплатить опцию BYOL в Google Cloud;
  • пользователи смогут продолжать использовать развёрнутые до 15 октября 2025 года on-demand узлы с включённой лицензией VCF до 30 июня 2027 года.

Для всех остальных заказчиков с 1 ноября 2025 года для развёртывания GCVE потребуется лицензия, купленная у Broadcom. Основные возможности VMware Engine для клиентов GCP останутся прежними. GCVE останется управляемой службой Google, которая предоставляет выделенную среду VMware Cloud Foundation, работающую непосредственно на инфраструктуре Google Cloud.

 Источник изображения: Alistair MacRobert / Unsplash

Источник изображения: Alistair MacRobert / Unsplash

Microsoft сообщила, что решение Azure VMware Solution (AVS) готово к изменениям в политике Broadcom. Вариант Azure VMware Solution VCF BYOL доступен во всех 35 регионах по всему миру. Цена варианта BYOL будет меньше, чем AVS с пакетной подпиской VCF. Microsoft прекратит продажу Azure VMware Solution с комплектной подпиской на VCF после 15 октября 2025 года. После этой даты для покупки новых узлов Azure VMware Solution потребуется подписка на VCF, приобретенная непосредственно у Broadcom. Узлы Azure VMware Solution с опцией PayGo смогут работать без дополнительных лицензий и изменений в продукте до 31 октября 2026 года. Клиенты могут перейти с AVS PayGo, приобретя до 15 октября 2025 года зарезервированные инстансы Azure VMware Solution с уже включённой подпиской VCF.

AWS же в начала августа 2025 года, т.е. до публичного объявления Broadcom о смене политики лицензирования для клиентов гиперскейлеров, сообщила об общедоступности сервиса Amazon Elastic VMware Service (Amazon EVS), который позволяет запускать среды VCF в виртуальном частном облаке Amazon VPC и интегрировать их с другими сервисами AWS. При этом лицензии так же придётся покупать у Broadcom, причём минимум на 256 ядер. Нюанс в том, что EVS пока поддерживает только VCF версии 5.2.1 и только на узлах i4i.metal на базе Intel Xeon Ice Lake-SP.

Постоянный URL: http://servernews.ru/1130087
29.09.2025 [14:00], Руслан Авдеев

315 млн ИИ-ядер и 1,4 квадрлн транзисторов: Cerebras открыла в США 10-МВт ЦОД на царь-чипах WSE-3

Разработчик ИИ-ускорителей Cerebras Systems развернул новый дата-центр в Оклахома-Сити — столице штата Оклахома (США). Объект мощностью 10 МВт создан совместно со Scale Datacenters, сообщает Datacenter Dynamics. На объекте применяются замкнутые системы прямого жидкостного охлаждения. По данным компании, каждый потреблённый киловатт-час компенсируется покупкой энергии из возобновляемых источников.

По словам представителя Cerebras, в 2023 году компания построила свой первый ИИ-суперкомпьютер Andromeda с 13,5 млн ИИ-ядер, на тот момент — крупнейший в своём роде. Новый кластер в Оклахома-Сити на базе систем CS-3 с царь-чипами WSE-3 обеспечивает ИИ-производительность 44 Эфлопс (точность вычислений не указана) и поддерживает крупнейшие из когда-либо созданных ИИ-моделей. Кластер включает 315 млн ИИ-ядер и 1,4 квадрлн транзисторов.

 Источник изображений: Cerebras

Источник изображений: Cerebras

Scale Datacenter подготовила для Cerebras саму площадку и сопутствующую инфраструктуру. В Scale подчеркнули, что рады сотрудничеству с Cerebras, оно позволит создать в Оклахома-Сити ИИ-инфраструктуру мирового класса. В мае 2025 года появилась информация о покупке Scale Datacenter ЦОД площадью 7,6 тыс. м2 в Оклахома-Сити у компании Expand Energy.

Ранее Cerebras объявила о намерении запустить шесть новых ИИ ЦОД в Северной Америке и Европе, в том числе с использованием более 300 систем CS-3 на объекте в Оклахома-Сити. У Cerebras есть кластеры для инференса в Санта-Кларе (Santa Clara) и Стоктоне (Stockton) в Калифорнии, последний расположен на барже-ЦОД Nautilus. Также имеется объект в Далласе (Dallas, Техас). Компания занимается созданием собственных кластеров в Миннеаполисе (Minneapolis, Миннесота), Монреале (Montreal, Канада — на объекте Bit Digital), а также в некоторых локациях на Среднем Западе США и в Европе.

Cerebras уже разместила оборудование в Эдинбургском университете, Сандийских национальных лабораториях (США), лабораториях Лос-Аламоса, мощностях G42/Core42, и др.

Постоянный URL: http://servernews.ru/1129997

Входит в перечень общественных объединений и религиозных организаций, в отношении которых судом принято вступившее в законную силу решение о ликвидации или запрете деятельности по основаниям, предусмотренным Федеральным законом от 25.07.2002 № 114-ФЗ «О противодействии экстремистской деятельности»;