Материалы по тегу: s
|
28.02.2026 [09:48], Сергей Карасёв
Dell представила подвесной уличный сервер PowerEdge XR9700 с замкнутой СЖОDell анонсировала сервер PowerEdge XR9700, предназначенный для инфраструктур Cloud RAN и ИИ-приложений на периферии. Устройство рассчитано на эксплуатацию в неблагоприятных условиях, в том числе на открытом воздухе: оно может монтироваться на опорах линий электропередач, крышах и фасадах зданий. Новинка заключена в корпус объёмом около 15 л. Говорится о сертификации IP66 и GR-3108 Class 4: серверу не страшны пыль, влага и воздействие прямого солнечного излучения. Диапазон рабочих температур простирается от -40 до +46 °C. В основу PowerEdge XR9700 положена аппаратная платформа Intel Xeon 6 SoC — Granite Rapids-D (до 72 P-ядер, TDP до 325 Вт). Также возможна установка ИИ-ускорителей и различных сетевых карт, в том числе для обработки L1-трафика. Задействована система жидкостного охлаждения с замкнутым контуром, а ребристая внешняя поверхность работает в качестве радиатора. Без СЖО с таким уровнем тепловыделения CPU/GPU и в таком компактном корпусе уже вряд ли можно обойтись. Отмечается, что с технической точки зрения устройство идентично модели PowerEdge XR8720t, которая дебютировала в октябре прошлого года. В зависимости от конфигурации это решения располагает четырьмя или восемью слотами для модулей DDR5. Возможна установка до трёх SSD формата M.2 (NVMe). В оснащение могут входить два порта 100GbE QSFP и восемь портов 10/25GbE SFP. Реализованы интерфейсы USB 3.0 Type-A, UCB Type-C, Mini-DisplayPort и пр. Заявлена поддержка Wind River SUSE Linux Enterprise Server/RT, Ubuntu Server LTS и Red Hat Enterprise Linux/RT. Интегрированный контроллер удалённого доступа Dell (iDRAC) обеспечивает мониторинг и управление. Говорится о совместимости с существующим набором решений для периферийных вычислений в области телекоммуникаций. В продажу PowerEdge XR9700 поступит во II половине текущего года.
27.02.2026 [22:55], Владимир Мироненко
Amazon вложит в OpenAI $50 млрд, OpenAI в ответ потратит $100 млрд на 2 ГВт мощностей TrainiumOpenAI и Amazon объявили о заключении соглашения о стратегическом партнёрстве с целью ускорения инноваций в области ИИ для предприятий, стартапов и конечных потребителей по всему миру. В рамках многолетнего соглашения Amazon инвестирует в OpenAI $50 млрд — $15 млрд первым траншем, а затем еще $35 млрд в ближайшие месяцы при выполнении определённых условий. AWS и OpenAI совместно создадут среду выполнения с сохранением состояния (Stateful Runtime Environment) на базе моделей OpenAI, которая будет доступна в Amazon Bedrock для создания приложений и агентов генеративного ИИ. Подобное окружение позволяет разработчикам сохранять контекст, запоминать предыдущую работу, работать с различными программными инструментами и источниками данных, а также получать доступ к вычислительным ресурсам. Новинка будет интегрирована с Amazon Bedrock AgentCore и инфраструктурными сервисами, чтобы приложения и ИИ-агенты клиентов работали согласованно с остальными приложениями инфраструктуры, работающими в AWS. AWS также станет эксклюзивным сторонним поставщиком облачных услуг для платформы OpenAI Frontier, позволяющей компаниям создавать, развёртывать и управлять командами ИИ-агентов, работающих в реальных бизнес-системах с общим контекстом. По мере перехода компаний от экспериментов к внедрению ИИ в производство, Frontier упрощает быструю, безопасную и глобальную интеграцию ИИ-технологий в существующие рабочие процессы. Кроме того, OpenAI и Amazon будут сотрудничать в разработке пользовательских моделей для работы с приложениями Amazon, ориентированными на клиентов. AWS и OpenAI также сообщили о расширении ещё на $100 млрд более раннего соглашения о многолетнем стратегическом партнёрстве стоимостью $38 млрд, в рамках которого AWS обязалась предоставлять OpenAI в течение семи лет доступ к ускорителям NVIDIA. Расширенное соглашение со сроком действия 8 лет включает в себя обязательство OpenAI использовать около 2 ГВт мощностей на базе ускорителей Trainium, чтобы поддерживать спрос на Stateful Runtime, Frontier и другие рабочие нагрузки. Это обязательство распространяется как на чипы Trainium3, так и на чипы следующего поколения Trainium4, которые появятся в 2027 году и получат технологию NVIDIA NVLink. Сегодняшний день оказался богатым на события для OpenAI. Компания объявила о привлечении $110 млрд инвестиций в рамках раунда финансирования с предварительной оценкой её рыночной стоимости в $730 млрд, что значительно больше оценки в $500 млрд в октябре 2025 года. Лидером раунда стала Amazon с инвестициями в $50 млрд, за ней следуют NVIDIA и SoftBank, инвестировавшие по $30 млрд. Компания заявила, что ожидает, что к раунду присоединятся и другие инвесторы. Ранее Anthropic, ключевой конкурент OpenAI, закрыл раунд финансирования на $30 млрд, подняв капитализацию до $380 млрд. У компании долгие и тесные отношения с AWS, которая развернула для стартапа один из крупнейших в мире ИИ-кластеров Project Rainier. Впрочем, Anthropic тоже старается диверсифицировать поставки вычислительных мощностей — она заключила контракты с Microsoft (на чипы NVIDIA), а также с Google (на TPU).
27.02.2026 [15:30], Руслан Авдеев
Шутки в сторону: 1 апреля провайдер Hetzner резко поднимет цены — до +50 %Один из крупнейших европейских хостинг-провайдеров и операторов ЦОД — компания Hetzner предупредила клиентов, что рост цен на её услуги составит до 50 %. Это касается как имеющихся пользователей, так и будущих — в Германии, Финляндии, США и Сингапуре, сообщает The Register. Hetzner известна (пока) недорогими сервисами, в первую очередь IaaS, для разработчиков и корпоративных клиентов. Компания сообщила, что причиной изменений стоимости её продуктов стал рост цен в разных сферах рынка IT. Компания пожаловалась, что выросла стоимость эксплуатации инфраструктуры и нового оборудования, а попытка оптимизации расходов не принесла желаемого эффекта. Список ценовых изменений свидетельствует, что многие услуги действительно значительно подорожают, многие на 30 %, а некоторые даже на 50 %, что может серьёзно сказаться на небогатых клиентах. Стремительное развитие ИИ-индустрии стало одним из факторов, определивших движение рынка инфраструктуры в непредсказуемых направлениях на фоне спроса на всё большие вычислительные мощности. Гиперскейлеры не могут приобрести достаточно HBM, RAM и флеш-памяти, а также ИИ-ускорителей, особенно производства NVIDIA. Ожидается, что цены на DRAM- и NAND-модули в текущем квартале удвоятся, а некоторые серверные CPU уже в дефиците и скоро подорожают. Производители HDD жалуются, что распродали столько жёстких дисков, сколько собирались выпустить за весь год.
Источник изображения: Jon Del Rivero/unspalsh.com В Omdia отметили, что Hetzner фактически является провайдером облачной инфраструктуры, поэтому в подорожании сервисов даже на 50 % нет ничего удивительного — это всего лишь отражение текущей реальности. В Omdia считают, что пользователи могут ожидать повышения цен и со стороны других провайдеров. Наибольшему давлению подверглись компании-операторы второго эшелона, они в более невыгодном положении в сравнении с гиперскейлерами. Эксперты Omdia отмечают, что рынок облачных сервисов ожидает некоторый раскол — гиперскейлеры уровня AWS, Microsoft и Google имеют долгосрочные прямые соглашения напрямую с поставщиками «железа», защищающие их от немедленного ценового шока. Тем временем средние и малые компании, не обладающие гигантской покупательной способности, в том числеHetzner и OVHcloud (тоже анонсировавшей рост цен), не имеют выбора, перекладывая издержки на пользователей. К несчастью для компаний, рассчитывающих на бюджетный облачный хостинг, инфраструктурные издержки взлетят. Рынку необходимо, чтобы компании уровня Hetzner продолжали работать и сохраняли прибыльность. Реакция онлайн-сообщества оказалась смешанной. Одни пользователи говорят, что рост цен непосильный, поэтому им придётся искать возможные альтернативы. У некоторых небольших провайдеров действительно пока что более привлекательные цены в сравнении с Hetzner. Среди плюсов называется относительно недорогая стоимость ухода от к конкурентам. Другие же пользователи пишут, что реакция компании предсказуема. В противном случае пришлось бы вообще отказаться от облачных серверов. Отмечается, что у Hetzner всё ещё лучшее соотношение цены/производительности в сравнении с конкурентами. Стоит отметить, что некоторые компании довольно спорно обосновывают ценообразование. Например, не так давно сообщалось, что Cisco нашла оправдание повышению цен на свои продукты, несмотря на рекордную выручку во II четверти текущего финансового года.
26.02.2026 [18:15], Сергей Карасёв
Positive Technologies выпустила межсетевой экран PT NGFW 3050 с производительностью до 400 Гбит/сКомпания Positive Technologies анонсировала межсетевой экран нового поколения PT NGFW 3050 — своё самое производительное решение данного типа. Устройство способно обрабатывать трафик со скоростью до 400 Гбит/с в L4-режиме Stateful Firewall с контролем приложений. Новинка выполнена в форм-факторе 2U. В основу положена аппаратная платформа Intel Xeon Sapphire Rapids. В оснащение входят 1 Тбайт оперативной памяти DDR5 и два SSD вместимостью 960 Гбайт каждый. Реализованы следующие сетевые интерфейсы: 4 × 1GbE (RJ-45), 6 × 10/25GbE (SFP28) и 2 × 100GbE (QSFP28). Габариты составляют 550 × 490 × 89 мм, масса — 15 кг. Модель PT NGFW 3050 использует модернизированный стек TCP/IP, работающий в пользовательском пространстве, специальный протокол отказоустойчивости, а также собственные движки системы предотвращения вторжений (IPS) и антивируса. Имеются выделенные порты для управления и синхронизации сессий, а также разъёмы USB 2.0 и USB 3.0 для токенов модулей доверенной загрузки и обслуживания. Заявленная пропускная способность с применением IPS достигает 100 Гбит/с. Со всеми активированными модулями безопасности (IPS, антивирус, NAT, URL-фильтрация) показатель составляет до 86 Гбит/с. Скорость инспекции TLS и SSL со всеми включёнными модулями межсетевого экрана — до 30 Гбит/с. Устройство поддерживает до 40 млн одновременных соединений и обрабатывает до 3 млн новых сессий в секунду. «На сегодняшний день PT NGFW 3050 — это самый производительный, сертифицированный во ФСТЭК, российский межсетевой экран нового поколения на рынке, способный детально анализировать трафик на скоростях магистральных каналов», — отмечает Positive Technologies.
26.02.2026 [13:30], Руслан Авдеев
Amazon захотела пристроить крупный ЦОД к АЭС Comanche Peak в ТехасеКомпания Amazon намерена построить ещё один дата-центр в Техасе. На этот раз речь идёт об объекте в непосредственной близости от атомной электростанции, сообщает Datacenter Dynamics. На днях окружной суд Сомервелла (Somervell) подал ходатайство о заключении договора о развитии с дочерней структурой Amazon — Amazon Data Services. При её посредничестве Amazon осуществляет большую часть операций, связанных с рынком ЦОД. Предлагаемый проект предлагают реализовать на землях компании Vistra, прилегающих к АЭС Comanche Peak. В соответствии с данными из заявки на получение налоговых льгот, проект предусматривает строительство до 18 двухэтажных строений на площади около 176 га. Объём инвестиций составит порядка $5 млрд. По данным техасских СМИ, строительство может стартовать уже в 2027 году. Детали соглашения пока хранятся в секрете, но уже есть данные, что оно предусматривает выплату округу $2,5 млн после начала строительства и ещё по $300 тыс. за каждое здание. АЭС Comanche Peak мощностью 2,4 ГВт введена в эксплуатацию в 1974 году. Оператором выступает дочерняя структура Vistra — Luminant Generation. Станция находится в Соммервелле, граничащим с округом Худ (Hood). Amazon уже взаимодействует с властями последнего в рамках инициативы Project Spectrum, предусматривающей строительство кампуса ЦОД на территории площадью более 511 га, который тоже может быть запитан от Comanche Peak. Округ Худ привлекает пристальное внимание инвесторов и застройщиков. Sailfish намерена построить крупный объект на площади более 809 га и мощностью 5 ГВт, тоже недалеко от атомной электростанции. MARA занимается майнингом в том же округе, а Pacifico Energy планирует «несетевой» проект газовой энергетики, предназначенный для снабжения энергии дата-центров на территории Худа. Впрочем, единого мнения относительно разрешения строительства новых ЦОД среди местных властей нет. Ранее Amazon (AWS) приобрела кампус ЦОД, расположенный в непосредственной близости от АЭС Susquehanna в Пенсильвании (США). Изначально компания пыталась запитать ЦОД напрямую от АЭС, но власти и регуляторы не одобрили сделку. Тем не менее, планируется значительное расширение кампуса. Летом 2025 года также сообщалось, что компания инвестирует $20 млрд в развитие ИИ ЦОД в Пенсильвании и $10 млрд в Северной Каролине.
26.02.2026 [00:30], Владимир Мироненко
Nebius увеличила квартальную выручку на 547 %, чуть не дотянув до прогноза Уолл-стритПровайдер облачных ИИ-сервисов Nebius (ранее Yandex N.V.) объявил неаудированные финансовые результаты за IV квартал и весь 2025 год, закончившийся 31 декабря 2025 года. Квартальная выручка компании выросла на 547 % до $227,7 млн, что оказалось немного ниже прогноза аналитиков размере $242,79 млн (по данным intellectia.ai). Как отметил ресурс MarketBeat, разница невелика и к тому же компенсируется прогнозом устойчивого роста. Тем не менее, после объявления финансовых результатов акции компании упали на 5 %. Значительный рост выручки обусловлен высокими показателями в основном облачном бизнесе компании в сфере ИИ благодаря массовому переходу на облачные ИИ-сервисы и контрактам с гиперскейлерами, включая Microsoft и Meta✴. Выручка от основного бизнеса выросла на 802 % до $214 млн. Росту способствовали высокий уровень загрузки мощностей, выгодные ценами и дисциплинированное исполнение заказов, подчеркнули аналитики Zacks Investment Research. Компания сообщила, что в IV квартале снова распродала все свои мощности, поскольку спрос продолжал опережать доступное предложение. Следует также отметить, что компания достигла положительной скорректированной EBITDA в размере $15 млн в IV квартале, тогда как годом ранее этот показатель составлял –$63,9 млн. Маржа скорректированной EBITDA выросла до 24 % с 19 % в III квартале. Nebius сообщила о скорректированном чистом убытке в IV квартале 2025 года в размере –$173 млн, что на 151 % больше, чем убыток в размере –$69 млн, понесенный годом ранее. Убытки компании увеличились, поскольку она активно инвестировала в расширение мощностей, разработку продуктов и приобретение ускорителей. Однако убытки обусловлены исключительно капитальными затратами и расширением, поскольку операционные показатели улучшились. Что касается показателей за весь 2025 год, то выручка Nebius выросла на 479 % до $529,8 млн. Убыток по скорректированной EBITDA сократился с –$226,3 млн до –$64,9 млн (–71 %). Скорректированные убытки увеличились на 87 % с –$238,5 млн в 2024 году до –$446,7 млн. В 2026 году компания прогнозирует выручку в пределах $3–$3,4 млрд. Прогноз по годовой регулярной выручке (ARR, Annual Recurring Revenue) к концу 2026 года составляет $7–$9 млрд. На 2026 год компания прогнозирует скорректированную маржу EBITDA на уровне примерно 40 %. Однако она ожидает, что показатель EBIT останется убыточным, поскольку компания продолжает реализацию планов расширения мощностей, развёртывания ускорителей и инвестиций в исследования и разработки для значительного укрепления своей технологической базы и будущих продуктов в области ИИ. Nebius считает, что эти инвестиции обеспечивают привлекательную доходность, и компания по-прежнему привержена своей среднесрочной целевой отметке EBIT в 20-30 % с потенциалом дальнейшего роста. В 2026 году компания планирует инвестировать от $16 до $20 млрд в капитальные затраты. Компания ускорила свои планы по наращиванию мощностей, объявив о строительстве 9 новых ЦОД и обеспечив более 2 ГВт законтрактованной электроэнергии с прогнозом превышения отметки в 3 ГВт. Nebius по-прежнему планирует обеспечить от 800 МВт до 1 ГВт доступной мощности ЦОД к концу 2026 года.
25.02.2026 [16:39], Руслан Авдеев
STACK и AWS построят за $12 млрд «ответственный» ИИ ЦОД на северо-западе ЛуизианыSTACK Infrastructure обнародовала планы строительства многопрофильного дата-центра стоимостью $12 млрд на северо-западе Луизианы — в округах Каддо (Caddo Parish) и Божер (Bossier Parish). Партнёром компании выступила Amazon при поддержке региональных представителей публичного сектора, сообщает Converge Digest. По данным STACK, скоординированные инвестиции в несколько кампусов расширят возможности местной цифровой инфраструктуры и выступят драйверами экономической активности в регионе в долгосрочной перспективе. Проект связан с кампусами по обоим берегам Ред-Ривер (Red River). Планируется поддержка ИИ ЦОД и облачных мощностей нового поколения. После ввода кампусов в эксплуатацию будет обеспечено более 540 рабочих мест на постоянной основе, с полной занятостью. Местные власти заявляют, что новые объекты принесут в бюджет штата и муниципалитетов миллионы долларов. Кроме того, будет финансироваться и модернизация местной инфраструктуры, в т.ч. систем водоснабжения, водоотведения и электроснабжения. STACK намерена финансировать все инфраструктурные расходы, необходимые для поддержки работы ЦОД. При развитии будут учитываться имеющиеся мощности коммунальных компаний и уже запланированные улучшения энергосистемы. Эти шаги направлены на повышение надёжности и обеспечение долгосрочной стабильности местных тарифов. Дополнительно в соответствии с принципами «ответственного строительства» STACK будут внедряться программы оптимизации водопотребления.
Источник изобрапжения: Michael Sanchez/unsplash.com AWS и другие поставщики облачных сервисов активно диверсифицируют географическое присутствие за пределами классических рынков ЦОД вроде Северной Вирджинии, осваивая вторичные рынки, где есть земля, энергия, ВОЛС и прочая инфраструктура. STACK Infrastructure уже создала глобальную сеть ЦОД в Северной Америке, EMEA и Азиатско-Тихоокеанском регионе. Компания предлагает решения под заказ для гиперскейлеров и ИИ-сервисов. Основная специализация — на крупномасштабных кампусах с поэтапными схемами расширения. В последние годы компания расширила присутствие в Северной Вирджинии, Кремниевой долины, Портленда, Торонто, Милана, Осло и Токио, с акцентом на регионы с доступом к возобновляемыми источниками энергии, высокой плотностью оптоволоконных сетей, а также налаженным контактам с коммунальными структурами, способными обеспечить энергией высокопроизводительные ЦОД. Так, помимо проекта STACK-Amazon, Meta✴ строит гигаваттный ИИ ЦОД Hyperion в округе Ричленд (Richland Parish), для которого построят ЛЭП за $1,2 млрд и газовую электростанцию, а прочие операторы дата-центров рассматривают использование площадок на севере Луизианы, связанных с региональной инфраструктурой передачи данных и расположенных недалеко от технопарка National Cyber Research Park в округе Божер.
25.02.2026 [14:03], SN Team
Омниканальная коммуникационная платформа МТС Exolve включена в Реестр российского ПОКомпания МТС Exolve, предлагающая отечественный конструктор омниканальных диалогов для бизнеса и принадлежащая ПАО «МТС», сообщила, что её одноименная коммуникационная платформа была включена в Реестр российского ПО. Платформа зарегистрирована в категории «Программное обеспечение для решения отраслевых задач в области информации и связи». Единый реестр российских программ для электронных вычислительных машин и баз данных (Реестр российского ПО) — это система учета программ российского происхождения. Включение в реестр требует, чтобы правообладатель был из РФ, а ПО работало без использования иностранных компонентов. Продукты, находящиеся в реестре, гарантируют компаниям надёжность, соответствие стандартам безопасности и долгосрочную стабильность. Они всегда доступны на российском рынке вне зависимости от внешних факторов. Цифровая платформа МТС Exolve была запущена в январе 2023 года. Она позволяет бизнесу интегрировать различные каналы связи (звонки, SMS, мессенджеры, роботы) в свои приложения и CRM-системы через API. Благодаря платформе можно автоматизировать общение с клиентами, анализировать его и выстраивать сложные сценарии звонков, в том числе с использованием роботов и виртуальной АТС. «Платформа коммуникационных решений МТС Exolve — это актуальный ответ современным задачам бизнеса в области коммуникаций с клиентами. Над ее созданием работала большая команда, учитывала задачи и потребности бизнеса, который искал решение, позволяющее в режиме «единого окна» осуществлять, контролировать и повышать эффективность общения с клиентами. — говорит генеральный директор МТС Exolve Рамиль Биккужин. — Наша платформа — уникальный продукт на рынке, который по своим качествам не уступает, и даже наоборот, во многом превосходит зарубежные аналоги. Включение в реестр — это не только признание заслуг команды разработки, но и подтверждение ожиданий наших клиентов, которые повышают эффективность своих коммуникаций, используя сервисы, отвечающие самым современным требованиям». Платформа МТС Exolve и другие сервисы из реестра избавляют компании от зависимости от иностранных разработчиков и минимизируют риски для бизнеса, позволяя строить долгосрочные планы, не меняя инструменты.
24.02.2026 [23:00], Владимир Мироненко
SambaNova представила ИИ-ускоритель SN50 и объявила о расширении партнёрства с IntelSambaNova представила ИИ-ускорители пятого поколения SN50 на основе фирменных RDU (Reconfigurable Dataflow Unit), которые, по словам компании, «обеспечивает непревзойденное сочетание сверхнизкой задержки, высокой пропускной способности и энергоэффективной производительности для рабочих нагрузок ИИ-инференса, коренным образом меняя экономику генерации токенов». Кроме того, объявлено об инвестициях и сотрудничестве с Intel, которая передумала покупать SambaNova целиком. Как отметил The Register, новый чип представляет собой значительное улучшение по сравнению с SN40L 2023 года. По данным компании, SN50 обеспечивает в 2,5 раза более высокую производительность при 16-бит вычислениях (1,6 Пфлопс) и в 5 раз более высокую производительность в режиме FP8 (3,2 Пфлопс). В основе SN50 лежит архитектура потоковой обработки данных (SambaNova DataFlow). Как и в предшественнике, в SN50 используется трёхуровневая иерархия памяти, которая сочетает в себе DDR5, HBM и SRAM, что позволяет платформам на основе новинки поддерживать ИИ-модели с 10 трлн параметров и длиной контекста до 10 млн токенов. Каждый RDU оснащен 432 Мбайт SRAM, 64 Гбайт HBM2E с пропускной способностью 1,8 Тбайт/с и от 256 Гбайт до 2 Тбайт памяти DDR5. Доступность HBM2E и конфигурируемый объём DDR5 позволят повысить привлекательность и доступность SN50 на фоне дефицита памяти. Каждый ускоритель получил интерконнект со скоростью 2,2 Тбайт/с (в каждую сторону) для связи с другими чипами через коммутируемую фабрику. Как утверждает SambaNova, по сравнению с ускорителем NVIDIA B200, SN50 обеспечивает в 5 раз большую максимальную скорость генерации токенов на пользователя и более чем в 3 раза большую пропускную способность для агентного инференса, что было продемонстрировано на примере ряда моделей, таких как Meta✴ Llama 3.3 70B. Архитектура позволяет эффективно разгружать KV-кеш и переключаться между моделям в HBM и SRAM в режиме «горячей замены» за миллисекунды, что крайне важно для агентных рабочих нагрузок, часто переключающихся между несколькими ИИ-моделями. Также в SN50 входные токены могут кешироваться в памяти, сокращая время предварительной обработки и время ожидания первого токена (TTFT) для запросов. Такое сочетание производительности, эффективности и масштабируемости обеспечивает преимущество в совокупной стоимости владения (TCO), по словам компании, не имеющее аналогов на рынке, для поставщиков сервисов инференса, использующих такие модели, как OpenAI GPT-OSS, с восьмикратной экономией по сравнению с NVIDIA B200. SN50 ориентирован и на такие приложения, как голосовые помощники на основе ИИ, требующие сверхнизкой задержки для работы в режиме реального времени. По заявлению компании, он сможет обеспечить работу тысяч одновременных сессий. Также была представлена 20-кВт система SambaRack SN50, которая объединяет 16 чипов SN50. SambaRack могут масштабироваться до кластера из 256 ускорителей с пропускной способностью интерконнекта в несколько Тбайт/с, что сокращает время обработки запросов и поддерживает большие размеры пакетов. В результате можно развёртывать модели с более высокой пропускной способностью и быстродействием. Поставки SN50 клиентам начнутся во II половине 2026 года. Раннее SambaNova сообщила о привлечении более $350 млн в рамках переподписанного раунда финансирования серии E, возглавляемого частной инвестиционной компанией Vista Equity Partners при партнёрстве с Cambium Capital. В нём также приняло «активное участие» инвестиционное подразделение Intel — Intel Capital, сообщил SiliconANGLE. Также SambaNova заявила о сотрудничестве с Intel в разработке новых высокопроизводительных и экономически эффективных систем для выполнения ИИ-задач. Цель — предоставить предприятиям альтернативу GPU, которые сегодня используются в большинстве рабочих нагрузок. Intel инвестирует в стартап, чтобы ускорить развёртывание нового «облачного решения для ИИ» на базе существующей платформы SambaNova Cloud. Обновлённая платформа, оптимизированная для многомодальных LLM, получит процессоры Xeon, а также GPU, сетевые и иные решения Intel, в том числе в области СХД. Идёт ли речь о создании специализированных моделей Xeon, как это было в случае NVIDIA, не уточняется. В дальнейшем Intel и SambaNova планируют совместно продвигать и продавать новую платформу, используя существующие связи Intel с предприятиями и партнёрские каналы. Партнёрство несёт выгоду обеим компаниям. SambaNova сможет воспользоваться глобальным охватом и производственной базой Intel для масштабирования своих ИИ-ускорителей, а Intel получит шанс наконец-то заявить о себе на ИИ-рынке. До сих пор Intel не могла конкурировать с NVIDIA и другими производителями чипов, такими как AMD, в ИИ-сфере. Чипы SN50 от SambaNova в сочетании с процессорами Intel Xeon потенциально могут изменить эту ситуацию. Стоит отметить, что у Intel, которая сама чувствует себя не лучшим образом, есть довольно крупная сделка с NVIDIA. Компания также предлагает собственные GPU для инференса, пусть и значительно более простые в сравнении с SN50, и даже странные гибриды из ускорителей Habana Gaudi 3 и NVIDIA B200. Наконец, имеется и сделка с AWS по выпуску кастомных Xeon 6 и неких ИИ-ускорителей. Что касается старых «коллег» SambaNova в деле борьбы с NVIDIA, то Groq в итоге была поглощена последней, а Cerebras, наконец, подписала заметную сделку с действительно крупным игроком на рынке ИИ — OpenAI.
23.02.2026 [23:22], Владимир Мироненко
Astera Labs по-тихому купила PliopsAstera Labs приобрела Pliops, сообщил ресурс StorageNewsletter со ссылкой на заявление Мариуса Тудора (Marius Tudor), бывшего директора по развитию бизнеса Pliops, подтвердившего факт сделки на своей странице в соцсети LinkedIn. Финансовых подробностей о сделке не сообщается. Ресурс допустил, что компания приобрела Pliops для своего первого научно-исследовательского центра в Израиле. О создании своего передового R&D-центра в Израиле Astera Labs сообщила в начале февраля. Предполагается, что новый центр с офисами в Тель-Авиве и Хайфе ускорит разработку масштабируемых сетей следующего поколения для протоколов высокоскоростной связи, а также будет способствовать техническим исследованиям и разработкам, направленным на решение проблем с памятью в приложениях для обучения и инференса ИИ. Руководителем центра назначен ветеран полупроводниковой индустрии Гай Азрад (Guy Azrad), старший вице-президент по проектированию и генеральный директор Astera Labs Israel, а его помощником станет Идо Букспан (Ido Bukspan), вице-президент по проектированию ASIC, имеющий 20-летний стаж работы в Mellanox и NVIDIA, где он дошёл до должности старшего вице-президента по проектированию микросхем, разрабатывая высокопроизводительные решения InfiniBand, Ethernet и NVLink. «Новый израильский дизйн-центр будет стремиться использовать лучшие в регионе инженерные таланты, чтобы сосредоточиться на полном цикле проектирования микросхем — от архитектуры до производства, включая ПО и системное проектирование для передовых ИИ-платформ и новых приложений для инференса», — заявил Азрад. Разработанная Pliops PCIe-карта расширения XDP LightningAI с программным стеком FusIOnX функционирует как ещё один уровень памяти для GPU-серверов. Она работает на базе ASIC, которая «раскладывает» KV-кеш на SSD с доступом через NVMe-oF (RDMA) и горизонтальным масштабированием. Стек Pliops FusIOnX снижает стоимость, энергопотребление и вычислительные затраты путём оптимизации рабочих процессов инференса LLM. «Сочетание нашего оборудования LightningAI с ПО FusIOnX устраняет узкое место, связанное с памятью GPU, обеспечивая до восьми раз более быструю обработку данных и экономию энергии на уровне стойки. И это работает от начала до конца: на любом GPU, любой LLM, любом ПО для обработки данных и любой сетевой инфраструктуре», — заявил Идо Букспан. По данным компании, Pliops XDP LightningAI вместе с ПО расширяют возможности высокоскоростной памяти (HBM) для серверов с GPU и ускоряют работу vLLM на NVIDIA в 2,5 раза. |
|


