Материалы по тегу: ии

23.02.2026 [23:22], Владимир Мироненко

Astera Labs по-тихому купила Pliops

Astera Labs приобрела Pliops, сообщил ресурс StorageNewsletter со ссылкой на заявление Мариуса Тудора (Marius Tudor), бывшего директора по развитию бизнеса Pliops, подтвердившего факт сделки на своей странице в соцсети LinkedIn. Финансовых подробностей о сделке не сообщается. Ресурс допустил, что компания приобрела Pliops для своего первого научно-исследовательского центра в Израиле.

О создании своего передового R&D-центра в Израиле Astera Labs сообщила в начале февраля. Предполагается, что новый центр с офисами в Тель-Авиве и Хайфе ускорит разработку масштабируемых сетей следующего поколения для протоколов высокоскоростной связи, а также будет способствовать техническим исследованиям и разработкам, направленным на решение проблем с памятью в приложениях для обучения и инференса ИИ.

Руководителем центра назначен ветеран полупроводниковой индустрии Гай Азрад (Guy Azrad), старший вице-президент по проектированию и генеральный директор Astera Labs Israel, а его помощником станет Идо Букспан (Ido Bukspan), вице-президент по проектированию ASIC, имеющий 20-летний стаж работы в Mellanox и NVIDIA, где он дошёл до должности старшего вице-президента по проектированию микросхем, разрабатывая высокопроизводительные решения InfiniBand, Ethernet и NVLink.

 Источник изображения: Pliops

Источник изображения: Pliops

«Новый израильский дизйн-центр будет стремиться использовать лучшие в регионе инженерные таланты, чтобы сосредоточиться на полном цикле проектирования микросхем — от архитектуры до производства, включая ПО и системное проектирование для передовых ИИ-платформ и новых приложений для инференса», — заявил Азрад.

Разработанная Pliops PCIe-карта расширения XDP LightningAI с программным стеком FusIOnX функционирует как ещё один уровень памяти для GPU-серверов. Она работает на базе ASIC, которая «раскладывает» KV-кеш на SSD с доступом через NVMe-oF (RDMA) и горизонтальным масштабированием. Стек Pliops FusIOnX снижает стоимость, энергопотребление и вычислительные затраты путём оптимизации рабочих процессов инференса LLM.

 Источник изображения: Pliops

Источник изображения: Pliops

«Сочетание нашего оборудования LightningAI с ПО FusIOnX устраняет узкое место, связанное с памятью GPU, обеспечивая до восьми раз более быструю обработку данных и экономию энергии на уровне стойки. И это работает от начала до конца: на любом GPU, любой LLM, любом ПО для обработки данных и любой сетевой инфраструктуре», — заявил Идо Букспан. По данным компании, Pliops XDP LightningAI вместе с ПО расширяют возможности высокоскоростной памяти (HBM) для серверов с GPU и ускоряют работу vLLM на NVIDIA в 2,5 раза.

Постоянный URL: http://servernews.ru/1137288
23.02.2026 [22:57], Владимир Мироненко

Чипы AMD прожорливы, NVIDIA — дороги, а Intel — ненадёжны: Ericsson остаётся верна кастомным ASIC

Ericsson представила свой первый набор продуктов AI-RAN, подчеркнув приверженность стратегии, основанной на собственных ASIC для повышения производительности сетей радиодоступа (RAN). В то время как беспроводная индустрия всё чаще обращается к виртуализированным/облачным RAN с использованием универсальных процессоров (GPP) Intel, Ericsson защищает свои продолжающиеся инвестиции в кастомные чипы для высокопроизводительных задач, отметил ресурс IEEE ComSoc Technology Blog. Впрочем, Intel остаётся ключевым партнёром Ericsson, а вот с AMD и NVIDIA у компании не заладилось.

Ericsson рассматривала использование Arm-процессоров NVIDIA Grace, а не Hopper GPU, но в итоге выбрала кастомные кремниевые чипы (ASIC). Одновременно компания демонстрирует стремление к гибкости программно-определяемых систем, обеспечивая переносимость своих собственных алгоритмов RAN и ПО, разработанного специально для ИИ, на различные открытые кремниевые платформы.

Портфель решений Ericsson для RAN базируется на двух основных архитектурах. Большая часть основана на ASIC, разработанных как собственными силами, так и в партнёрстве с Intel. Также портфель включает Cloud RAN, которая объединяет программный стек Ericsson с процессорами Intel Xeon EE. Несмотря на надежды отрасли, что виртуализация позволит отделить аппаратное обеспечение от программного, Intel остаётся единственным партнером Ericsson по поставке микросхем для массового развёртывания, что создаёт некоторые риски.

 Источник изображений: Ericsson

Источник изображений: Ericsson

Фактически Ericsson подтвердила «коммерческую поддержку» исключительно решений Intel, в то время как в случае AMD, Arm и NVIDIA всё по-прежнему ограничивается «поддержкой прототипов». Несмотря на многолетние заявления отрасли о необходимости разнообразия микросхем в экосистеме vRAN, прогресс, похоже, застопорился. Кроме того, интеграция ИИ в ПО RAN добавляет новые уровни сложности, которые могут ещё больше укрепить зависимость компании от «железа» одного вендора.

Отраслевые наблюдатели по-прежнему скептически относятся к стремлению Ericsson к «единому программному стеку» для гетерогенных аппаратных платформ. Хотя аппаратная и программная дезагрегация достижима на более высоких уровнях (L2/L3), PHY-уровень L1 — наиболее ресурсоёмкая часть стека — остаётся сильно оптимизированным для конкретного «кремния». Первоначально Ericsson рассчитывала на переносимость L1-кода между x86 (в т.ч. AMD) и Arm SVE2 (NVIDIA Grace) для соответствия возможностям Intel AVX-512. Однако достижение высокой производительности на этих платформах без существенного рефакторинга остается серьёзной инженерной проблемой.

Критическим узким местом в обработке L1-трафики является коррекция ошибок (Forward Error Correction), которая традиционно требует выделенного аппаратного ускорения. Ericsson первоначально полагалась на разгрузку с переносом задач FEC на дискретные PCIe-ускорители Intel. Затем Intel внедрила ускорение FEC в Xeon EE в рамках vRAN Boost. Попытки использовать FPGA AMD показали их невысокую энергоэффективность, а GPU NVIDIA оказались слишком дороги для такой задачи.

Однако развитие AI-RAN изменило экономику, поскольку теперь ускорители можно использовать как для RAN, так и для ИИ-задач. Так, Ericsson заинтересовали тензорные процессоры Google (TPU). Тем не менее, несмотря на стремление к созданию «единого ПО», планы Ericsson подтверждают существование проблем в реализации этой идеи. В то время как уровни L2 и выше используют универсальную кодовую базу для всех аппаратных платформ, уровень L1 требует адаптации под конкретные платформы.

Чтобы избежать зависимости от одного поставщика чипов, компания уделяет приоритетное внимание использованию HAL (Hardware Abstraction Layers), что позволит портировать ПО на разные аппаратные платформы с минимальными изменениями. Основные инициативы включают внедрение интерфейса BBDev (Baseband Device) для отделения ПО RAN от базового аппаратного обеспечения. Рассматривается даже возможность интеграции с NVIDIA CUDA, но здесь многое зависит от более широкой отраслевой стандартизации.

Что касается радиосвязи, менее подверженной полной виртуализации, Ericsson встраивает процессоры Neural Network Accelerators (NNA) непосредственно в радиомодули. Эти программируемые матричные ядра оптимизированы для обработки данных в системах Massive MIMO, обеспечивая формирование луча и оценку канала за доли миллисекунды при соблюдении строгих ограничений по мощности. Новые AI-радиомодули оснащены ASIC Ericsson с NNA. Утверждается, что они расширяют возможности локального инференса в радиосистемах Massive MIMO, обеспечивая оптимизацию в реальном времени.

Постоянный URL: http://servernews.ru/1137269
22.02.2026 [15:58], Владимир Мироненко

Российский бизнес распробовал ИИ: рынок ИИ-серверов достиг 60 млрд рублей

В 2025 году в России на закупку ИИ-серверов компании потратили около 60 млрд руб., без учёта аренды вычислительных мощностей, обслуживания и модернизации сообщил коммерческий директор YADRO (входит в «ИКС холдинг») Александр Бакулин на цифровом форуме «Инфраструктурные вызовы для развития ИИ в России» в рамках Недели российского бизнеса, о чём пишут «Ведомости».

Он добавил, что рынок находится «в стадии перелома» — за последние два года ИИ перестал быть «надстройкой» над IT-инфраструктурой, а стал менять правила проектирования вычислительных систем. Формируется новая инфраструктурная ниша, сравнимая с энергетикой и телекоммуникациями. Ключевые заказчики переходят от экспериментов к промышленной эксплуатации, начинают встраивать решение машинного обучения больших языковых моделей в свои бизнес-процессы и планы. И при этом на ИИ наблюдается большой спрос, сообщил Бакулин.

По словам Бакулина, мировой рынок ИИ-серверов, который во многом формируют облачные провайдеры и крупные технологические компании, оценивается в сотни миллиардов долларов, демонстрируя устойчивую высокую динамику. Как и на мировом рынке основной спрос в России формируют крупные компании, работающие с большими массивами данных и развивающие собственные языковые модели, например крупные игроки e-commerce, финтеха и интернет-сервисов.

 Источник изображения: YADRO

Источник изображения: YADRO

Ранее «АТК консалтинг» сообщила, что закупки программных продуктов с ИИ в 2025 выросли год к году в 7,4 раза до 1,8 млрд руб. Как отметили тогда «Ведомости», рынок «железа» для ИИ в деньгах вырос значительно больше. В частности, это связано с подорожанием чипов памяти, на которую в современных серверах может приходиться до двух третей себестоимости.

В «Группе Астра» считают, что 60 млрд руб. на ИИ-серверы звучит реалистично, но важнее динамика. Так, совокупный российский рынок серверов и СХД в 2025 году в целом составил 280 млрд руб. против 155 млрд руб. в 2024-м, сообщали «Ведомости» со ссылкой на данные YADRO и Fplus. Наибольшая часть рынка — около 55–60 % от суммы — пришлась на госзакупки по 44-ФЗ и 223-ФЗ, уточнили тогда в YADRO. По оценкам «Группы Астра», к концу 2026 года госзакупки, связанные с ИИ, вырастут на 20–30 %, а год к году — вполовину.

Рынок действительно идёт к промышленной эксплуатации ИИ, считают в ЦКНТИ по направлению «Технологии хранения и анализа больших данных» МГУ, отметив, что банки, телеком, ретейл встраивают ИИ-модели в скоринг, поддержку, операционные процессы. До конца года рынок может вырасти за счёт дооснащения и повторных закупок, а год к году — на 25–40 %, если не будет жёстких ограничений по поставкам ускорителей и финансированию.

Постоянный URL: http://servernews.ru/1137247
22.02.2026 [00:24], Владимир Мироненко

AMD подстрахует Crusoe, продаст ей свои чипы и сама же арендует их, если что-то пойдёт не так

Согласно данным ресурса The Information, AMD предоставит гарантию по кредиту в размере $300 млн неооблаку Crusoe для покупки и развёртывания своих ИИ-чипов. Благодаря этому стартап получит кредит под 6 %, что гораздо ниже, чем было бы без поддержки AMD. Кредит для Crusoe, организованный Goldman Sachs, будет обеспечен чипами AMD и соответствующим оборудованием.

Сделка позволит Crusoe приобрести ИИ-чипы AMD, чтобы развернуть их в новом ЦОД в Огайо, строящемся канадским девелопером 5C, поддерживаемым Brookfield. По данным источников, AMD обязуется арендовать собственные чипы у Crusoe, если ей не удастся привлечь достаточное количество клиентов, особенно среди разработчиков ИИ. Генеральный директор Crusoe Чейз Лохмиллер (Chase Lochmiller) в прошлом году сообщил Reuters, что компания планирует приобрести чипы AMD на сумму $400 млн.

Эта сделка подчеркивает усиление конкуренции среди производителей полупроводников за поддержку развития инфраструктуры, ориентированной на ИИ, отметил ресурс MarketScreener. В данном случае AMD придерживается стратегии лидера ИИ-рынка компании NVIDIA, готовой предоставить заимствования для покупки своей продукции, арендовать собственные чипы, выступить в качестве гаранта партнёра в сделках аренды ЦОД, а также гарантировать выкуп вычислительных мощностей партнёра в случае, если те останутся невостребованными.

 Источник изображения: Crusoe

Источник изображения: Crusoe

NVIDIA также является ключевым инвестором Crusoe. Компания участвовала в раунде финансирования серии D компании Crusoe на сумму $600 млн в конце 2024 года, а затем в раунде серии E на сумму $1,375 млрд в октябре 2025 года, что увеличило оценку Crusoe до более чем $10 млрд. Несмотря на циклический характер заключаемых NVIDIA сделок, что вызывает опасения экспертов в растущем пузыре на ИИ-рынке, инвесторы пока сохраняют оптимизм. Акции NVIDIA выросли за 2025 год более чем на 34 %, а акции AMD за тот же период — на 76 %, пишет MSN.

Постоянный URL: http://servernews.ru/1137230
21.02.2026 [15:03], Сергей Карасёв

G42 из ОАЭ и Cerebras построят в Индии национальный ИИ-суперкомпьютер с царь-ускорителями WSE-3

Холдинг G42 из Абу-Даби (ОАЭ) и компания Cerebras в партнёрстве с Университетом искусственного интеллекта им. Мохаммеда бин Зайеда (MBZUAI) и Индийским центром развития передовых вычислительных технологий (C-DAC) развернут в Индии национальный ИИ-суперкомпьютер.

Технические подробности проекта не раскрываются. Отмечается лишь, что система обеспечит ИИ-производительность на уровне 8 Эфлопс (точность вычислений не указана). Комплекс, размещённый на территории Индии, будет эксплуатироваться в соответствии с местными требованиями к безопасности, а все обрабатываемые данные останутся в национальной юрисдикции. Иными словами, речь идёт о формировании суверенной вычислительной платформы.

Как отмечает The Register, в основу суперкомпьютера лягут ускорители Cerebras WSE-3. Эти изделия содержат 4 трлн транзисторов, 900 тыс. ядер и 44 Гбайт SRAM. Суммарная пропускная способность встроенной памяти достигает 21 Пбайт/с. Производительность составляет до 125 Пфлопс на операциях FP16. Таким образом, в составе НРС-системы могут быть задействованы 64 экземпляра Cerebras WSE-3.

 Источник изображения: G42

Источник изображения: G42

После ввода в эксплуатацию новый суперкомпьютер станет доступен широкому кругу пользователей в Индии — от ведущих научных организаций, институтов и государственных структур до стартапов, малых и средних предприятий. Ожидается, что появление системы позволит ускорить инновации в области ИИ.

«Суверенная инфраструктура ИИ становится важнейшим компонентом национальной конкурентоспособности. Новый проект предоставит Индии такую платформу, позволив местным исследователям и предприятиям внедрять ИИ, обеспечивая при этом полную безопасность данных», — заявил Ману Джайн (Manu Jain), генеральный директор G42 India.

Нужно отметить, что в Индии активно развивается инфраструктуры для ИИ-вычислений. В частности, индийские Tata Group, Tata Consultancy Services (TCS) и OpenAI намерены развернуть в стране ИИ ЦОД мощностью до 1 ГВт. Вместе с тем индийский конгломерат Adani вложит $100 млрд в создание ЦОД общей мощностью 5 ГВт, снабжаемых возобновляемой энергией.

Постоянный URL: http://servernews.ru/1137215
20.02.2026 [23:37], Руслан Авдеев

«Гонка вооружений» в сфере ИИ бессмысленна — США и Китай преследуют совершенно разные цели

В ИИ уже вложено больше денег, чем потребовалось для высадки людей на Луну, а в 2026 году расходы на технологию могут достигнуть $700 млрд, почти удвоившись год к году. В США политики и бизнес часто стремятся в этой сфере «победить Китай», однако такой подход предполагает общую цель двух стран и относительную «симметрию» при её достижении. На деле цели у стран на рынке ИИ весьма разные, сообщает IEEE Spectrum.

По словам Селины Сюй (Selina Xu), руководящей исследованиями и стратегическими инициативами, касающимися Китая и ИИ в офисе Эрика Шмидта (Eric Schmidt), бывшего главы Google, внимательное изучение развития ИИ в двух странах показывает, что они не стремятся в этой сфере к одним и тем же целям. Более того, они движутся совсем в разных направлениях. По мнению Сюй, США делают акцент на масштабирование, стремясь создать «общий искусственный интеллект» (AGI), тогда как для Китая важнее повышение экономических показателей и использование в реальном мире.

По словам Сюй, менталитет «гонки на выживание» способен только навредить — правительства и компании будут пренебрегать необходимыми мерами безопасности для достижения мнимого «первенства». Отчасти это уже наблюдается, например, в сфере энергетики, где администрация президента США продвигает «атомные кампусы» с ослабленными требованиями к безопасности АЭС. Сам Шмидт уже предупреждал об опасности стремления США к доминированию в области ИИ.

 Источник изображения: Joss Broward / Unsplash

Источник изображения: Joss Broward / Unsplash

По мере развития систем машинного обучения в 2010-х гг., видные общественные деятели вроде Стивена Хокинга и Илона Маска уже предупреждали, что универсальный потенциал ИИ невозможно будет отделить от военного и экономического — повторяется модель конкуренции времён Холодной войны. По мнению некоторых экспертов, концепция такого «состязания» выгодна передовым лабораториям, инвесторам и СМИ, которым просто удобнее оперировать простыми метриками успеха вроде размера моделей, контрольных показателей и большей вычислительной мощности.

В парадигме «гонки вооружений» «общий искусственный интеллект» — и есть «финишная линия», победителем станет тот, кто первый её достигнет. Тем временем, как считают эксперты, нет никакой гарантии, что страна, создавшая AGI, станет именно победителем и её интересы восторжествуют, поскольку такой искусственный интеллект будет умнее людей и, следовательно, неуправляемым и непредсказуемым. Кроме того, Китай и США совсем-по разному подходят к реализации ИИ-проектов и экономические условия этих стран кардинально отличаются.

 Источник изображения: Nicolas Hoizey / Unsplash

Источник изображения: Nicolas Hoizey / Unsplash

После десятилетий быстрого роста КНР столкнулась с экономическим спадом, поэтому страна стремится найти новый «двигатель экономики». Вместо того, чтобы вкладывать ресурсы в «спекулятивные» модели развития искусственного интеллекта, Поднебесная рассматривает ИИ как инструмент, позволяющий совершенствовать действующие отрасли, от здравоохранения до энергетики и сельского хозяйства, как инструмент, улучшающий жизнь обычных людей. Для этого ИИ внедряется в производство, логистику, энергетику, финансы и госуслуги.

Автопроизводители активно внедряют роботов на заводах с минимальным участием людей, по имеющейся статистике на 2024 год в КНР использовалось впятеро больше промышленных роботов, чем в США. Сельскохозяйственные модели помогают фермерам, в здравоохранении ИИ-инструменты помогают врачам ставить диагнозы и лечить пациентов и др. Даже очень маленькие предприятия изучают возможность использовать ИИ для повышения производительности.

 Источник изображения: JESHOOTS.COM / Unsplash

Источник изображения: JESHOOTS.COM / Unsplash

В США ИИ-модели тоже внедряются в разные отрасли всё чаще, но основной акцент делается на сервис и обработку информации с применением больших языковых моделей (LLM). Они применяются для обработки неструктурированных данных и автоматизации коммуникаций. Например, банками используются помощники на основе LLM для помощи в управлении счетами пользователей и обработки их рутинных запросов, LLM помогают врачам извлекать ключевые данные из медицинских записей и клинической документации. По словам отраслевых экспертов, LLM больше подходят для экономики США, ориентированной на сферу услуг, чем для китайской индустриальной экономики.

Конечно, Китай и США конкурируют в некоторых областях, связанных с ИИ, в частности, касающихся разработки и производства полупроводников для обеспечения работы искусственного интеллекта. Также обе страны стремятся обрести контроль над цепочками поставок для обеспечения национальной безопасности. Китай, безусловно, стремится избавиться от зависимости от американских чипов.

 Источник изображения: Rock Staar / Unsplash

Источник изображения: Rock Staar / Unsplash

Важной сферой для конкуренции является ИИ для военного применения, поскольку та или иная сторона может получить преимущества в плоскости отдельных военных технологий. При этом Китай всё ещё не подобрал «фаворита» для военного и промышленного сектора. После триумфального дебюта DeepSeek в 2025 году, главный получатель средств для разработки «общего искусственного интеллекта» так и не выбран, а вкладывать все средства в AGI страна, похоже, не планирует, поскольку это слишком рискованно.

На деле американские и китайские компании до сих пор сотрудничают, несмотря на постепенное «разделение» экономик двух стран. Фактически, по мнению Сюй, для создания безопасного и заслуживающего доверия ИИ было бы лучше, чтобы исследователи и политики США и КНР наладили диалог и достигли консенсуса относительно того, что запрещено, а потом конкурировали бы в этих рамках. В концепции «гонки вооружений» упускается из виду реальная ситуация на местах, обмен опытом между компаниями, обмен научными данными, переток талантов с одного рынка на другой и то, насколько тесно переплетены экосистемы двух стран в целом.

Постоянный URL: http://servernews.ru/1137160
20.02.2026 [22:30], Владимир Мироненко

Не $100 млрд, а $30 млрд, и не выиграл, а переиграл — NVIDIA и OpenAI готовят новую инвестиционную сделку

Многолетняя сделка между NVIDIA и OpenAI, в рамках которой производитель ИИ-ускорителей обязался инвестировать в разработчика ИИ-моделей $100 млрд, так и не была подписана. Вместо неё компании готовят более простую схему с инвестициями NVIDIA в акционерный капитал OpenAI в размере $30 млрд в обмен на её акции, сообщил ресурс The Financial Times.

По данным источников The Financial Times, переговоры по этому поводу находятся на завершающей стадии, решение может быть принято уже в эти выходные. Инвестиции NVIDIA в акционерный капитал OpenAI в размере $30 млрд являются частью более крупного раунда финансирования, который, как ожидается, позволит OpenAI привлечь более $100 млрд с оценкой её рыночной стоимости в $730 млрд, не считая новых средств, сообщили источники.

OpenAI реинвестирует большую часть нового капитала в оборудование NVIDIA, но компании откажутся от прежней сделки на $100 млрд, о которой было объявлено в сентябре, добавили источники. По словам источников, это финансирование поддержит создание новых вычислительных мощностей и, вероятно, со временем приведет к заключению новых сделок. Как отметил ресурс eWeek, на практике ничего не поменяется: OpenAI по-прежнему нуждается в огромных вычислительных мощностях, а NVIDIA по-прежнему находится в центре цепочки поставок оборудования, обеспечивающей работу современной экономики ИИ. Меняется лишь то, как формируются риски, сроки и обязательства.

 Источник изображения: NVIDIA

Источник изображения: NVIDIA

Ранее руководители OpenAI и NVIDIA попытались развеять слухи об охлаждении отношений между их компаниями в связи с замораживанием сделки на $100 млрд. «Нам нравится работать с NVIDIA, и они производят лучшие в мире чипы для ИИ. Мы надеемся оставаться их ключевым клиентом очень долгое время», — заявил генеральный директор OpenAI Сэм Альтман (Sam Altman). Следом глава NVIDIA Дженсен Хуанг (Jensen Huang) заявил CNBC, что любые предположения о «спорах» — это «ерунда». «Нам нравится работать с OpenAI», — сказал он. Тем не менее, OpenAI подписала в начале года крупную сделку с Cerebras и уже начала использовать её царь-чипы. Кроме того, у OpenAI есть и сделка с AMD.

По словам источников The Financial Times, OpenAI также находится на заключительном этапе переговоров с SoftBank по поводу инвестиций около $30 млрд, и Amazon, которая может инвестировать до $50 млрд в рамках более широкого партнёрства, предполагающего использование ИИ-моделей GPT. Ожидается, что MGX, государственный инвестиционный фонд Абу-Даби в сфере технологий, и Microsoft также инвестируют крупные суммы, а руководители OpenAI на этой неделе встречаются с венчурными капиталистами и другими инвесторами по поводу дальнейших инвестиционных проектов, добавили источники.

Постоянный URL: http://servernews.ru/1137200
20.02.2026 [16:55], Руслан Авдеев

OpenAI и Tata договорились о строительстве 1 ГВт ИИ ЦОД в Индии

Индийские Tata Group, Tata Consultancy Services (TCS) и OpenAI анонсировали новое стратегическое партнёрство. Подразделение HyperVault компании TCS и OpenAI займутся строительством ИИ-инфраструктуры в Индии, сообщает Datacenter Dynamics. Многолетнее партнёрство предусматривает реализацию совместного проекта в несколько этапов. Для начала TCS построит ИИ-инфраструктуру на 100 МВт, в будущем возможно её масштабирование до 1 ГВт.

По словам главы OpenAI Сэма Альтмана (Sam Altman), Индия уже является лидером по внедрению искусственного интеллекта. С её талантами, амбициями и сильной правительственной поддержкой у неё очень хорошие позиции для того, чтобы самой творить своё будущее. OpenAI при сотрудничестве с Tata Group работают над строительством инфраструктуры, подготовкой специалистов и заключением локальных соглашений для создания «ИИ с Индией, для Индии и в Индии» таким образом, что многие люди в стране смогут получить доступ к ИИ-инструментам и получать от этого выгоду.

Создание ЦОД HyperVault анонсировали в ходе квартального отчёта в прошлом октябре. В планах значится постройка в стране дата-центров Stargate с жидкостным охлаждением общей мощностью 1 ГВт. В предприятие инвестировала частная инвестиционная компания TPG. Как заявляют в Tata, глубокое сотрудничество между OpenAI и Tata Group знаменует важную веху в планах Индии по превращению в глобального лидера в сфере искусственного интеллекта с подготовкой местной молодёжи для преуспевания в новую эру.

 Источник изображения: Mohnish Landge/unsplash.com

Источник изображения: Mohnish Landge/unsplash.com

Согласно договорённости, сотрудники Tata получат доступ к корпоративной версии бота OpenAI — Enterprise ChatGPT. Кроме того, компании будут совместно разрабатывать специальные ИИ-решения. Ранее HyperVault заявляла, что будет применять ускорители AMD на своих объектах, OpenAI также ранее обязалась внедрить оборудование на основе решений AMD.

Помимо аренды больших облачных мощностей у гиперскейлеров, OpenAI строит и собственные дата-центры в разных локациях мира в рамках инициативы Stargate. Компания рассчитывает на объекты в многочисленных городах США, а также на локации в Норвегии, Великобритании, ОАЭ и Южной Корее. Имеются планы строительства ЦОД в Аргентине и Канаде. Слухи о том, что OpenAI рассматривает Индию для реализации своих проектов, появились в сентябре 2025 года.

Постоянный URL: http://servernews.ru/1137183
20.02.2026 [15:59], Сергей Карасёв

Узкие специалисты: Talaas, разрабатывающая оптимизированные под конкретные ИИ-модели ускорители, получила на развитие $169 млн

Стартап Taalas, разрабатывающий чипы, специально оптимизированные для работы с конкретными ИИ-моделями, провел раунд финансирования на сумму в $169 млн. В число инвесторов вошли Quiet Capital и Fidelity, а также венчурный капиталист Пьер Ламонд (Pierre Lamond). Таким образом, на сегодняшний день компания получила на развитие в общей сложности более $200 млн.

Фирма Taalas вышла из крытого режима (stealth mode) в марте 2023 года. Стартап занимается созданием чипов, предназначенных для определённых LLM. Первым продуктом компании стало изделие, ориентированное на ИИ-модель Llama 3.1 8B. Утверждается, что этот процессор способен генерировать до 17 тыс. выходных токенов в секунду, что в 73 раза больше по сравнению с NVIDIA H200. При этом решение Taalas потребляет в 10 раз меньше энергии.

 Источник изображения: Taalas

Источник изображения: Taalas

Оптимизация аппаратных ускорителей под конкретную ИИ-модуль повышает производительность и эффективность благодаря отказу от избыточных компонентов. Однако разработка таких узкоспециализированных изделий представляет собой сложный и дорогостоящий процесс. Компании Taalas удалось решить проблему, создав архитектуру, при которой для «тонкой» настройки требуется кастомизация только двух из более чем 100 слоев, из которых состоят её чипы. Кроме того, Taalas не использует в своих изделиях дорогостоящую память HBM. Это также упрощает конструкцию, позволяя упразднить компоненты, которые необходимы для обеспечения взаимодействия с HBM-модулями.

В настоящее время Taalas работает над чипом, предназначенным для запуска ИИ-модели Llama с 20 млрд параметров: выпуск этого решения намечен на лето нынешнего года. Затем появится более мощный чип, ориентированный на LLM высокого уровня.

Постоянный URL: http://servernews.ru/1137185
20.02.2026 [15:23], Владимир Мироненко

Anthropic планирует увеличить к 2029 году расходы на облака до $80 млрд

К 2029 году затраты на облачные сервисы ИИ-стартапа Anthropic, согласно его собственным прогнозам, достигнут $80 млрд, сообщил ресурс The Information со ссылкой на свои источники. Расходы будут распределены между Google, Microsoft и Amazon.

Помимо оплаты аренды серверов для моделей Claude, Anthropic также делится с облачными провайдерами частью прибыли от продаж своих ИИ-сервисов на их платформах. The Information сообщил со ссылкой на данные стартапа, что в 2024 году эта сумма составила $1,3 млн, и, согласно «самым оптимистичным прогнозам» ресурса, в 2025 году она составила $360 млн, в 2026 году вырастет до $1,9 млрд, а в 2027 году — до $6,4 млрд.

Также, по словам источника, Anthropic отчисляет клиентам до 50 % своей валовой прибыли от продаж ИИ-решений на AWS, рассчитываемой на основе выручки за вычетом расходов на облачные ресурсы. Для сравнения, Google обычно получает от 20 % до 30 % чистой выручки после вычета затрат на инфраструктуру от перепродажи ПО своих партнёров.

 Источник изображения: Anthropic

Источник изображения: Anthropic

Как утверждает генеральный директор Anthropic Дарио Амодеи (Dario Amodei), компания тратит меньше средств на вычислительные мощности ЦОД по сравнению с другими компаниями в сфере ИИ. Он отметил, что чрезмерные расходы могут быть «разорительными» в случае, когда выручка не гарантирована.

Anthropic давно пользуется услугами Google Cloud, и в октябре прошлого года заключила сделку, обеспечивающую ей доступ к облачным ресурсам провайдера мощностью более 1 ГВт с возможностью использования до 1 млн TPU от Google. С этим проектом может быть связана сделка Anthropic по поводу $50 млрд инвестиций в вычислительную инфраструктуру в США в сотрудничестве с Fluidstack. Кроме того, у Anthropic очень тесные отношения с AWS, которая много инвестировала в стартап и развернула для него один из крупнейших в мире ИИ-кластеров Project Rainier. Наконец, в прошлом году компания подписала крупное соглашение с Microsoft Azure.

Постоянный URL: http://servernews.ru/1137180