Материалы по тегу: ии

11.08.2025 [10:55], Руслан Авдеев

NVIDIA и AMD будут выплачивать правительству США 15 % выручки от продажи ИИ-ускорителей в Китае

NVIDIA и AMD пришли к соглашению с американскими властями, в результате которого компании будут обязаны отдавать правительству США 15 % выручки от продажи ИИ-ускорителей в КНР. За это они будут получать лицензии на продажу полупроводников в Поднебесную, сообщает The Financial Times.

Как свидетельствуют «осведомлённые источники», экспортные лицензии для китайского рынка получены на днях именно на таких условиях. По словам источника из числа чиновников, NVIDIA согласилась платить за поставки H20 в Китай, AMD придётся раскошелиться за продажи MI308.

Как сообщает издание, Министерство торговли США начало выдавать экспортные лицензии на H20 в минувшую пятницу, через два дня после встречи главы NVIDIA Дженсена Хуанга (Jensen Huang) с президентом США Дональдом Трампом (Donald Trump). Ранее Хуанг жёстко раскритиковал ограничения на поставки ИИ-ускорителей в Китай, заявив, что это станет для КНР лишь дополнительным стимулом для развития собственных технологий. По данным источников, лицензии начали выдавать и AMD.

Стоит отметить, что такое соглашение считается «беспрецедентным». По словам экспертов, ни одна компания в истории США не соглашалась платить часть выручки за получение экспортных лицензий. Впрочем, вполне вероятно, что администрация США собирает все доступные средства для реиндустриализации самих Соединённых Штатов. Сами вендоры ситуацию не комментируют и лишь заявили, что следуют установленным правительством правилам для обеспечения своего присутствия на мировых рынках.

 Источник изображения: Priscilla Du Preez/unsplash.com

Источник изображения: Priscilla Du Preez/unsplash.com

По словам аналитиков Bernstein, до введения экспортных ограничений прогнозировалось, что NVIDIA могла бы продать в 2025 году Китаю порядка 1,5 млн ускорителей H20, что принесло бы около $23 млрд выручки. В апреле администрация США объявила о запрете поставок H20 в Китай, но этим летом изменила своё решение после встречи с Хуангом. Однако Бюро промышленности и безопасности (BIS) так и не начало выдавать экспортные лицензии до прошлой пятницы.

Некоторые американские эксперты по безопасности подчёркивают ошибочность решения, утверждая, что H20 поможет военным КНР и подорвёт лидерство США в сфере ИИ. Некоторые горько шутят, что дальше, вероятно, стоит ожидать продаж Китаю F-35 при условии уплаты 15 % комиссии правительству. Не так давно 20 экспертов по безопасности направили в администрацию письмо, в котором призывали на выдавать лицензии на продажи H20 в Китай. По их словам, это всё ещё достаточно мощный ускоритель, который в конечном счёте будет использоваться китайскими военными.

В самой NVIDIA такие предположения опровергают. В субботу, 9 августа, было заявлено, что H20 уже несколько месяцев не поставляются в Китай, но в компании надеются, что экспортные правила позволят Америке конкурировать в Китае и во всём мире. Американский стек ИИ-технологий может стать мировым стандартом при глобальном распространении своих технологий.

Сейчас между США и Китаем ведутся торговые переговоры, которые, как надеются в администрации США, будут содействовать организации саммита между президентом Трампом и председателем КНР Си Цзиньпином. Министерству торговли уже приказали заморозить новые меры экспортного контроля в отношении КНР, чтобы не испортить отношения с Пекином. Опасения экспертов возникли на фоне усилий КНР, предпринимаемых чтобы смягчить контроль над поставками HBM-чипов, которые являются важнейшим компонентом современных ИИ-ускорителей.

Ещё до ослабления запретов выяснилось, что в КНР «просочились» передовые ускорители NVIDIA на $1 млрд, а в конце июля появилась новость, что NVIDIA заказала у TSMC производство 300 тыс. ИИ-ускорителей H20 в ответ на высокий спрос в Китае — в дополнение к уже имеющимся запасам.

Постоянный URL: http://servernews.ru/1127423
11.08.2025 [09:55], Руслан Авдеев

Meta✴ выбрала Pimco и Blue Owl для финансирования расширения ЦОД на $29 млрд

Meta Platforms назвала Pacific Investment Management (Pimco) и Blue Owl Capital главными инвесторами расширения ЦОД в Луизиане на сумму $29 млрд, сообщает Bloomberg. По словам источников, пожелавших сохранить анонимность, Pimco обеспечит заёмные средства на сумму $26 млрд, а Blue Owl будет отвечать за акционерный капитал на $3 млрд. Заёмная доля, вероятно, будет выпущена в формате инвестиционных облигаций, обеспеченных активами ЦОД.

Meta имеет партнёрское соглашение с Morgan Stanley для привлечения средств в рамках конкурентного инвестиционного процесса с привлечением некоторых из крупнейших игроков рынка частных кредитных инвестиций. До финального раунда переговоров за право возглавить раунд финансирование боролись также Apollo Global Management и KKR. На более позднем этапе могут быть привлечены и другие инвесторы. Пока представители Meta, Pimco, Blue Owl и Morgan Stanley новости не комментируют.

Blue Owl управляет активами приблизительно на $192 млрд. Компания начала активно инвестировать в ЦОД только в прошлом году, заодно приобретая инвестирующие в ЦОД структуры и формируя новые. Так, она уже принимает участите в строительстве дата-центров CoreWeave и Crusoe (OpenAI Stargate). Pimco же является инвестиционной компанией, входящей в Allianz Group, которая имеет немало собственности в Европе. В 2023 году компания запустила там новую платформу ЦОД Apto.

 Источник изображения: Samson/unsplash.com

Источник изображения: Samson/unsplash.com

По данным Datacenter Dynamics, в последнем отчёте о финансах Meta отметила, что готова привлекать партнёров к созданию ЦОД. Глава компании Марк Цуерберг (Mark Zuckerberg) добавил, что намерен потратить «сотни миллиардов долларов» на ИИ ЦОД — первый кластер Prometheus должны ввести в эксплуатацию в 2026 году. Также готовится 2-ГВт кампус Hyperion в Луизиане недалеко от Монро (Monroe) в Луизиане. Для питания этого кампуса построят ЛЭП за $1,2 млрд.

Частные инвестиционные структуры активно стремятся вкладывать капитал в сделки, обеспеченные реальными, физическими активами или — совместно с компаниями с более высоким рейтингом. Это помогает диверсифицировать бизнес. По оценкам консалтинговой McKinsey & Co, к 2030 году дата-центрам потребуется $6,7 трлн для удовлетворения мирового спроса на вычислительную мощность.

Финансирование поможет Meta ускорить разработку ИИ, который, как утверждают в компании, уже приносит «значительный» доход. По оценкам Meta, в следующем году расходы будут расти быстрее, особенно с учётом повышенного интереса компании к ИИ-инфраструктуре и привлечения узкоспециализированных технических специалистов в соответствующей сфере. В Meta ожидают появления моделей, способных привлечь значительное внешнее финансирование для поддержки крупномасштабных проектов ЦОД. Прочие техногиганты уже взаимодействуют с инвестиционными компаниями для финансирования ИИ ЦОД. Так, Microsoft объединилась с BlackRock, чтобы привлечь $30 млрд инвестиций.

Постоянный URL: http://servernews.ru/1127405
08.08.2025 [17:55], Владимир Мироненко

«Лаборатория Касперского» представила Kaspersky NGFW с ИИ-защитой

«Лаборатория Касперского» представила коммерческую версию межсетевого экрана NGFW для защиты от киберугроз организаций с сетевой инфраструктурой любой сложности и нагруженности, в том числе попадающих под регуляторную политику в области информационной безопасности. Решение подойдёт для обеспечения защиты средних и крупных организаций (1000 и более устройств) из государственного и финансового секторов, розничной торговли, сфер здравоохранения, транспорта и образования, а также телекома, говорит компания.

«Лаборатория Касперского» отметила, что в последние месяцы российские организации подвергаются большому количеству кибератак, в которых злоумышленники используют для обхода традиционных решений информационной безопасности средства туннелирования трафика, такие как ngrok, Chisel, gTunnel, localtonet. Kaspersky NGFW сможет обнаруживать и блокировать такие атаки, а также другие сложные угрозы, с которыми сталкиваются именно российские организации, сообщила «Лаборатория Касперского».

 Источник изображений: «Лаборатория Касперского»

Источник изображений: «Лаборатория Касперского»

В Kaspersky NGFW используется собственная система обнаружения и предотвращения вторжений в сеть (Intrusion Detection and Prevention System, IDPS), показатель обнаружения и предотвращения сетевых угроз (Detection Rate) которой по результатам тестов превышает 95 %. Также в решении задействован собственный антивирусный движок на базе ИИ. Эффективности Kaspersky NGFW способствует нативная интеграция с другими защитными решениями, а также обогащение информацией о киберугрозах со всего мира благодаря потокам данных Threat Intelligence.

Kaspersky NGFW отличается высоким уровнем отказоустойчивости, которые обеспечивают поддержка кластера Active-Passive с использованием собственного протокола KHCP (Kaspersky High-availability Cluster Protocol) для реализации гибких сценариев его работы. Централизованное управление Kaspersky NGFW осуществляется через единую консоль Open Single Management Platform с полностью переработанным интерфейсом.

Специально для Kaspersky NGFW была разработана линейка сетевых аппаратных платформ KX (Kaspersky Extension), представленная как аппаратными платформами, так и виртуальными исполнениями vKX российского производства, способными обеспечить защиту от небольших офисов до корпораций. ПАК обеспечивают производительность до 180 Гбит/с в режиме L4 firewall с включённым контролем приложений, надёжную защиту от киберугроз и масштабируемость для различных сценариев.

В настоящее время решение тестирует несколько десятков заказчиков, в том числе из финансовой и транспортной сфер, сообщили в «Лаборатории Касперского». По их словам, проверка NGFW внутри компании была не менее серьёзной, чем внешние испытания, подтвердив эффективность решения. В дальнейшем компания планирует разработать версию NGFW для промышленности, а также продолжить внедрение в продукт ИИ-технологий.

Постоянный URL: http://servernews.ru/1127341
08.08.2025 [13:40], Руслан Авдеев

Крупному бизнесу в России могут запретить использование иностранных облаков

Минцифры России предлагает запретить использование облачных сервисов и приложений в системах хранения и обработки персональных данных корпоративных пользователей. Как следует из письма главы министерства Максута Шадаева главе Минпромторга Антону Алиханову, новые меры планируется ввести с 1 сентября 2027 года, сообщают «Ведомости». Запрет не коснётся малого и среднего бизнеса, ИП и физических лиц.

Полная блокировка доступа к иностранному ПО тоже не предусмотрена, поскольку это «не представляется обоснованным». В Минпромторге предварительно согласны с новой концепцией. Минцифры предлагает поэтапно запрещать использовать такие решения и сервисы с учётом «зрелости и конкурентоспособности» российских аналогов. Законопроекты планируется разработать до мая 2026 года. Пока в России запрещено использование зарубежных облаков только для государственных структур — соответствующие поправки в закон «О связи» вступили в силу 1 сентября 2024 года.

По данным «Ведомостей», Шадаев обеспокоен массовым использованием крупными российскими компаниями иностранных облаков, наиболее популярны AWS, Microsoft Azure и Google Cloud. Министр объясняет инициативу рисками потери доступа и компрометации данных, поскольку действующее российское законодательство не предусматривает обязанности использовать российское ПО в системах хранения и обработки персональных данных.

 Источник изображения: Serge Kutuzov/unsplash.com

Источник изображения: Serge Kutuzov/unsplash.com

В соответствии с национальным проектом «Экономика данных», курируемым Минцифры, на отечественное ПО к 2030 году должны перейти не менее 80 % российских организаций в ключевых отраслях. С 1 января 2025 года уже вступил в силу закон о запрете использования иностранного ПО на объектах КИИ. Новое ограничение, как следует из письма, позволит стимулировать спрос на отечественные ПО и облака.

По мнению экспертов, если запрет установят, российские облачные сервисы ждёт рост спроса, поскольку многие бизнесы до сих пор пользуются иностранными облаками «по инерции», хотя их в любой момент могут отключить извне. Многие крупные компании всё ещё используют и иностранные сервисы вроде Microsoft Teams, ставя под угрозу корпоративные и персональные данные, хотя российские альтернативы уже закуплены.

Миграция на отечественные облачные решения значительно ускорилась в 2022 году. В 2023–2024 гг. уже решались в основном точечные задачи и этап, по мнению экспертов, можно считать завершённым для компаний, планировавших переход на российские решения. Другими словами, «импортозамещение» иностранных сервисов к сентябрю 2027 года «кажется реалистичным».

Стоит отметить, что в июле Минцифры РФ совместно с ФСБ и ФСТЭК предписано проработать изменения законов, устанавливающие обязанность операторов персональных данных граждан применять для обработки и хранения такой информации только ПО российской разработки. Варианты поправок должны быть готовы до 1 декабря 2025 года, а переходный период для внедрения изменений ограничат 1 сентября 2027 года.

Постоянный URL: http://servernews.ru/1127331
08.08.2025 [12:44], Руслан Авдеев

OpenAI похвасталась, что на GPT-5 «ушло» 200 тыс. ИИ-ускорителей, а с 2024 года её вычислительные мощности выросли в 15 раз

Одновременно с премьерой новейшей ИИ-модели GPT-5 компания OpenAI рассказала некоторые подробности о своей инфраструктуре. В частности, появилась информация о том, что с 2024 года компания нарастила вычислительные мощности в 15 раз, сообщает Datacenter Dynamics.

По словам представителя компании, только за последние 60 дней было развёрнуто более 60 кластеров, сформирована цифровая магистраль, пропускающая больше трафика, «чем целые континенты», а также задействовано более 200 тыс. ИИ-ускорителей для запуска LLM GPT-5 для 700 млн человек. Дополнительно ведётся подготовка ещё 4,5 ГВт мощностей для «сверхразума».

Стало известно и о вакансиях для проекта Stargate, курируемого OpenAI. Было заявлено, что сегодня небольшая команда строит ИИ-инфраструктуру планетарного масштаба беспрецедентными темпами. Она нанимает специалистов в сфере обработки данных, энергетики, ЦОД, планирования новых мощностей, развития бизнеса, финансов и др.

 Источник изображения: Felix Mittermeier/unsplash.com

Источник изображения: Felix Mittermeier/unsplash.com

При этом компания «агрессивно» нанимает людей в команду Stargate, при этом преимущественно полагаясь на Oracle. Так, в июле компании подтвердили сделку по аренде 4,5 ГВт для проекта Stargate в США. Как ожидается, сделка будет обходиться в $30 млрд ежегодно. Впрочем, не так давно сообщалось, что OpenAI по-прежнему планирует самостоятельно строить собственные дата-центры.

Также компания намерена построить кампус ЦОД Stargete в Объединённых Арабских Эмиратах (ОАЭ) при участии других IT-гигантов, включая Oracle, NVIDIA, Cisco, SoftBank и G42. В Европе компания уже работает над дата-центром в Норвегии совместно с Nscale. Кроме того, она ищет площадки для новых инициатив по всему миру. При этом развитием инфраструктуры занимается в основном сама OpenAI, а сам проект Stargate развивается не так быстро, как планировалось.

Постоянный URL: http://servernews.ru/1127321
08.08.2025 [11:50], Руслан Авдеев

Tesla отказалась от развития ИИ-суперкомпьютеров Dojo

Tesla распускает команду, стоявшую за суперкомпьютером Dojo, сообщает TechCrunch со ссылкой на Bloomberg. Как сообщают анонимные источники, глава проекта Питер Бэннон (Peter Bannon) покидает компанию, а оставшихся участников команды переведут на работу с другими вычислительными проектами Tesla.

О закрытии Dojo стало известно после ухода из Tesla порядка 20 сотрудников, основавших собственный ИИ-стартап DensityAI, который займётся разработкой чипов, аппаратного и программного обеспечения для ИИ ЦОД, связанных с робототехникой, ИИ-агентами и автомобильными приложениями. DensityAI основана бывшим руководителем Dojo Ганешем Венкатарамананом (Ganesh Venkataramanan), причём в не самый удачный для Tesla момент, поскольку глава компании Илон Маск (Elon Musk) ранее настоял на том, чтобы акционеры рассматривали компанию как бизнес, занимающийся ИИ и робототехникой.

Решение о закрытии Dojo стало значительным изменением стратегии. Ранее Маск утверждал, что суперкомпьютер станет краеугольным камнем для удовлетворения амбиций компании в сфере ИИ и основная цель — добиться полной автономии машин благодаря способности Dojo обрабатывать огромные массивы видеоданных. В 2023 году Morgan Stanley посчитал, что Dojo может поднять капитализацию Tesla на $500 млрд за счёт новых источников дохода — проектов роботакси и программных сервисов.

 Источник изображения: Tesla

Источник изображения: Tesla

В 2024 году Маск сообщил, что команда Tesla, занятая искусственным интеллектом, «удвоит ставку» на Dojo перед презентацией роботакси. Тем не менее разговоры о Dojo уже в августе того же года постепенно сошли на нет, когда Маск начал продвигать ИИ-кластер Cortex (на базе ускорителей NVIDIA) при штаб-квартире Tesla в Остине (Техас).

Проект Dojo включал в себя как суперкомпьютер, так и предполагал собственное производство ИИ-ускорителей. Ещё в 2021 году Tesla во время официального анонса Dojo представила чип D1, который должен был бы использоваться совместно с ускорителями NVIDIA для обеспечения работы Dojo. Также сообщалось, что ведутся работы над чипом D2, в котором будут устранены недостатки предшественника.

По данным источников Bloomberg, теперь Tesla намерена сделать ставку преимущественно на NVIDIA, а также других сторонних партнёров вроде AMD, а Samsung будет выпускать чипы на заказ. В прошлом месяце с Samsung подписан контракт на выпуск инференс-чипов AI6, которые будут работать как с автопилотами Tesla, так и использоваться в роботах Optimus и дата-центрах. Ранее Маск намекнул, что в случае с Dojo 3 (D3) и инференс-чипом AI6, речь, возможно, будет идти о едином чипе.

Недавно совет директоров Tesla предложил Маску пакет акций на $29 млрд, чтобы тот оставался в Tesla и продвигал ИИ-разработки компании, вместо того чтобы отвлекаться на другие бизнесы.

Постоянный URL: http://servernews.ru/1127316
08.08.2025 [09:13], Руслан Авдеев

Сбавить обороты: Google сократит энергопотребление ИИ ЦОД в периоды пикового спроса

Google объявила о новых соглашениях с американскими энергокомпаниями Indiana Michigan Power (I&M) и Tennessee Valley Authority (TVA). Договоры направлены на сокращение потребления ИИ ЦОД в периоды высокого спроса, сообщает Tech Republic.

Поскольку ИИ-модели становятся всё сложнее, их обучение и запуск требует немало гигаватт энергии, иногда в течение нескольких часов или даже дней подряд, к чему энергосети не всегда готовы. Google в соглашениях с I&M и TVA обязалась переносить или вовсе приостанавливать ИИ-нагрузки небольшой срочности, если энергосеть будет перегружена — например, из-за плохой погоды или высокого спроса. Новый план разработан на основе результатов экспериментального соглашения с Omaha Public Power District (OPPD), в результате которого энергопотребление, связанное с машинным обучением, неоднократно и успешно снижалось в 2024 году.

В Google подчёркивают, что подобная гибкость помогает снизить потребности в строительстве новых ЛЭП, электростанций и помогает операторам эффективнее управлять энергосетями. Компания начала внедрять перераспределение нагрузок между своими ЦОД в разных регионах в 2020 году, а два года назад она начала учитывать состояние энергосетей и перемещать или откладывать некритичные нагрузки. Похожую систему создала и Microsoft, правда, в обоих случаях изначально ставилась задача не повышения устойчивости энергосетей, а улучшение экологических показателей.

 Источник изображения: Andrey Metelev/unspalsh.com

Источник изображения: Andrey Metelev/unspalsh.com

По данным Indiana Michigan Power, по мере добавления в систему новых крупных нагрузок компания вынуждена сотрудничать с клиентами для эффективного управления генерацией и передачей энергии. Способность Google перераспределять рабочие нагрузки будет очень ценными «инструментом» для удовлетворения растущих потребностей в питании. Впрочем, некоторые рабочие нагрузки вроде поиска, карт, задач клиентов Google Cloud или заказчиков из сферы здравоохранения приостановить нельзя, поэтому внедрять технологии «гибкого спроса» будут только на некоторых площадках — там, где это не повлияет на надёжность обслуживания.

Как сообщает Datacenter Dynamics, это не первая попытка Google координации с энергетиками и управления ресурсами. В апреле принадлежащий компании проект Tapestry договорился с PJM Interconnection об использовании ИИ для упрощения и ускорения присоединения объектов к энергосети. На первом этапе будут автоматизированы процессы, сегодня выполняющиеся специалистами-планировщиками. Со временем предполагается разработать для электросетей сервис наподобие Google Maps.

Помимо Google, некоторые компании в последние месяцы уже объявили о намерении использовать ИИ для «умного» координирования задач в зависимости от спроса на электричество. В мае GridCare объявила о запуске проекта, который позволит находить в действующей энергосети «географические» и «временные» возможности использования электричества, что, по словам компании, позволит сократить время на подключение ЦОД к сети до 6–12 месяцев.

Постоянный URL: http://servernews.ru/1127265
07.08.2025 [22:58], Андрей Крупин

«Мегафон» запустил на Дальнем Востоке 400-км магистральную линию связи с использованием отечественных DWDM-систем Т8

Оператор «Мегафон» запустил на Дальнем Востоке магистральную линию связи с использованием DWDM-систем российского производителя «Т8». Новая линия, обеспечивающая скорость передачи данных в 100 Гбит/с, организована между Хабаровском и Комсомольском-на-Амуре, что составляет более 400 км.

Сложность проекта заключалась в неоднородной структуре кабельной трассы: участок включал в себя волокна разных типов, для которых не подходят стандартные решения. Инженеры «Мегафона» совместно со специалистами «Т8» провели расчёты сети для оптимизации параметров всех компонентов DWDM-системы. Такой подход позволил адаптировать оборудование под условия протяжённой оптической трассы и обеспечить высокую скорость передачи данных. С запуском проекта в регионе оператору стал доступен новый маршрут, что повысило гибкость и надёжность магистральной сети.

 Телекоммуникационное DWDM-оборудование «Волга» производства «Т8» (источник изображения: t8.ru)

Телекоммуникационное DWDM-оборудование «Волга» производства «Т8» (источник изображения: t8.ru)

«Запуск новой магистральной линии — часть реализации нашей долгосрочной стратегии по развитию сети на Дальнем Востоке, она стала важным участком магистрали, соединяющей крупнейшие узлы в регионе. Вместе с партнёрами мы смогли не только обеспечить высокую скорость передачи данных, но и обеспечить возможность масштабирования DWDM-системы на данном направлении до 800 Гбит/с», — заявил «Мегафон».

«T8» является российским предприятием полного цикла. Деятельность компании охватывает научные исследования в области оптоэлектроники и лазерной физики, проектирование, разработку и производство радиофотонной и радиоэлектронной компонентной базы, а также развёртывание оборудования и его последующее сервисное обслуживание. За годы своей работы «Т8» ввела в эксплуатацию свыше 135 тыс. км DWDM-сетей, из которых более 37 тыс. км составляют высокоскоростные системы 100–600 Гбит/с на канал. Компания занимает 26 % российского рынка DWDM-решений.

Постоянный URL: http://servernews.ru/1127287
07.08.2025 [17:36], Руслан Авдеев

Dell'Oro Group: мировые капитальные затраты на ЦОД достигнут $1,2 трлн к 2029 году — половина придётся на гиперскейлеров

По расчётам экспертов, капитальные затраты (CAPEX) на дата-центры продолжат расти и достигнут рекордных значений благодаря инвестициям в ИИ-инфраструктуру. Аналитики Dell'Oro Group выступили с прогнозом на ближайшие годы, сообщает Datacenter Dynamics.

По данным группы, прогнозируется мировой совокупный среднегодовой темп роста (CAGR) на уровне 21 %, капитальные затраты к 2029 году достигнут $1,2 трлн. Это на $200 млрд больше, чем прогноз от февраля 2025 года. По словам компании, прогноз повышен в связи с быстрым внедрением ИИ. По мнению экспертов, на GPU и ASIC сегодня приходится около трети от общего объёма капитальных затрат на дата-центры, что превращает их в крупнейшие драйверы роста соответствующего рынка. Ожидается, что расходы на вспомогательную инфраструктуру вроде стоек, вычислительных мощностей общего назначения, хранилищих, сетей и здания также окажутся высокими.

Ожидается, что на долю крупнейших гиперскейлеров, включая Amazon (AWS), Google, Meta и Microsoft придётся половина расходов. IT-гиганты активно разрабатывают вертикально интегрированные решения полного цикла и кастомизированные архитектуры, чтобы максимизировать производительность ИИ-вычислений и снизить их стоимость.

 Источник изображения: Satyawan Narinedhat/unsplash.com

Источник изображения: Satyawan Narinedhat/unsplash.com

Всё это в сочетании с продолжающимися инвестициями со стороны государственного и частного секторов стимулирует волну глобального расширения инфраструктуры ЦОД. Ожидается, что прочие поставщики облачных сервисов, включая т.н. неооблака, будут расти в среднем по 39 % в год. По прогнозам экспертов, в следующие пять лет гиперскейлеры, «необлачные» операторы и колокейшн-провайдеры получат около 50 ГВт новых мощностей.

Хотя в 2025 году не исключается кратковременное замедление рынка, ожидается, что долгосрочные инвестиции поддержат рост в течение всего прогнозируемого периода. К 2029 году расходы на обучение ИИ и специальные рабочие нагрузки могут составить около половины расходов на инфраструктуру ЦОД.

Столь оптимистичный прогноз появился после новостей о том, что в этом году капитальные расходы на ИИ лидировали в экономике США. В Renaissance Macro Research подчёркивают, что капитальные затраты на ИИ за последние два квартала сделали больший вклад в рост ВВП США, чем все потребительские расходы вместе взятые.

В 2025 году на долю крупнейших гиперскейлеров — Amazon, Google, Meta и Microsoft — придётся почти половина капитальных затрат мира на ЦОД. Microsoft намерена потратить на расширение инфраструктуры $80 млрд, Google — $85 млрд, а Meta до $72 млрд. В лидерах Amazon, которая планирует вложит в инфраструктуру рекордные $118 млрд.

Постоянный URL: http://servernews.ru/1127271
07.08.2025 [16:00], Владимир Мироненко

В Yandex Cloud AI Studio появились открытые модели OpenAI

Yandex B2B Tech открыла API-доступ на платформе Yandex Cloud AI Studio к новым рассуждающим open source моделям OpenAI gpt-oss-120b и gpt-oss-20b. С помощью новых моделей можно создавать агентские системы для выполнения различных задач, например, для автоматизации рекрутмента и технической поддержки, анализа и обработки документов и первичной коммуникации с клиентами, говорит компания.

Доступность новых моделей по API позволяет российскому бизнесу использовать технологии OpenAI в бизнес-процессах без задействования собственной инфраструктуры. Использовать ИИ-модели напрямую у разработчика российским компаниям вряд ли удастся, так как для этого нужно передавать данные для обработки за рубеж, что идёт вразрез с требованиями российского законодательства. Как отметила Yandex B2B Tech, при использовании Yandex Cloud AI Studio данные компаний хранятся и обрабатываются в российских ЦОД, и её сервис полностью соответствует требованиям закона «О персональных данных».

 Источник изображения: Yandex Cloud

Источник изображения: Yandex Cloud

Сообщается, что указанные нейросети сопоставимы по качеству с ведущими моделями OpenAI o3-mini и o4-mini, и в некоторых сценариях превосходят GPT-4o и o1. В них допускается регулировка интенсивности рассуждений и скорости генерации ответа. Вскоре для этих моделей будет доступен вызов функций для взаимодействия с внешними приложениями, что позволит осуществлять поиск информации в интернете при генерации ответа.

Постоянный URL: http://servernews.ru/1127267

Входит в перечень общественных объединений и религиозных организаций, в отношении которых судом принято вступившее в законную силу решение о ликвидации или запрете деятельности по основаниям, предусмотренным Федеральным законом от 25.07.2002 № 114-ФЗ «О противодействии экстремистской деятельности»;

Система Orphus