Материалы по тегу: ии

02.11.2025 [12:03], Сергей Карасёв

Intel интересуется покупкой разработчика ИИ-ускорителей SambaNova Systems, в которого инвестировал сам Лип-Бу Тан

Корпорация Intel, по сообщению Bloomberg, ведёт предварительные переговоры о покупке стартапа SambaNova Systems, специализирующегося на разработке ИИ-ускорителей. Сделка теоретически позволит Intel укрепить конкурентное положение по отношению к NVIDIA. SambaNova основана в 2017 году профессорами Стэнфордского университета (Stanford University) в США. Компания занимается созданием ускорителей RDU (Reconfigurable Dataflow Unit) для работы с большими языковыми моделями (LLM) и инференса.

С момента своего появления SambaNova привлекла более $1,1 млрд от GV, Intel Capital, BlackRock, SoftBank Vision Fund и др. В 2021 году стартап был оценён в $1,1 млрд. Однако в последнее время компания столкнулась со сложностями: ей не удалось провести очередной раунд финансирования, а рыночная стоимость пошла на спад. Весной нынешнего года SambaNova сократила численность персонала на 15 %, уволив 77 из 500 сотрудников. Тогда говорилось, что компания намерена переориентироваться на предоставление облачного ИИ-инференса. А недавно стало известно, что SambaNova изучает возможность продажи бизнеса.

 Источник изображения: SambaNova

Источник изображения: SambaNova

По сведения Bloomberg, к SambaNova присматривается Intel. Уточняется, что переговоры находятся на начальной стадии, поэтому сделка может не состояться. Кроме того, не исключатся вероятность появления другого покупателя. Представитель SambaNova, не вдаваясь в детали, заявил, что компания «ищет стратегические возможности, которые соответствуют её миссии и интересам акционеров». В Intel от комментариев отказались.

Нужно отметить, что нынешний генеральный директор Intel Лип-Бу Тан (Lip-Bu Tan) одновременно является председателем правления SambaNova. Его венчурная компания Walden International была одним из первых инвесторов SambaNova, возглавив раунд финансирования Series A на сумму $56 млн в 2018 году. Таким образом, для Тана компания SambaNova — это хорошо знакомый бизнес.

Для самой Intel попытки закрепиться на рынке «большого» ИИ оказались не слишком успешными. Приобретение Nervana (Lake Crest/Knights Crest) закончилось полным провалом, а создававшиеся в то же время собственные Xeon Phi компания в итоге забросила. Продажи ускорителей поглощённой когда-то Habana оставляют желать лучшего, так что сейчас компания, по-видимому, пытается хоть как-то сбыть их остатки. Собственные Ponte Vecchio (Intel Max) компания так же оставила без поддержки, Falcon Shores она решила никому не продавать, а будущее Jaguar Shores не известно.

Постоянный URL: http://servernews.ru/1131762
02.11.2025 [11:15], Сергей Карасёв

NVIDIA может инвестировать до $1 млрд в ИИ-стартап Poolside, чтобы тот мог купить побольше её же ускорителей

Компания NVIDIA, по информации Bloomberg, может принять участие в крупном раунде финансирования стартапа Poolside, специализирующегося на ИИ-технологиях. Предполагается, что в рамках этой программы компания привлечет до $2 млрд, увеличив свою оценку в четыре раза.

Фирма Poolside, базирующаяся в Париже, была основана в начале 2023 года бывшим техническим директором GitHub Джейсоном Уорнером (Jason Warner) и Эйсо Кантом (Eiso Kant), предпринимателем в сфере ПО. Стартап занимается разработкой ИИ-инструментов для автоматизации написания программного кода. В конце 2024 года рыночная стоимость Poolside составляла около $3 млрд.

По имеющимся данным, NVIDIA может инвестировать в Poolside от $500 млн до $1 млрд. Участие в новом раунде финансирования также может принять Magnetar, которая вкладывает средства в высокотехнологичные проекты, такие как CoreWeave. В случае привлечения запланированных $2 млрд рыночная стоимость Poolside может увеличиться до $12 млрд. Полученные деньги стартап намерен направить на приобретение десятков тысяч ускорителей NVIDIA для задач ИИ.

 Источник изображения: NVIDIA

Источник изображения: NVIDIA

Представители Poolside, NVIDIA и Magnetar отказались давать комментарии по поводу инвестиционной программы. При этом отмечается, что Poolside ставит своей долгосрочной целью создание ИИ общего назначения (AGI). Такие системы будут обладать способностью к самообучению и интеллектом, подобным человеческому. Они теоретически смогут эффективно решать любые задачи, а не только специализированные, для которых изначально обучались.

Нужно также отметить, что не так давно компания Poolside заключила соглашение с CoreWeave в рамках проекта по строительству кампуса ЦОД Project Horizon мощностью 2 ГВт на территории ранчо Longfellow в Западном Техасе. Для энергоснабжения объекта будет использоваться природный газ, добываемый в местном Пермском бассейне. По условиям договора, CoreWeave предоставит Poolside кластер NVIDIA GB300 NVL72 с более чем 40 тыс. чипов для обучения ИИ-моделей.

Постоянный URL: http://servernews.ru/1131765
01.11.2025 [14:30], Сергей Карасёв

Гибридное хранилище QNAP TVS-AIh1688ATX обладает ИИ-производительностью до 36 TOPS

Компания QNAP Systems анонсировала сетевое хранилище корпоративного класса TVS-AIh1688ATX в «настольном» форм-факторе. Устройство предназначено для решения задач, связанных с виртуализацией, аналитикой данных на основе ИИ, обработкой больших объёмов информации и пр.

Новинка в зависимости от модификации несёт на борту процессор Intel Core Ultra 9 (24 ядра в конфигурации 8P+16E, 24 потока, до 5,6 ГГц) или Core Ultra 7 (20 ядер в конфигурации 8P+12E, 20 потоков, до 5,3 ГГц). В первом случае объём оперативной памяти DDR5 составляет 48 Гбайт, во втором — 32 Гбайт (для обеих версий предусмотрена возможность расширения до 192 Гбайт). В состав чипов Core входят графический ускоритель Intel Arc и нейропроцессорный блок (NPU) с ИИ-производительностью до 36 TOPS.

Модель TVS-AIh1688ATX имеет гибридную конфигурацию. Во фронтальной части расположены 12 отсеков для LFF-накопителей с интерфейсом SATA-3 и четыре отсека для SFF-изделий U.2 NVMe с интерфейсом PCIe 4.0 x2. Допускается горячая замена. Хранилище располагает двумя сетевыми портами 2.5GbE и двумя портами 10GbE (все на основе разъёмов RJ45). Есть по два порта USB 3.2 Gen2 Type-C и USB4 Type-C, три порта USB 3.2 Gen2 Type-A и интерфейс HDMI 2.1 с поддержкой видео с разрешением до 4096 × 2160 пикселей (60 Гц).

 Источник изображения: QNAP

Источник изображения: QNAP

Предусмотрены два слота расширения PCIe 4.0 x4 и один слот PCIe 4.0 x16. В них могут быть установлены дополнительные сетевые адаптеры 10/25/100GbE, а также двухпортовая карта Thunderbolt 5. За охлаждение отвечают три системных вентилятора диаметров 80 мм и два вентилятора в зоне CPU диаметром 97 мм. Диапазон рабочих температур простирается от 0 до +40 °C. Габариты хранилища составляют 294,3 × 369,89 × 319,8 мм, масса — 13,8 кг (без установленных накопителей). Производитель предоставляет на новинку пятилетнюю гарантию. 

Постоянный URL: http://servernews.ru/1131727
01.11.2025 [02:03], Владимир Мироненко

Большие расходы на большой ИИ: Microsoft увеличила выручку и прибыль, но акции упали из-за роста капзатрат на ЦОД и ускорители

Microsoft сообщила о впечатляющем начале 2026 финансового года, обусловленном растущим спросом на облачную инфраструктуру и ИИ. Выручка за I квартал, закончившийся 30 сентября 2025 года, выросла на 18 % по сравнению с аналогичным периодом прошлого года, до $77,67 млрд, превысив консенсус-прогноз аналитиков, опрошенных LSEG, в размере $75,33 млрд. Чистая прибыль (GAAP) выросла до $27,75 млрд или $3,72 на разводнённую акцию с $24,67 млрд или $3,30 на акцию за аналогичный период прошлого года при консенсус-прогнозе от LSEG в размере $3,67 на акцию.

Драйвером роста Microsoft по-прежнему оставалось подразделение Microsoft Intelligent Cloud, в которое входят облако Azure, а также Windows Server, SQL Server, GitHub, Nuance, Visual Studio и корпоративные сервисы. В сегменте «Дополнительные персональные вычисления» (More Personal Computing) выручка выросла на 4 % до $13,8 млрд благодаря росту доходов от Windows и рекламы. Это выше консенсус-прогноза StreetAccount в $12,83 млрд.

 Источник изображений: Microsoft

Источник изображений: Microsoft

Выручка Intelligent Cloud достигла $30,9 млрд (+28 %), превысив консенсус-прогноза StreetAccount в $30,25 млрд. Успех стал возможен благодаря росту Azure и других облачных сервисов на 40 %, что тоже выше консенсус-прогноза аналитиков, опрошенных StreetAccount, которые ожидали рост на 38,2 %. Общая выручка Microsoft Cloud достигла $49,1 млрд, увеличившись на 26 %, а коммерческие обязательства по исполнению контрактов выросли на 51 % до $392 млрд.

Компания заявила, что ожидает рост выручки Azure во II финансовом квартале на 37 %, что немного выше оценки Visible Alpha в 36,4 %, о чём сообщает Reuters. Финансовый директор Эми Худ (Amy Hood) заявила аналитикам в ходе телефонной конференции, что рост мог бы быть выше, если бы не ограничения по вычислительным мощностям, которые, по ожиданиям Microsoft, сохранятся как минимум до конца текущего финансового года в июне 2026 года.

Выручка в сегменте «Производительность и бизнес-процессы» (Microsoft Productivity and Business Processes) выросла на 17 % до $33,0 млрд, в первую очередь за счёт Microsoft 365, Dynamics 365 и LinkedIn, что выше консенсус-прогноза в $32,33 млрд, ожидаемого аналитиками, опрошенными StreetAccount. Доход от облачного сервиса Microsoft 365 увеличился на 17 %, от потребительского облачного сервиса Microsoft 365 — на 26 %, от LinkedIn — на 10 %, от Dynamics 365 — на 18 %.

«Наша облачная и ИИ-фабрика планетарного масштаба, совместно с Copilots в высокодоходных областях, способствует широкому распространению и реальному влиянию, — заявил Сатья Наделла (Satya Nadella), председатель совета директоров и генеральный директор Microsoft. — Именно поэтому мы продолжаем увеличивать инвестиции в ИИ, как в основной капитал, так и в персонал, чтобы реализовать огромные возможности, которые открывают перед нами».

Несмотря на рост финансовых показателей, акции Microsoft упали почти на 4 % в ходе расширенных торгов после того, как Эми Худ сообщила об ускорении роста капитальных затрат в этом финансовом году. В минувшем квартале капитальные затраты, включая финансовый лизинг, достигли $34,9 млрд, что существенно больше, чем в предыдущем квартале ($24,2 млрд), и выше прогноза в примерно $30 млрд. Среди крупных проектов — передовой ИИ ЦОД Fairwater стоимостью $3,3 млрд, который вскоре обзаведётся близнецом стоимостью $4 млрд. В 2026 финансовом году компания планирует нарастить капзатраты до $120 млрд.

Примерно половина этих расходов была направлена на краткосрочные активы, связанные с расширением вычислительных мощностей и заменой оборудования, в то время как долгосрочные активы в размере $11,1 млрд пошли на новые договоры аренды мощностей, которые, как ожидается, будут способствовать монетизации в течение следующих 15 лет, сообщил ресурс Converge! Network Digest. «Показатели капитальных затрат несколько тревожны», — отметил Боб Лэнг (Bob Lang), главный аналитик опционов Explosive Options, комментируя падение акций Microsoft.

Рост капзатрат с $20 млрд в I квартале 2025 финансового года до $34,9 млрд в I квартале 2026 финансового года (+75 %) свидетельствует об устойчивом инвестиционном цикле, направленном на поддержку её ИИ-инфраструктуры. В этом финансовом году Microsoft планирует увеличить общую ИИ-мощность более чем на 80 % и удвоить площадь своих ЦОД в течение следующих двух лет, что обусловлено ростом рабочих нагрузок ИИ и спросом на Azure.

В текущем квартале Microsoft ожидает выручку в размере от $79,5 до $80,6 млрд, что составляет в средней отметке $80,05 млрд, в то время как аналитики, по данным LSEG, прогнозируют $79,95 млрд. Насколько повлияет на компанию пересмотр соглашения с OpenAI, ради которой Microsoft вкладывала столько денег в ИИ-инфраструктуру, пока не известно. Зато известно, что из-за инвестиций в OpenAI компания по итогам текущего квартала потеряла $3,1 млрд чистой прибыли. И что компания хочет большей самостоятельности в сфере ИИ.

Постоянный URL: http://servernews.ru/1131705
01.11.2025 [01:07], Владимир Мироненко

NVIDIA продаст Южной Корее 260 тыс. ускорителей для создания суверенной ИИ-инфраструктуры

NVIDIA объявила на саммите АТЭС о стратегическом партнёрстве с рядом ведущих южнокорейских компаний и Министерством науки и ИКТ (MSIT) Южной Кореи, в рамках которого в стране будет развёрнута ИИ-инфраструктура с использованием 260 тыс. ИИ-ускорителей NVIDIA для поддержки суверенного ИИ, развития робототехники, производства и цифровой трансформации в различных отраслях. Как сообщается в пресс-релизе, масштабную инициативу поддержала коалиция крупнейших компаний Южной Кореи, включающая Samsung Electronics, SK Group, Hyundai Motor Group, NAVER Cloud, LG и т.д.

 Источник изображения: NVIDIA

Источник изображения: NVIDIA

Согласно соглашению, MSIT развернёт до 50 тыс. ускорителей NVIDIA у облачных провайдеров NHN Cloud, Kakao и NAVER Cloud, реализуя свою программу по созданию суверенной ИИ-инфраструктуры. На первом этапе буде установлено 13 тыс. ускорителей NVIDIA Blackwell с последующим наращиванием их количества в ближайшие годы. Samsung, SK Group и Hyundai Motor Group построят ИИ-фабрики, каждая из которых будет оснащена до 50 тыс. ускорителей NVIDIA; ещё 60 тыс. ускорителей развернёт NAVER.

Samsung заявила, что использует ускорители NVIDIA для внедрения ИИ на всех этапах производства чипов, а также для разработки и проектирования микросхем, что позволит создать новое поколение полупроводников, мобильных устройств и робототехники с расширенными возможностями ИИ. Как сообщает SiliconANGLE, на планируемом Samsung заводе с «единой интеллектуальной сетью» ИИ будет непрерывно отслеживать и анализировать производственные условия, делать прогнозы, предоставлять информацию для технического обслуживания и оптимизировать все процессы для повышения производительности производства микросхем.

 Источник изображения: NVIDIA

Источник изображения: NVIDIA

Для этого компания будет активно использовать цифровых двойников на базе ИИ, или виртуальные копии своих микросхем, созданные с помощью NVIDIA CUDA-X, cuLitho, моделей Nemotron, а также Omniverse. Используя платформу NVIDIA Omniverse, компания создаст цифровые двойники каждого компонента, используемого в полупроводниках, включая память, логику, современную компоновку и т.д.

Также компания планирует создать цифровых двойников своих производственных предприятий и дорогостоящего оборудования, что позволит моделировать процессы производства чипов в виртуальной среде, где она сможет проверить их работу до запуска реальных производственных линий. Это позволит выявлять отклонения и определять, где необходимо профилактическое обслуживание, как оптимизировать производство и многое другое, а затем применять полученные знания на своем реальном заводе.

 Источник изображения: Samsung

Источник изображения: Samsung

В свою очередь, SK Group разрабатывает ИИ-фабрику на базе до 60 тыс. ускорителей NVIDIA, включая ИИ-облако на базе ускорителей RTX PRO 6000 Blackwell Server Edition. После ввода в эксплуатацию (завершение заключительного этапа ожидается в конце 2027 года) она станет одной из крупнейших в стране ИИ-фабрик, которая будет обслуживать дочерние компании SK, включая SK Hynix и SK Telecom, а также внешние организации по модели GPUaaS. Сообщается, что SK Telecom предоставит отечественным производителям и стартапам суверенную инфраструктуру для создания цифровых двойников и ИИ-агентов, а также приложений для робототехники. Какие именно ускорители NVIDIA будут использовать Samsung и SK Group, пока не уточняется.

Hyundai Motor Group сообщила, что совместно с MSIT и NVIDIA создаёт ИИ-фабрику с 50 тыс. ускорителей NVIDIA Blackwell, которая обеспечит обучение, валидацию и развёртывание ИИ-моделей для производства, автономного вождения и робототехники. Компания планирует использовать NVIDIA DRIVE AGX Thor, NeMo, Nemotron и Omniverse для моделирования заводских процессов. Партнёрство будет способствовать созданию Центра ИИ-приложений и Центра ИИ-технологий. Компания также заявила, что построит суперкомпьютер, пишет Data Center Dynamics.

 Источник изображения: Hyundai Motor Company

Источник изображения: Hyundai Motor Company

Компания NAVER добавит 60 тыс. ускорителей в свою инфраструктуру NVIDIA AI, ориентируясь на задачи суверенного и физического ИИ. Компания планирует разрабатываать отраслевые модели для судостроения, безопасности и услуг в сфере ИИ для граждан Южной Кореи.

Также сообщается, что MSIT возглавляет проект Sovereign AI Foundation Models в сотрудничестве с LG AI Research, NAVER Cloud, NC AI, SK Telecom, Upstage и NVIDIA. В его реализации будут использоваться ПО NVIDIA NeMo и открытые наборы данных NVIDIA Nemotron, что позволит использовать локальные данные для разработки моделей с поддержкой корейского языка с функциями рассуждения и речи.

 Источник изображения: SK Telecom

Источник изображения: SK Telecom

NVIDIA и LG сотрудничают в поддержке академических кругов и стартапов, используя модели LG EXAONE, включая модель EXAONE Path в сфере здравоохранения для диагностики рака, созданную на основе фреймворка MONAI. Компания также сотрудничает с NVIDIA в поддержке стартапов в области физического ИИ и академических исследований.

В свою очередь, Корейский институт научно-технической информации (KISTI) сотрудничает с NVIDIA с целью создания Центра передового опыта в области квантовых вычислений и научных исследований. Используя свой суперкомпьютер HANGANG шестого поколения и платформу NVIDIA CUDA-Q, KISTI будет изучать гибридные квантовые вычисления, физически информированные ИИ-модели (physics-informed AI models) и базовые SF-модели (Scientific Foundation Models), созданные с помощью фреймворка NVIDIA PhysicsNeMo.

Постоянный URL: http://servernews.ru/1131723
31.10.2025 [16:11], Руслан Авдеев

«Сарай» для ИИ: в Мичигане построят гигаваттный ЦОД The Barn для проекта OpenAI Stargate

Компании OpenAI, Oracle и Related Digital построят в городке Салин (Saline) в Мичигане кампус ЦОД The Barn мощностью более 1 ГВт. Это очередное расширение проекта Stargate. Строительство многомиллиардного кампуса начнётся в 2026 году, это часть усилий OpenAI и Oracle по развёртыванию 4,5 ГВт дополнительных мощностей Stargate в США.

Кампус площадью более 100 га будет состоять из трёх одноэтажных строений площадью более 51 тыс. м2, которые будут экологичными и энергоэффективными (стандарт LEED). Их оснастят замкнутыми системами охлаждения, ограничивающими потребление воды до уровня, сопоставимого с использованием водных ресурсов в офисном здании, говорят компании. DTE Energy готова на 100 % обеспечить проект электроэнергией, также застройщики профинансируют создание аккумуляторного хранилища. Генеральный подрядчик — компания Walbridge из Детройта. Related Digital, ответственная за строительство, является подразделением Related Companies.

 Источник изображения: Brad Switzer / Unsplash

Источник изображения: Brad Switzer / Unsplash

Площадка получила имя The Barn (сарай или амбар) в честь исторического здания на её территории. Проект создаётся эксклюзивно для Oracle. На текущий момент для Stargate строятся площадки в Техасе, Вайоминге, Миссури и Висконсине. Новый проект — отражение стремления гиперскейлеров диверсифицировать доступ к источникам энергии. Салин находится на северо-востоке Мичигана приблизительно в 72 км от Детройта. Речь идёт о преимущественно сельском районе, при этом близко расположенном к крупным транспортным магистралям, с доступом к электро- и водоснабжению и рабочей силе.

Регион Великих озёр в США становится всё популярнее среди гиперскейлеров благодаря доступности и надёжности энергоснабжения, обширным земельным ресурсам и близости ключевых ВОЛС. В Мичигане Switch управляет крупным кампусом ЦОД в Гранд-Рапидс (Grand Rapids). В Индиане AWS завершила строительство первой очереди своего крупнейшего кластера Project Rainier. Microsoft достраивает в Висконсине свой «самый передовой ИИ ЦОД» Fairwater.

Постоянный URL: http://servernews.ru/1131688
31.10.2025 [13:49], Сергей Карасёв

NVIDIA представила платформу IGX Thor для «физического ИИ» на периферии

Компания NVIDIA анонсировала аппаратную платформу IGX Thor, предназначенную для «переноса» ИИ из цифрового мира в физический. Решение разработано специально для промышленных, робототехнических и медицинских сред. IGX Thor позволяет проектировать периферийные устройства с ИИ-функциями, поддерживающие получение информации от различных датчиков.

В семейство IGX Thor входят комплекты для разработчиков IGX Thor Developer Kit и IGX Thor Developer Kit Mini, а также решения IGX T7000 (плата Micro-ATX) и IGX T5000 («система на модуле»). Комплекты IGX Thor Developer Kit, в свою очередь, представлены в версиях с ускорителем NVIDIA RTX PRO 6000 Blackwell Max-Q Workstation Edition и NVIDIA RTX Pro Blackwell 5000. Вариант IGX Thor Developer Kit Mini не предполагает наличие дискретного GPU.

Старшая из новинок, IGX Thor Developer Kit с ускорителем NVIDIA RTX PRO 6000 Blackwell Max-Q Workstation Edition, содержит GPU на архитектуре Blackwell с 24 064 ядрами. Предусмотрено 96 Гбайт памяти GDDR7 с пропускной способностью до 1792 Гбайт/с. Заявленная ИИ-производительность достигает 5581 Тфлопс в режиме FP4-Sparse.

Модификация IGX Thor Developer Kit на базе NVIDIA RTX Pro Blackwell 5000 несёт на борту GPU поколения Blackwell с 14 080 ядрами. Объём встроенной памяти составляет 48 Гбайт, её пропускная способность — 1344 Гбайт/с. Быстродействие ИИ достигает 4293 Тфлопс (FP4-Sparse).

 Источник изображения: NVIDIA

Источник изображения: NVIDIA

Все три новинки, включая версию Mini (обладает ИИ-быстродействием 2070 Тфлопс), располагают интегрированным GPU на архитектуре Blackwell с 2560 ядрами и максимальной частотой 1,57 ГГц. Присутствует CPU с 14 ядрами Arm Neoverse-V3AE с частотой до 2,6 ГГц. Изделия оборудованы 128 Гбайт памяти LPDDR5X с пропускной способностью 273 Гбайт/с, а также накопителем M.2 NVMe (PCIe 5.0 x2) вместимостью 1 Тбайт. Старшие модели наделены двумя слотами PCIe 5.0 (x8 и x16), младшая — разъёмом M.2 Key E, в который установлен комбинированный адаптер Wi-Fi 6e / Bluetooth.

Изделия поддерживают различные интерфейсы, включая (в зависимости от модели) USB 3.2 Gen2 Type-C, USB-3.2 Gen2 Type-A, DisplayPort 1.4a, HDMI 2.0b, 1/5GbE (RJ45), 25GbE (QSFP28), 100GbE (QSFP28) и пр. Для новинок гарантированы 10-летний жизненный цикл и долгосрочная поддержка программного стека NVIDIA AI. В продажу все изделия поступят в декабре нынешнего года.

Постоянный URL: http://servernews.ru/1131690
31.10.2025 [01:02], Андрей Крупин

Positive Technologies выпустила Runtime Radar — Open Source-решение для защиты контейнеров

Компания Positive Technologies опубликовала на площадке GitHub открытое решение Runtime Radar, предназначенное для мониторинга безопасности и реагирования на инциденты в контейнерных средах. Продукт предназначен для работы с платформой Kubernetes в среде Linux.

В основу Runtime Radar положены технологии eBPF и Tetragon для глубокого анализа событий, связанных с работой контейнеров, — процессов, сетевых соединений и изменений прав доступа, — что позволяет немедленно обнаруживать подозрительную активность. Инструмент предлагает централизованное управление всей инфраструктурой, включая работу с несколькими кластерами, и настраивается с помощью готовых политик безопасности. Для расследования инцидентов предусмотрен графический интерфейс, а для интеграции в существующие процессы мониторинга поддерживаются стандартные протоколы и механизмы, такие как syslog, SMTP и webhook.

 Пользовательский интерфейс Runtime Radar (источник изображения: runtimeradar.com)

Пользовательский интерфейс Runtime Radar (источник изображения: runtimeradar.com)

По словам Positive Technologies, контейнерные технологии, в первую очередь платформа Kubernetes, стали отраслевым стандартом для развёртывания приложений и управления ими. Их повсеместное распространение сделало среду выполнения новой целью для атак злоумышленников. Существующие меры защиты часто сосредоточены на стадиях разработки и сборки, и запущенные контейнеры остаются уязвимыми для таких угроз, как несанкционированное использование ресурса, эскалация привилегий и утечка конфиденциальных данных. В результате многие компании сталкиваются с необходимостью мониторинга сложных инфраструктур в реальном времени, но не имеют для этого простых и доступных инструментов. Runtime Radar призван решить эту проблему.

Подчёркивается, что запуск Runtime Radar — это ещё один вклад Positive Technologies в развитие отечественного Open Source-сообщества. Компания планирует и дальше активно развивать проект, дополняя его новыми функциями.

Постоянный URL: http://servernews.ru/1131666
31.10.2025 [00:24], Владимир Мироненко

Google вынуждена отказывать клиентам из-за нехватки ИИ-ускорителей — разобраны даже TPU прошлых поколений

Холдинг Alphabet, включающий компанию Google, объявил финансовые результаты III квартала 2025 года, которые превзошли прогнозы аналитиков, в том числе благодаря успешной работе облачного подразделения на фоне высокого спроса на ИИ-сервисы. Спрос настолько велик, что у компании нет свободных TPU-ускорителей, а ожидаемые капзатраты до конца года вырастут ещё на $6–$8 млрд. Акционеры должны радоваться — согласно данным Bloomberg, с начала года ценные бумаги Google выросли на 45 %.

Выручка Alphabet в минувшем квартале, закончившемся 30 сентября, выросла год к году на 16 %, впервые превысив рубеж в $100 млрд и составив $102,3 млрд. Это выше консенсус-прогноза аналитиков, опрошенных LSEG, равного $99,89 млрд. Холдинг отметил, что рост выручки Google Cloud, поискового бизнеса Google, YouTube от рекламы исчисляется двузначными числами в процентах. Скорректированная прибыль на разводнённую акцию составила $3,10 при прогнозе от LSEG в размере $2,33.

Чистая прибыль холдинга выросла на 33 % до $34,98 млрд, прибыль на акцию — на 35 % до $2,87. В сентябре Google была оштрафована антимонопольными органами Европейского союза на $3,45 млрд из-за антиконкурентной практики в рекламном бизнесе, что отразилось на величине чистой прибыли.

Выручка облачного подразделения Google Cloud увеличилась год к году на 34 % до $15,16 млрд, превысив прогноз StreetAccount в размере $14,74 млрд, в основном за счёт роста доходов Google Cloud Platform (GCP) по основным продуктам GCP, ИИ-инфраструктуре и решениям для генеративного ИИ. Операционная прибыль от облачных технологий выросла на 85 % до $3,6 млрд, а маржа увеличилась с 17,1 % в III квартале 2024 года до 23,7 % в III квартале 2025 года.

 Источник изображений: Google

Источник изображений: Google

Объём невыполненных работ по контрактам Google Cloud увеличился на 46 % по сравнению с предыдущим кварталом до $155 млрд, что, по словам финансового директора Alphabet Анат Ашкенази (Anat Ashkenazi), вызвано высоким спросом на корпоративную ИИ-инфраструктуру, включая чипы, и спросом на ИИ-чат-бот Gemini 2.5. Число ежемесячных пользователей Gemini превысило 650 млн.

Генеральный директор Сундар Пичаи (Sundar Pichai) сообщил, что число клиентов облачных сервисов увеличилось почти на 34 % в годовом исчислении, причём более 70 % использует ИИ-продукты. Пичаи отметил, что компания в минувшем квартале заключила больше сделок стоимостью более $1 млрд каждая, чем за предыдущие два года вместе взятые. В том числе речь идёт о крупном контракте с Anthropic, подписанном ранее в этом месяце, и шестилетнем контракте с Meta на сумму более $10 млрд, заключённом в августе.

Ашкенази сообщила, что Google снова повышает прогноз капитальных затрат на 2025 год до $91–$93 млрд с предыдущего в размере $85 млрд. Капзатртаты компании в отчётном квартале составили $24 млрд, что больше, чем $22,4 млрд во II квартале и $17,2 млрд в I квартале. По словам Ашкенази, «подавляющее большинство» капитальных затрат ушло на техническую инфраструктуру: около 60 % — на серверы и 40 % — на ЦОД сетевое оборудование, пишет Data Center Dynamics. Ресурс уточнил, что крупные инвестиции в ЦОД, объявленные в этом квартале, включают $15 млрд инвестиций в штате Андхра-Прадеш (Индия), $5,8 млрд в Бельгии и по $9 млрд в Южной Каролине, Оклахоме и Вирджинии (США).

Согласно прогнозу Ашкенази, напряжённая ситуация с удовлетворением высокого спроса на ИИ-инфраструктуру сохранится в четвёртом квартале и в 2026 году. Пичаи отметил запуск инстансов A4X Max на базе NVIDIA GB300, а также то, что TPU седьмого поколения — Ironwood — скоро станет общедоступным. Ранее, выступая на мероприятии венчурного фонда Andreessen Horowitz (a16z) вице-президент и генеральный директор Google по ИИ и инфраструктуре Амин Вахдат (Amin Vahdat) заявил, что спрос на TPU настолько велик, что компании приходится отказывать клиентам.

Даже TPU прошлых поколений, вышедшие семь-восемь лет назад, загружены на 100 %. При этом компания, с одной стороны, готова арендовать у CoreWeave, своего прямого конкурента в области ИИ-облаков, ускорители NVIDIA Blackwell, которые фактически достанутся OpenAI, а с другой — готова, по слухам, предоставить малым облачным провайдерам свои TPU.

Говоря о проблемах, с которыми сталкиваются гиперскейлеры, особенно при строительстве ЦОД, Вахдат сообщил, что отрасль в настоящее время ограничена такими факторами, как ограниченные ресурсы электроэнергии, доступность земли, получение разрешений и проблемы с цепочкой поставок. В качестве одной из ответных мер компания пошла на перезапуск АЭС Duane Arnold Energy Center (DAEC).

Постоянный URL: http://servernews.ru/1131661
30.10.2025 [18:24], Сергей Карасёв

OpenYard представила объектное хранилище Vortex Object на платформе Intel

Российский разработчик и производитель серверного оборудования OpenYard сообщил о выпуске объектного хранилища Vortex Object, которое, по словам компании, предназначено для масштабируемого и отказоустойчивого хранения неструктурированных данных.

Программно-аппаратный комплекс базируется на 2U-сервере OpenYard RS201I-68R. Устройство оснащается процессорами Intel Xeon Gold 6342 поколения Ice Lake-SP (24C/48T) с максимальной частотой 3,5 ГГц. Объём оперативной памяти DDR4 составляет 512 Гбайт на узел. Сервер допускает установку 12 накопителей LFF (173 Тбайт «сырой» ёмкости) и двух накопителей SFF. Упомянуты три слота PCIe 4.0 x16, пять разъёмов PCIe 4.0 x8, по одному слоту OCP 3.0 и OCP 2.0. Есть четыре сетевых порта 25GbE и выделенный сетевой порт 1GbE BMC. Питание обеспечивают два блока мощностью 1600 Вт с резервированием.

Решение совместимо с Amazon S3 API, в том числе с расширениями, а также с GeeseFS. Реализованы различные средства безопасности (SAML, тенанты, RBAC, ACL/Policy) и защиты данных (геораспределённый кластер, фактор реплицированния для бакетов или объектов, EC). Управление системой осуществляется через интерфейс UI и CLI-инструменты, а мониторинг и сбор метрик в реальном времени выполняются с помощью Prometheus и Grafana.

 Источник изображения: OpenYard

Источник изображения: OpenYard

Объектное хранилище может применяться в облачных, локальных и гибридных средах. В число возможных сценариев использования входят резервное копирование и архивирование, сбор и аналитика данных, системы видеонаблюдения, хостинг статических сайтов, хранение мультимедийных данных и пр. Минимальная конфигурация включает четыре узла, но допускается масштабирование до десятков стоек.

«Релиз Vortex Object — это важный шаг для OpenYard. Мы выходим на новый для нас рынок систем хранения данных, формируя портфель продуктов, способный закрывать все потребности заказчиков. OpenYard двигается от модели производителя серверного оборудования к модели поставщика конечных решений. VortexObject сочетает надёжность, масштабируемость, отказоустойчивость и производительность, востребованные в государственном секторе, больших корпорациях и сервис-провайдерах», — говорит компания.

Постоянный URL: http://servernews.ru/1131639

Входит в перечень общественных объединений и религиозных организаций, в отношении которых судом принято вступившее в законную силу решение о ликвидации или запрете деятельности по основаниям, предусмотренным Федеральным законом от 25.07.2002 № 114-ФЗ «О противодействии экстремистской деятельности»;