Лента новостей
|
03.12.2025 [13:40], Руслан Авдеев
ИИ-столбы: британский стартап Conflow Power разместит NVIDIA Jetson в уличных фонаряхБританский стартап Conflow Power Group намерен разместить ИИ-оборудование в уличных фонарях. Речь идёт об «умных» фонарях компании iLamp, которые дооснастят вычислительными модулями NVIDIA Jetson, сообщает Datacenter Dynamics. Базовый вариант модели сегодня обойдётся в £7,5 тыс. ($9,9 тыс.). Компания заявляет, что покупатели могли бы зарабатывать сами, требуя плату с ИИ-провайдеров за использование ИИ-оборудования. Ранее в 2025 году Conflow Power анонсировала проект iLamp — обычный фонарный столб, дополненный солнечными панелями и аккумуляторами. Кроме того, конструкция предусматривала поддержку 5G и Wi-Fi, модули управления дорожным движением, видеонаблюдение, датчики контроля окружающей среды и прочие компоненты. Для работы собственно iLamp требуется 80 Вт, но внешнее оборудование вроде Jetson сможет получать до 200–260 Вт.
Источник изображения: Conflow Power Group Conflow Power даже заявляет, что классические ЦОД можно заменить на iLamps, оснащённые модулями NVIDIA Jetson. Фактически речь идёт о создании распределённого дата-центра — экологически безопасного, не требующего водных ресурсов и с низкой задержкой, поскольку серверы находятся рядом с пользователями, говорит компания. По имеющимся данным, Conflow уже ведёт переговоры с несколькими компаниями и даже правительствами о внедрении новой технологии. Ранее в этом году бельгийский стартап Tonomia объявил о сотрудничестве с британским поставщиком ИИ-оборудования Panchaea для формирования eCloud — распределённой ИИ-платформы, размещаемой в системах солнечных панелей на автопарковках. Правда, eCloud предполагает использование более традиционных edge-серверов, а не Jetson AGX Thor или IGX Thor.
03.12.2025 [13:25], Сергей Карасёв
AWS представила ИИ-ускорители Trainium3: 144 Гбайт памяти HBM3E и 2,52 Пфлопс в режиме FP8Облачная платформа Amazon Web Services (AWS) анонсировала ускорители Trainium3 для задач ИИ, а также серверы Trainium3 UltraServer (Trn3 UltraServer). Эти машины, как утверждается, превосходят решения предыдущего поколения — Trainium2 UltraServer — в 4,4 раза по производительности, в 4 раза по энергоэффективности и почти в 4 раза по пропускной способности памяти. Чипы Trainium3 изготавливаются по 3-нм технологии TSMC. Они оснащены 144 Гбайт памяти HBM3E с пропускной способностью до 4,9 Тбайт/с. По сравнению с Trainium2 объём памяти увеличился в 1,5 раза, её пропускная способность — в 1,7 раза. Ранее сообщалось, что энергопотребление новых ускорителей может достигать 1 кВт. Изделие Trainium3 предназначено для высокоплотных и сложных параллельных рабочих нагрузок с использованием расширенных типов данных (MXFP8 и MXFP4). По утверждениям AWS, на операциях FP8 быстродействие достигает 2,52 Пфлопс. Для сравнения, AMD Instinct MI355X показывает результат в 10,1 Пфлопс, а чип поколения NVIDIA Blackwell — 9 Пфлопс. Как уточняет The Register, ускорители Trainium3 используют структурированную разрежённость (structured sparsity) формата 16:4, что фактически поднимает производительность в четыре раза — до 10 Пфлопс — на таких задачах, как обучение ИИ-моделей. Системы Trainium3 UltraServer объединяют 144 ускорителя Trainium3, которые соединены посредством интерконнекта NeuronSwitch-v1: эта технология, по оценкам AWS, увеличивает пропускную способность в два раза по сравнению с машинами UltraServer предыдущего поколения. Усовершенствованная сетевая архитектура Neuron Fabric сокращает задержки при передаче данных между чипами до менее чем 10 мкс. Каждая система Trainium3 UltraServer оперирует 20,7 Тбайт памяти HBM3E с общей пропускной способностью 706 Тбайт/с. Заявленная производительность достигает 362 Пфлопс в режиме FP8. Применённые в Trainium3 технологии, как заявляет AWS, дают возможность создавать приложения ИИ с практически мгновенным откликом. Платформа EC2 UltraClusters 3.0 позволяет объединять тысячи систем UltraServer, содержащих до 1 млн ускорителей Trainium, что в 10 раз больше, чем в случае изделий предыдущего поколения. При этом следующее поколение ускорителей Trainium4 получит интерконнект NVLink Fusion шестого поколения.
03.12.2025 [09:33], Владимир Мироненко
Foxconn поможет Google c TPU-серверами, а Google поможет Foxconn с «умными» роботамиFoxconn получила крупный заказ Google на поставку TPU-узлов, сообщил ресурс Taiwan Economic Daily со ссылкой на информированные источники. С учётом того, что Meta✴ планирует использовать ИИ-ускорители TPU в своих ИИ ЦОД в 2027 году, у Foxconn появилась возможность укрепить партнёрство с обоими гиперскейлерами. Да и самой Google уже сейчас катастрофически не хватает TPU для собственного облака. Foxconn уже является ключевым поставщиком платформ NVIDIA, хотя последняя всё больше ужесточает контроль над производством. По данным источников, ИИ-серверы для Google в основном поставляются в виде стоек с TPU. В этом году Google анонсировала тензорный ускоритель седьмого поколения TPU v7 Ironwood, первый чип компании, специально созданный для инференса, хотя область его применения также включает обучение крупномасштабных моделей и сложное обучение с подкреплением (RL). На его базе можно создавать кластеры (Pod) с объединением в единый вычислительный комплекс до 9216 чипов. По собственным данным Foxconn, он уже способна выпускать более 1000 ИИ-стоек в неделю. К концу 2026 года компания планирует увеличить этот показатель до более 2000 ед./нед. Также планы Foxconn включают расширение присутствия в США, где компания намерена не только осуществлять сборку серверов, но и наладить производство ключевых компонентов, таких как кабели, сетевое оборудование, системы теплоотвода и электропитания. Помимо выпуска ASIC-серверов, сотрудничество Foxconn и Google включает создание роботов, управляемых ИИ. Foxconn заключила партнерство с Intrinsic, робототехнической компанией, входящей в состав Alphabet, материнской компании Google, с целью создания совместного предприятия в США для строительства завода по выпуску роботов с поддержкой ИИ. Партнёры планируют интегрировать ИИ-платформу Intrinsic и интеллектуальную производственную платформу Foxconn для создания адаптивных интеллектуальных робототехнических решений, что ещё больше повысит эффективность производственных объектов Foxconn и всей её экосистемы. В прошлом месяце Google выпустила большую языковую модель Gemini 3, которая, как утверждается, превзошла OpenAI GPT-5 по нескольким ключевым показателям и ИИ-модели других конкурентов, что также способствовало росту популярности TPU. Согласно данным инсайдеров, Google призвала цепочку поставок ускориться в связи с предстоящим поступлением новых крупных заказов на TPU.
03.12.2025 [09:09], Руслан Авдеев
Пять нониллионов IPv6-адресов: радиолюбителям попросили выделить «немного» интернет-пространстваВ эпоху зарождения интернета радиолюбителям предоставили более 16 млн IPv4-адресов. Теперь же Инженерному совету интернета (IETF) предложили выделить тому же сообществу пять нониллионов IPv6-адресов, сообщает The Register. Правда, неправительственная организация радиолюбителей Amateur Radio Digital Communications (ARDC), которая получила IPv4-блок (44/8) ещё в 1981 году, продала в 2019 году четверть своих адресов компании Amazon за $108 млн, которая неплохо зарабатывает на сдаче их в аренду. Региональные интернет-регистраторы (RIR) требуют от желающих получить IP-адреса обоснование в их потребности, наличие инфраструктуры для их использования, а также соответствие ряду других критериев. «Произвольная» раздача IP-адресов, как это было сорок лет назад, сегодня случается довольно редко. В проекте для IETF отмечается, что радиолюбители «выстроили практики и процедуры вокруг 44/8», и по различным причинам любительскому сообществу было бы нецелесообразно использовать RIR для получения IPv6-блоак для будущих потребностей. Тем не менее предлагается, чтобы Администрация адресного пространства интернет (IANA) зарезервировало блок IPv6-адресов 44::/16 и взаимодействовало по этому поводу с RIR.
Источник изображения: LinkedIn Sales Solutions/unsplash.com Как отметил на днях представитель APNIC, в настоящее время все пять RIR работают над обновлением политики, определяющей их роли и прочие параметры работы. На этом фоне запрос в IETF о передаче IANA определённого IP-блока конкретной организации, скорее всего, тут же упрётся в вопрос регулирования создания новых глобальных реестров. Радиолюбители просят блок из 2112 адресов — речь идёт о «всего» пяти нониллионов из 340 ундециллионов (2128) доступных. Идею назвали необычной, но стоящей рассмотрения, поскольку у сообщества радиолюбителей весьма богатая история интересных проектов, данные которых позже нередко находят применение в других сферах. Также подчёркивается, что предложение по-своему опережает время, особенно в свете того, что человечество создаёт всё больше сетей в космосе, из-за чего неплохо бы заранее продумать, как радиосети с высокой задержкой сигнала будут взаимодействовать с остальным интернетом. Кроме того, даже APNIC считает, что IPv6 на практике оказался не так уж и нужен — перспективы перехода на протокол не особенно привлекательны из-за меняющейся структуры глобальной сети.
03.12.2025 [01:28], Владимир Мироненко
AWS «сдалась на милость» NVIDIA: анонсированы ИИ-ускорители Trainium4 с шиной NVLink FusionAWS готовит Arm-процессоры Graviton5, которые составят компанию ИИ-ускорителям Trainium4 с интерконнектом NVLink Fusion, фирменными EFA-адаптерам и DPU Nitro 6 с движком Nitro Isolation Engine. Но что более важно, все они будут «упакованы» в стойки стандарта NVIDIA MGX. Amazon и NVIDIA объявили о долгосрочном партнёрстве, в рамках которого ИИ-ускорители Trainium4 получит шину NVIDIA NVLink Fusion шестого поколения (по-видимому, 3,6 Тбайт/с в дуплексе), которая позволит создать стоечную платформу нового поколения, причём, что интересно, на базе архитектуры NVIDIA MGX, которая передана в OCP. Пикантность ситуации в том, что AWS годами практически игнорировала OCP, самостоятельно создавая стойки, их компоненты, включая СЖО, и архитектуру ИИ ЦОД в целом. Даже в нынешнем поколении стоек с GB300 NVL72 отказалась от референсного дизайна NVIDIA. NVIDIA же напирает на то, что для гиперскейлерам крайне трудно заниматься кастомными решениями — циклы разработки стоечной архитектуры занимают много времени, поскольку помимо проектирования специализированного ИИ-чипа, гиперскейлеры должны озаботиться вертикальным и горизонтальным масштабированием, интерконнектами, хранилищем, а также самой конструкцией стойки, включая лотки, охлаждение, питание и ПО.
Источник изображения: NVIDIA Вместе с тем управление цепочкой поставок отличается высокой сложностью, так как требуется обеспечить согласованную работу десятков поставщиков, ответственных за десятки тысяч компонентов. И даже одна задержка поставки или замена одного компонента может поставить под угрозу весь проект. Платформа NVIDIA если не устраняет целиком, то хотя бы смягчает эти проблемы, предлагая готовые стандартизированные решения, которые могут поставлять множество игроков рынка. По словам NVIDIA, в отличие от других подходов к масштабированию сетей, NVLink — проверенная и широко распространённая технология. В сочетании с фирменным ПО NVLink Switch обеспечивает увеличение производительности и дохода от ИИ-инференса до трёх раз, объединяя 72 ускорителя в одном домене. Пользователи, внедрившие NVLink Fusion, могут использовать любую часть платформы — каждый компонент может помочь им быстро масштабироваться для удовлетворения требований интенсивного инференса и обучения моделей агентного ИИ, говорит NVIDIA. Что касается самих ускорителей Trainium4, то в сравнении с Trainium3 они будут вшестеро быстрее в FP4-расчётах, втрое быстрее в FP8-вычислениях, а пропускная способность памяти будет увеличена вчетверо. Впрочем, пока собственные ускорители Amazon не всегда могут составить конкуренцию чипам NVIDIA.
02.12.2025 [18:20], Сергей Карасёв
Российская ИИ-система Delta Sprut XL поддерживает до 25 GPU
delta computers
gpu
granite rapids
h200
hardware
intel
nvidia
ocp
rtx
sierra forest
xeon
ии
сделано в россии
сервер
Российская компания Delta Computers представила OCP-систему Delta Sprut XL, предназначенную для ресурсоёмких нагрузок, таких как обучение ИИ-моделей, инференс, научное моделирование и задачи HPC. В основу новинки положена аппаратная платформа Intel Xeon 6. CPU-секция допускает установку двух процессоров Sierra Forest-SP или Granite Rapids-SP с показателем TDP до 330 и 350 Вт соответственно: в первом случае могут быть задействованы в общей сложности до 288 E-ядер, во втором — до 172 P-ядер. Доступны 32 слота для модулей оперативной памяти DDR5-6400 RDIMM или DDR5-8000 MRDIMM суммарным объёмом до 8 Тбайт. Могут быть установлены четыре SFF-накопителя U.2 толщиной 15 мм с интерфейсом PCIe 5.0 (NVMe) или восемь таких SSD толщиной 7 мм. Кроме того, есть два коннектора M2.2280 (PCIe). Реализованы четыре слота PCIe 5.0 x16 для карт типоразмера HHHL и слот OCP 3.0 (PCIe 5.0). Присутствуют разъёмы USB 3.0 Type-A и miniDP, а также выделенный сетевой порт управления 1GbE. В системе Delta Sprut XL ускорители на базе GPU устанавливаются в отдельные модули. В общей сложности могут использоваться до 20 карт NVIDIA H200 или до 25 экземпляров NVIDIA RTX Pro 6000 Blackwell Server Edition. Каждый квартет NVIDIA H200 объединён при помощи NVLink. «Delta Computers представляет GPGPU-платформу, способную консолидировать до 20 ускорителей NVIDIA H200 в одном кластере. При этом необходимость использования InfiniBand или 400GbE появляется лишь в случае потребности у заказчика в ещё большем количестве ускорителей — при таком сценарии предусмотрены отдельные слоты расширения для объединения нескольких платформ Delta Sprut XL в единый кластер», — отмечает компания. Питание обеспечивается посредством централизованного шинопровода OCP на 12 или 48 В. Применено встроенное ПО Delta BMC, предназначенное для мониторинга (сбор телеметрии, отслеживание состояния платформы, её модулей и компонентов) и удалённого администрирования серверного оборудования. Эта прошивка включена в реестр Минцифры РФ и сертифицирована ФСТЭК.
02.12.2025 [18:18], Руслан Авдеев
Утечка бюджетного отчёта Великобритании произошла из-за ошибок в настройках плагина для WordPress и хостингаУправление бюджетной ответственности Великобритании (Office for Budget Responsibility, OBR) обвинило в утечке государственного бюджетного отчёта Economic and Fiscal Outlook (EFO) ошибки в конфигурации сайта на движке WordPress, сообщает The Register. В докладе отмечается, что WordPress может быть сложен в настройке, а при работе с ним легко допустить ошибки. Фактически данные были раскрыты из-за непонимания работы плагина Download Monitor для WordPress и неверной настройки сервера, что вкупе позволило получить прямой доступ к файлу путём подбора URL. Плагин формирует простые и предсказуемые ссылки на файлы, что само по себе не является большой проблемой. Однако отсутствие на хостинге WP Engine блокировки прямого доступа к файлам стало второй ошибкой, приведшей к утечке. В результате документ до официальной публикации получили не только госслужащие, но и посторонние. 26 ноября, чуть позже 06:00 некие пользователи начали предпринимать десятки попыток найти отчёт по прямым URL с семи уникальных IP-адресов. Вскоре после загрузки отчёта в 11:30–11:35 по местному времени один из этих IP, наконец, подобрал нужный URL и скачал файл. Менее чем за час файл пытались получить с 32 различных IP-адресов. Удаление файла не помогло, поскольку он уже оказался в Internet Archive. Канцлер Казначейства начал доклад по EFO в 12:34 того же дня, признав, что информация уже утекла в Сеть. Обычно сотрудники OBR сами поддерживают свой сайт, но примерно на три дня в году, в том числе во время публикации отчёта, из-за пиковых нагрузок к ресурсам допускаются сторонние разработчики. Примечательно, что нечто подобное уже случилось в марте 2025 года. Тогда один из IP-адресов получил доступ к документу приблизительно за полчаса до официальной публикации. В результате расследования рекомендовано провести детальный цифровой аудит публикаций EFO за два последних года, а также пересмотреть решение от 2013 года, давшее право OBR вести собственный сайт вне доменной зоны .gov.uk. Британия известна довольно радикально настроениями в вопросе защиты данных. Так, в британском правительстве всерьёз обсуждали план физического уничтожения лондонского ЦОД, где хранились секретные сведения и который по недосмотру был продан китайской компании, до того, как хранившуюся там информацию можно будет защитить иным способом.
02.12.2025 [12:41], Руслан Авдеев
Американский ИИ-стартап ищет деньги, чтобы снабдить китайцев чипами NVIDIA через ЯпониюБазирующийся в США стартап PaleBlueDot AI ищет, у кого бы занять $300 млн, чтобы купить ускорители NVIDIA и разместить их в токийском ЦОД — и всё это в интересах китайской медиакомпании RedNote (Xiaohongshu), сообщает Bloomberg. В своё время RedNote получила известность за пределами КНР благодаря временному запрету TikTok в Соединённых Штатах — тогда американцы начали массово регистрироваться в китайской соцсети. PaleBlueDot AI из Кремниевой долины обратилась к банкам и частным кредитным компаниям для получения финансирования. Сообщается, что JPMorgan Chase & Co. причастен к подготовке маркетинговых материалов для потенциальных заёмщиков, но от участия в самой сделке, вероятно, откажется. Источники утверждают, что сделка обсуждается, как минимум, в последние три месяца, хотя неизвестно, каков прогресс. По словам PaleBlueDot AI, «упомянутая информация не соответствует действительности», в JPMorgan от комментариев отказались, а NVIDIA и Xiaohongshu просто не ответили на запросы. PaleBlueDot AI позиционирует себя как посредника, предлагающего безопасные и экономически эффективные вычислительные решения. Примечательно, что у истоков компании и в её руководстве числятся бизнесмены китайского происхождения.
Источник изображения: zhang kaiyv/unsplash.com Планируемый заём наглядно демонстрирует, как именно намерены технологические компании обходить ограничения на продажу в Китай передовых ИИ-чипов, неоднократно ужесточавшиеся с 2022 года. Хотя китайские компании теперь не могут покупать оборудование напрямую, они могут вполне легально получать доступ к ЦОД в странах за пределами Китая. Буквально на днях сообщалось, что Alibaba и ByteDance стали обучать передовые ИИ-модели в дата-центрах Юго-Восточной Азии. Финансирование подобных проектов всегда воспринимается с осторожностью. Это связано с озабоченностью тем, что американские власти могут наложить дополнительные санкции. Хотя сама NVIDIA давно критикует политику полных запретов поставок ИИ-чипов в Китай, компания постоянно обещает, что будет строго придерживаться политики, предотвращающей попадание чипов «не в те руки». Впрочем, подход американских властей может измениться. По слухам, уже рассматривается возможность поставок в КНР относительно устаревших вариантов — NVIDIA H200.
02.12.2025 [11:28], Сергей Карасёв
MiTAC выпустила двухузловой сервер M2810Z5 на базе AMD EPYC TurinКомпания MiTAC анонсировала 2U2N-сервер M2810Z5, ориентированный на современные дата-центры и облачные платформы. Новинка может использоваться для решения таких задач, как CDN, виртуализация, хостинг, ресурсоёмкие вычисления на базе CPU и поддержка приложений с интенсивным обменом данными. Устройство, выполненное в форм-факторе 2U, имеет двухузловую конструкцию. Каждый узел допускает установку одного процессора AMD EPYC 9005 Turin в исполнении Socket SP5 с показателем TDP до 500 Вт и 12 модулей DDR5-5600/6000/6400 RDIMM или RDIMM-3DS суммарным объёмом до 3 Тбайт. Доступен один слот OCP 3.0 (PCIe 5.0 x16). Каждый из узлов располагает четырьмя отсеками для накопителей формата E1.S (NVMe) с поддержкой горячей замены. MiTAC говорит о возможности установки SSD семейства Kioxia XD8 с интерфейсом PCIe 5.0. Эти изделия обеспечивают скорость чтения информации до 12,5 Гбайт/с и скорость записи до 5,8 Гбайт/с. Вместимость достигает 7,68 Тбайт. Кроме того, есть два коннектора M.2 (в расчёте на узел) для SSD типоразмера 22110/2280 с интерфейсом PCIe 4.0. Узлы наделены контроллером Aspeed AST2600, сетевым портом 1GbE на базе Intel I210-AT, выделенным сетевым портом управления 1GbE (Realtek RTL8211FD-CG), аналоговым разъёмом D-Sub, а также двумя портами USB 2.0. Сервер M2810Z5 оборудован двумя блоками питания с резервированием мощностью 2000 Вт (80 Plus Titanium). Опционально может быть установлен модуль TPM. Применяется воздушное охлаждение с четырьмя вентиляторами диаметром 80 мм с возможностью горячей замены. Диапазон рабочих температур — от +10 до +35 °C. Габариты системы составляют 760 × 448 × 86 мм.
02.12.2025 [10:23], Руслан Авдеев
«Билайн» повысил скорость доступа к популярным российским онлайн-платформамТелеком-оператор «Вымпелком» (бренд «Билайн») провёл работы, повысившие мощность включений на площадках по всей России и обеспечившие расширение географии присутствия компании. Кроме того, увеличилась и портовая ёмкость популярных российских онлайн-сервисов. По словам компании, устойчивость и развитие российских онлайн-сервисов прямо зависит от скорости и качества обмена данными, особенно в условиях «утяжеления» контента. В компании подчеркнули, что постоянно модернизируют сети, чтобы обеспечить клиентам покупки, просмотры видео и общение на максимальной скорости, таким образом внося вклад в развитие российского сегмента интернета. Сообщается, что в сети телеком-оператора теперь повысилась скорость работы маркетплейса Wildberries, то же касается и онлайн-кинотеатров «ИВИ» и «Кинопоиск», быстрее заработали Rutube и мессенджер Max. Повышенная скорость загрузки контента, связанного с маркетплейсом Wildberries, обеспечена благодаря строительству в Калининграде, Санкт-Петербурге, Ростове-на-Дону, Казани, Екатеринбурге и Владивостоке сети CDN на узлах «Билайна». В перспективе возможно дальнейшее развитие географии размещения узлов. Также организация новых стыков в регионах и расширение уже действующих благоприятно сказались на качестве воспроизведении видео и потоковых трансляций на площадках «ИВИ», «Кинопоиск» и Rutube. В пресс-службе компании сообщают, что «Билайн» дополнительно нарастил мощность включений на московских площадках, это позволяет резервировать портовую ёмкость платформ VK и обеспечить ресурсы для работы мессенджера Max. «Билайн» активно занимается не только внутрироссийскими телеком-проектами. Так, в сентябре «Вымпелком» объявил о планах по развёртыванию нового транзитного маршрута между Китаем и Европой. |
|


