Материалы по тегу: ии

06.01.2026 [14:28], Владимир Мироненко

NVIDIA объявила о запуске платформы Vera Rubin NVL72

NVIDIA объявила о запуске платформы следующего поколения Rubin, которая приходит на смену Blackwell Ultra. Компания отметила, что платформа Rubin объединяет сразу пять инноваций, включая новейшие поколения интерконнекта NVIDIA NVLink, Transformer Engine, Confidential Computing и RAS Engine, а также процессор NVIDIA Vera. Примечательно, что NVIDIA снова решила вернуться к именованию на основе количества суперчипов (NVL72), а не ускорителей (NVL144), как обещала в прошлом году.

Созданная с использованием экстремального совместного проектирования на аппаратном и программном уровнях, NVIDIA Vera Rubin обеспечивает десятикратное снижение стоимости токенов для инференса и четырёхкратное сокращение количества ускорителей для обучения моделей MoE по сравнению с платформой NVIDIA Blackwell. Коммутационные системы NVIDIA Spectrum-X Ethernet Photonics обеспечивают пятикратное повышение энергоэффективности и времени безотказной работы.

 Источник изображений: NVIDIA

Источник изображений: NVIDIA

Платформа Rubin построена на шести чипах — Arm-процессоре Vera, ускорителе Rubin, коммутаторе NVLink 6, адаптере ConnectX-9 SuperNIC, DPU BlueField-4 и Ethernet-коммутаторе NVIDIA Spectrum-6. Ускорители Rubin поначалу будут доступны в двух форматах. В первом случае — в составе стоечной платформы DGX Vera Rubin NVL72, которая объединяет 72 ускорителя Rubin и 36 процессоров Vera, NVLink 6, ConnectX-9 SuperNIC и BlueField-4. Также ускорители Rubin будут доступны в составе платформы DGX/HGX Rubin NVL8 на базе x86-процессоров. Обе платформы будут поддерживаться кластерами NVIDIA DGX SuperPod, сообщил ресурс CRN.

Как отметила NVIDIA, разработанный для агентного мышления, процессор NVIDIA Vera является самым энергоэффективным процессором для крупномасштабных ИИ-фабрик. Он оснащён 88 кастомными Armv9.2-ядрами Olympus с 176 потоками с новой технологией пространственной многопоточности NVIDIA, 1,5 Тбайт системной памяти SOCAMM LPDDR5x (1,2 Тбайт/с), возможностями конфиденциальных вычислений и быстрым интерконнектом NVLink-C2C (1,8 Тбайт/с в дуплексе).

NVIDIA Rubin с аппаратным адаптивным сжатием данных обеспечивает до 50 Пфлопс (NVFP4) для инференса, что в пять раз быстрее, чем Blackwell. Он также обеспечивает до 35 Пфлопс (NVFP4) в режиме, что в 3,5 раза быстрее, чем его предшественник. Пропускная способность 288 Гбайт HBM4 составляет 22 Тбайт/с, что в 2,8 раза быстрее предшественника, а пропускная способность NVLink на один ускоритель вдвое выше — 3,6 Тбайт/с (в дуплексе).

NVIDIA также сообщила, что Vera Rubin NVL72 обладает 54 Тбайт памяти LPDDR5x, что в 2,5 раза больше, чем у Blackwell, и 20,7 Тбайт памяти HBM4, что на 50 % больше, чем у предшественника. Агрегированная пропускная способность HBM4 достигает 1,6 Пбайт/с, что в 2,8 раза больше, а скорость интерконнекта составляет 260 Тбайт/с, что вдвое больше, чем у платформы Blackwell NVL72, и «больше, чем пропускная способность всего интернета». Ожидаемый уровень энергопотребления составит от 190 до 230 кВт на стойку.

Компания отметила, что Vera Rubin NVL72 — первая стоечная платформа, обеспечивающая конфиденциальные вычисления, которая поддерживает безопасность данных на уровне доменов CPU, GPU и NVLink. Коммутатор NVLink 6 с жидкостным охлаждением оснащён 400G-блоками SerDes, обеспечивает пропускную способность 3,6 Тбайт/с на каждый GPU для связи между всеми GPU, общую пропускную способность 28,8 Тбайт/с и 14,4 Тфлопс внутрисетевых вычислений в формате FP8.

Хотя NVIDIA заявила, что Rubin находится в «полномасштабном производстве», аналогичные продукты от партнёров появятся только во II половине этого года. Среди ведущих мировых ИИ-лабораторий, поставщиков облачных услуг, производителей компьютеров и стартапов, которые, как ожидается, внедрят Rubin, компания назвала Amazon Web Services (AWS), Anthropic, Black Forest Labs, Cisco, Cohere, CoreWeave, Cursor, Dell Technologies, Google, Harvey, HPE, Lambda, Lenovo, Meta, Microsoft, Mistral AI, Nebius, Nscale, OpenAI, OpenEvidence, Oracle Cloud Infrastructure (OCI), Perplexity, Runway, Supermicro, Thinking Machines Lab и xAI.

ИИ-лаборатории, включая Anthropic, Black Forest, Cohere, Cursor, Harvey, Meta, Mistral AI, OpenAI, OpenEvidence, Perplexity, Runway, Thinking Machines Lab и xAI, рассматривают платформу NVIDIA Rubin для обучения более крупных и мощных моделей, а также для обслуживания мультимодальных систем с длинным контекстом с меньшей задержкой и стоимостью по сравнению предыдущими поколениями ускорителей. Партнёры по инфраструктурному ПО и хранению данных AIC, Canonical, Cloudian, DDN, Dell, HPE, Hitachi Vantara, IBM, NetApp, Nutanix, Pure Storage, Supermicro, SUSE, VAST Data и WEKA работают с NVIDIA над разработкой платформ следующего поколения для инфраструктуры Rubin.

В связи с тем, что рабочие нагрузки агентного ИИ генерируют огромные объёмы контекстных данных, NVIDIA также представляла новую платформу хранения контекста инференса NVIDIA Inference Context Memory Storage Platform — новый класс инфраструктуры хранения, разработанной для масштабирования контекста инференса.

Сообщается, что платформа, работающая на базе BlueField-4, обеспечивает эффективное совместное использование и повторное применение данных KV-кеша в рамках всей ИИ-инфраструктуры, повышая скорость отклика и пропускную способность, а также обеспечивая предсказуемое и энергоэффективное масштабирование агентного ИИ.

Дион Харрис (Dion Harris), старший директор NVIDIA по высокопроизводительным вычислениям и решениям для ИИ-инфраструктуры, сообщил, что по сравнению с традиционными сетевыми хранилищами для данных контекста инференса, новая платформа обеспечивает до пяти раз больше токенов в секунду, в пять раз лучшую производительность на доллар и в пять раз лучшую энергоэффективность.

Постоянный URL: http://servernews.ru/1134865
05.01.2026 [18:25], Владимир Мироненко

Anthropic купит сотни тысяч ИИ-ускорителей Google TPU напрямую у Broadcom

Anthropic приобретёт около 1 млн Google TPU v7 (Ironwood) с тем, чтобы запустить их на контролируемых ею объектах, сообщил в соцсети Х ресурс SemiAnalysis. Ранее сообщалось, что примерно 400 тыс. компания купит напрямую у Broadcom в стойках за примерно $10 млрд, а остальные 600 тыс. единиц TPU v7 будут доступны посредством Google Cloud Platform (GCP) в рамках сделки на сумму около $42 млрд, что составляет большую часть увеличения портфеля заказов GCP на $49 млрд или на 46 %, о котором сообщалось в отчёте за III квартал 2025 года.

В случае с закупаемыми напрямую ускорителями TeraWulf и Cipher Mining будут ответственны за инфраструктуру ЦОД, а европейское неооблако Fluidstack будет заниматься настройкой оборудования на месте, прокладкой кабелей, первичным тестированием, испытаниями при приёмке и удалённым обслуживанием, освободив Anthropic от бремени управления физическими серверами. По слухам, эти системы получат упрощённую топологию интерконнекта. Сделки Fluidstack с обоими операторами ЦОД, ранее ориентированными на криптомайнинг, финансово застрахованы Google, которая к тому же является совладельцем TeraWulf и может получить долю в Cipher Mining. Любопытно, что оба оператора частично связаны и с AWS.

Хотя Google закупает TPU через Broadcom, которая тоже хочет свою маржу, это всё равно лучше, чем та маржа, что требует NVIDIA не только за продаваемые ускорители, но и за всю систему целиком, включая процессоры, коммутаторы, сетевые карты, системную память, кабели, разъёмы и т.п. По оценкам, SemiAnalysis, совокупная стоимость владения (TCO) на один чип Ironwood для полной конфигурации с топологией 3D-тор примерно на 44 % ниже, чем у серверов GB200, что с лихвой компенсирует примерно 10-% отставание TPU от GB200 по пиковым производительности и пропускной способности памяти.

 Источник изображения: Google

Источник изображения: Google

При этом реальная, а не теоретическая производительность (Model FLOP Utilization, MFU) у TPU, по мнению SemiAnalysis, может быть выше, чем у конкурентов. Основная причина заключается в том, что заявляемые NVIDIA и AMD показатели производительности (Флопс) значительно завышены. Даже в синтетических тестах, значительно отличающиеся от реальных рабочих нагрузок, Hopper достиг лишь около 80 % пиковой производительности, Blackwell — около 70 %, а серия MI300 от AMD — 50–60 %.

Как полагают в SemiAnalysis, даже сдача ускорителей на сторону выгодна Google за счёт того, что TCO в пересчёте на час аренды может быть примерно на 30 % ниже, чем у GB200, и примерно на 41 % ниже, чем у GB300. Несмотря на высокий спрос, Google не может поставлять TPU в желаемом темпе, отметил SemiAnalysis, полагая, что основная проблема заключается в бюрократии Google — от первоначальных обсуждений до подписания генерального соглашения об оказании услуг (Master Services Agreement) проходит до трёх лет. Неооблака, включая Fluidstack, отличаются гибкостью и оперативностью, что облегчает им взаимодействие с новыми поставщиками услуг дата-центров, например, с реорганизованными криптомайнерами.

Однако у неооблаков, среди инвесторов которых числится NVIDIA, таких как CoreWeave, Nebius, Crusoe, Together, Lambda, Firmus и Nscale, есть существенный стимул не внедрять конкурирующие технологии в своих дата-центрах: TPU, ускорители AMD и даже коммутаторы Arista — всё это под запретом. Это оставляет огромную нишу на рынке хостинга TPU, которая в настоящее время заполняется комбинацией майнеров криптовалют и Fluidstack, сообщил SemiAnalysis. По мнению SemiAnalysis, в ближайшие месяцы всё большему числу компаний-неооблаков предстоит принимать непростое решение между развитием возможностей хостинга TPU и получением квот на новейшие и лучшие системы NVIDIA Rubin.

Постоянный URL: http://servernews.ru/1134804
03.01.2026 [15:08], Руслан Авдеев

Brookfield готова побороться с гиперскейлерами, запустив облако Radiant с «бюджетной» ИИ-инфраструктурой

Один из крупнейших управляющих инвестициями в альтернативные активы — компания Brookfield Asset Management может стать неожиданным соперником гиперскейлерам. Она намерена предложить собственные, недорогие облачные сервисы, сообщает Silicon Angle. Как свидетельствует доклад в The Information, компания планирует запустить облачный бизнес, который будет сдавать в аренду ИИ-чипы напрямую клиентам. Компания предложит бизнес-модель, которая позволит снизить стоимость строительства и эксплуатации ИИ ЦОД.

Новый бизнес будет управляться подразделением Brookfield Radiant в связке с новой инфраструктурной программой стоимостью $100 млрд, анонсированной в ноябре 2025 года. Brookfield Artificial Intelligence Infrastructure Fund уже выделил на инициативу $10 млрд, половина из которых поступит от отраслевых партнёров, включая NVIDIA и Kuwait Investment Authority (KIA). Ранее Brookfield и Qatar Investment Authority (QIA) объявили о создании совместного предприятия на $20 млрд для инвестиций в ИИ-инфраструктуру в Катаре и на других международных рынках.

 Источник изображения:  Adeolu Eletu/unsplash.com

Источник изображения: Adeolu Eletu/unsplash.com

Фонд поддерживает новые проекты ЦОД во Франции, Катаре и Швеции, а Radiant, как ожидается, первой получит право получить эти мощности. Если мощности не будут освоены, Brookfield планирует сдавать их в аренду сторонним операторам в рамках более традиционных схем. Если планы Brookfield действительно будут реализованы, Radiant теоретически сможет конкурировать с AWS и Microsoft Azure. Правда, основное преимущество Radiant перед остальными гиперскейлерами связано с многомиллиардными инвестициям Brookfield в энергетический сектор.

В компании заявили, что такие актив смогли бы помочь контролировать ключевые элементы цепочки создания стоимости в сфере ИИ, что недоступно обычным облачным соперникам. Поскольку AWS, Microsoft и другим гиперскейлерам необходимо продемонстрировать отдачу от своих инвестиций в ИИ, запуск сервисов Radiant, вероятно, заставит их оптимизировать свою энергетическую логистику для своих дата-центров — для того, чтобы оставаться конкурентоспособными.

Постоянный URL: http://servernews.ru/1134770
01.01.2026 [22:53], Владимир Мироненко

xAI купил ещё одно здание для ИИ ЦОД и планирует довести мощность кампуса Colossus до 2 ГВт

Илон Маск (Elon Musk) сообщил о приобретении его ИИ-стартапом xAI ещё одного здания для расширения своего кластера Colossus, что позволит увеличить его вычислительную мощность до 2 ГВт.

Маск не стал раскрывать местоположение объекта. Вполне возможно, что речь идёт о том же здании, о покупке которого сообщил в этот же день ресурс The Information, ссылаясь на данные о недвижимости и источник, знакомый с проектом. По его данным, приобретённое здание было раньше складом, и оно находится недалеко от Саутхейвена (Southaven, штат Миссисипи).

xAI уже построил в Мемфисе (Memphis) ЦОД Colossus, и в настоящее время ведёт строительство второго ЦОД, расположенного неподалеку, под названием Colossus 2. Маск заявил ранее в этом году, что Colossus 2 в конечном итоге будет оснащён 550 тыс. чипов NVIDIA, что обойдётся стартапу в $18 млрд без учёта стоимости сопутствующего оборудования и систем охлаждения.

 Источник изображения: xAI

Источник изображения: xAI

Невдалеке от Colossus 2 расположен приобретённый участок со складскими помещениями, которые стартап начнёт переоборудовать в ЦОД в этом году. Рядом с ними находится бывшая электростанция, которая принадлежит xAI. Также будущий ЦОД будет иметь доступ к другим источникам энергии.

Планы Маска по расширению ИИ-инфраструктуры подвергаются сильной критике со стороны защитников окружающей среды из-за огромного энергопотребления, а также большого расхода воды, необходимой для охлаждения оборудования ЦОД. По данным The Information, для нового объекта потребуются тысячи кубометров питьевой воды ежедневно.

В связи с этим xAI предпринял шаги по уменьшению вредного воздействия на окружающую среду, пишет SiliconANGLE. В феврале компания объявила о планах строительства нового центра очистки сточных вод рядом с Colossus стоимостью около $80 млн. Этот объект позволит xAI повторно использовать около 59 тыс. м3 сточных вод в день.

Для реализации своих планов xAI занимается привлечением заёмных средств. В июле стартап объявил о привлечении $10 млрд капитала в виде акционерного финансирования и кредитов. Также xAI провёл в октябре ещё один раунд финансирования, позволивший привлечь $20 млрд инвестиций.

Постоянный URL: http://servernews.ru/1134736
31.12.2025 [18:30], Владимир Мироненко

Потребность китайских компаний в H200 в несколько раз выше запасов NVIDIA

После того, как США дали NVIDIA добро на поставку ИИ-ускорителей H200 в Китай, выяснилось, что потребности ключевого для компании рынка в этих чипах гораздо выше имеющихся у неё запасов. По данным источников Reuters, компания уже обратилась к TSMC с запросом на увеличение производства H200. Однако существует определённый риск, что правительство КНР может не дать разрешение на ввоз в страну H200, хотя и официального заявления по поводу запрета пока тоже не поступало.

Как сообщают источники, сейчас у NVIDIA насчитывается на складах порядка 700 тыс. ускорителей H200, включая 100 тыс. суперчипов GH200, в то время как поступило заказов от китайских технологических компаний более чем на 2 млн ускорителей. Газета South China Morning Post сообщила со ссылкой на источники, что только ByteDance планирует потратить в 2026 году около ¥100 млрд (около $14,3 млрд) на чипы NVIDIA, по сравнению с примерно ¥85 млрд (около $12,2 млрд) в 2025 году, если, опять же, Китай разрешит поставки H200.

Власти КНР пока не определились с тем, стоит ли разрешать ли импорт H200, опасаясь, что доступ к передовым зарубежным чипам может замедлить развитие местной полупроводниковой промышленности в ИИ-сфере. Один из рассматриваемых вариантов предполагает, что могут в качестве условия поставки потребовать комплектовать закупки H200 определённым количеством чипов китайского производства.

 Источник изображения: Clemens van Lay / Unsplash

Источник изображения: Clemens van Lay / Unsplash

Ранее сообщалось, что первая партия NVIDIA H200 может поступить в Китай в середине февраля. По данным источников Reuters, NVIDIA уже решила, какие варианты H200 она будет предлагать китайским клиентам, установив цену около $27 тыс./шт.. При этом цена будет зависеть от объёма закупок и конкретных договорённостей с клиентами.

Сообщается, что восьмичиповый модуль с H200 будет стоить около ¥1,5 млн (около $214 тыс.), что немного дороже, чем поставлявшийся до введения запрета Китаем по цене ¥1,2 млн (около $172 тыс.) модуль с ускорителями H20. Однако, с учётом того, что H200 обеспечивает примерно в шесть раз большую производительность, чем H20, китайские интернет-компании считают цену привлекательной, отметили источники. Также это дешевле цены серого рынка примерно на 15 %.

Хотя потенциальный заказ означает значительное расширение производства H200, в комментарии для Reuters в NVIDIA сообщили, что «лицензионные продажи H200 авторизованным клиентам в Китае никак не повлияют на способность компании поставлять продукцию клиентам в США». «Китай — это высококонкурентный рынок с быстрорастущими местными поставщиками чипов. Блокировка всего экспорта из США подорвала нашу национальную и экономическую безопасность и лишь пошла на пользу иностранным конкурентам», — отметили в компании.

Постоянный URL: http://servernews.ru/1134707
31.12.2025 [10:17], Владимир Мироненко

SoftBank успела завершить рекордные инвестиции в OpenAI на $40 млрд и стать одним из крупнейших акционеров

Японская холдинговая компания SoftBank Group Corp. объявила в среду, 31 декабря, что полностью выполнила обязательство инвестировать в OpenAI $40 млрд в рамках сделки, заключённой в марте этого года. Структура сделки включает прямые инвестиции SoftBank в сочетании с синдицированными совместными инвестициями от других инвесторов.

Согласно заявлению SoftBank, она направила стартапу 26 декабря в рамках второго этапа закрытия инвестиционной сделки сумму в размере $22,5 млрд, в результате чего её доля в OpenAI теперь составляет приблизительно 11 %.

На первом этапе японская компания инвестировала в OpenAI в апреле 2025 года $7,5 млрд через свой венчурный фонд SoftBank Vision Fund 2, занимающийся инвестициями в ИИ-компании. SoftBank сообщила, что OpenAI также получил синдицированные соинвестиции от других инвесторов на сумму $11 млрд, в результате чего общая сумма её инвестиций в стартап из Сан-Франциско (США) составила $41 млрд.

 Источник изображения: SoftBank

Источник изображения: SoftBank

Как отметило агентство Reuters, после объявления о сделке с SoftBank рыночная стоимость OpenAI составила, по оценкам PitchBook, $300 млрд, а после вторичного размещения акций в октябре его капитализация выросла до $500 млрд.

SoftBank на протяжении многих лет активно инвестирует в технологические компании и ИТ-инфраструктуру. Она одной из первых вложилась в производителя ИИ-ускорителей NVIDIA. На этой неделе SoftBank также объявила о покупке инвестиционной компании DigitalBridge, специализирующейся на финансировании строительства центров обработки данных.

Постоянный URL: http://servernews.ru/1134691
30.12.2025 [22:09], Сергей Карасёв

Rockchip представила комплекты для разработчиков с ИИ-модулями RK1820/RK1828 в формате SO-DIMM

Компания Rockchip, по сообщению ресурса CNX Software, анонсировала комплекты серии RK182X 3D RAM Stacking Development Kit, ориентированные на разработчиков систем с ИИ-функциями. В основу изделий положена интерфейсная плата AIO-GS1N2, на которую устанавливаются различные вычислительные и вспомогательные модули.

Доступны варианты с основными модулями Core-3588JD4, Core-3588SJD4 AI и Core-3576JD4. Первый содержит процессор Rockchip RK3588 с восемью ядрами (квартеты Cortex-A76 и Cortex-A55), графическим блоком Arm Mali-G610 и нейроузлом (NPU) с ИИ-производительностью до 6 TOPS. Объём оперативной памяти LPDDR4/LPDDR4x варьируется от 4 до 32 Гбайт, вместимость флеш-модуля eMMC — от 32 до 256 Гбайт.

Решение Core-3588SJD4 AI использует процессор Rockchip RK3588S со схожими характеристиками, но при этом работает только с памятью LPDDR5 (4–32 Гбайт), а ёмкость чипа eMMC составляет от 32 до 128 Гбайт. Наконец, версия Core-3576JD4 получила процессор Rockchip RK3576 с восемью ядрами (по четыре Cortex-A72 и Cortex-A53), графическим блоком Arm Mali-G52 и NPU с ИИ-производительностью до 6 TOPS. Поддерживается 2–16 Гбайт памяти LPDDR4/LPDDR4x и 16–256 Гбайт eMMC.

 Источник изображения: CNX Software

Источник изображения: CNX Software

В качестве вспомогательных модулей выступают ИИ-ускорители Rockchip RK1820 и RK1828 в форм-факторе SO-DIMM: первый содержит 2,5 Гбайт памяти DRAM, второй — 5 Гбайт. Возможна работа с LLM, насчитывающими соответственно до 3 и 7 млрд параметров. ИИ-производительность в обоих случаях достигает 20 TOPS (INT8).

В оснащение входят слот microSD, порты SATA-3 для подключения накопителей, разъём M.2 2280 Key-M для SSD (NVMe), интерфейсы HDMI 2.0 и D-Sub, два порта USB 3.0, аудиогнёзда, девять портов 1GbE (RJ45) и выделенный порт управления 1GbE. Опционально может быть добавлен адаптер Wi-Fi (2,4/5 ГГц) в виде изделия M.2 E-Key. Имеются две 10-контактные колодки с поддержкой RS485, UART, GPIO. Питание может подаваться через DC-коннектор (24 В / 5 A), 6- или 4-контактный разъём ATX. Габариты составляют 231,27 × 164,13 × 33,57 мм, масса — 350 г. Диапазон рабочих температур простирается от -20 до +60 °C.

Постоянный URL: http://servernews.ru/1134665
30.12.2025 [15:20], Руслан Авдеев

Радиоволна вместо меди и стекла: пластиковые волноводы обещают революцию в мире интерконнектов ИИ ЦОД

Point2 Technology и AttoTude работают над ARC-кабелями, способными стать альтернативой оптоволоконным и электрическим интерконнектам. Это позволит увеличить пропускную способность, повысить плотность размещения ускорителей и удешевить строительство ИИ ЦОД, сообщает IEEE Spectrum.

Внутри ИИ-стоек для объединения узлов обычно используются относительно короткие медные кабели, а сеть внутри и между ЦОД традиционно использует оптоволокно. Необходимость увеличить скорость передачи данных от ускорителя к ускорителю нередко ограничивается физическими свойствами меди. Для обеспечения терабитных скоростей медные интерконнекты должны становиться всё толще и короче. В условиях, когда NVIDIA рассчитывает в восемь раз увеличить максимальное число чипов в вычислительной системе с 72 до 576 к 2027 году, использование меди станет большой проблемой.

Медь весьма эффективна, в первую очередь экономически, при использовании на небольших дистанциях. На очень высоких частотах, характерных для современных чипов, сигнал в проводнике из-за скин-эффекта передаётся преимущественно в поверхностном слое. Для борьбы с этим явлением либо увеличивают количество проводников, либо покрывают их, например, серебром, либо попросту увеличивают размеры. Всё это не позволяет в конечном итоге создать компактные и недорогие системы. Сейчас всё большую популярность набирают активные электрические кабели (AEC), включающие ретаймеры, которые усиливают и «очищают» сигнал. Например, 800G-кабели Credo, которые полюбились гиперскейлерам (и не только) имеют длину до 7 м и весят порядка 800 г.

 Задача со звёздочкой: вычислить массу кабелей Credo (фиолетового цвета) / Источник изображения: X/@elonmusk

Задача со звёздочкой: вычислить массу кабелей Credo (фиолетового цвета) / Источник изображения: X/@elonmusk

Тем не менее в будущем даже AEC «упрутся в потолок» из-за законов физики. Тем временем Point2 Technology и AttoTude предлагают промежуточное решение — недорогое и надёжное как медь, с возможностью использования узких и длинных кабелей, соответствующих потребностям ИИ-систем будущего. В 2025 году Point2 намеревалась начать производство чипов для кабелей с пропускной способностью 1,6 Тбит/с, состоящих из восьми тонких полимерных волноводов, каждый из них может передавать данные со скоростью 448 Гбит/с с использованием частот 90 и 225 ГГц. Решение AttoTude практически такое же, только использует частоты терагерцового диапазона.

Обе компании утверждают, что их технологии превосходят медь по «дальнобойности» — сигнал легко передаётся на расстояние 10–20 м без значимых потерь, чего будет вполне достаточно для объединения будущих стоек. Point2 утверждает, что её решение в сравнение с оптическими интерконнектами потребляет втрое меньше электроэнергии, втрое дешевле и обеспечивает на три порядка меньшие задержки при передаче. По словам сторонников технологии, надёжность и лёгкость производства волноводов, сравнимая с лёгкостью выпуска оптоволокна, означает, что она способна не только заменить оптические интерконнекты между ускорителями, но и частично вытеснить медь с печатных плат.

 Источник изображения: AttoTude

Источник изображения: AttoTude

Основатель AttoTude Дэйв Уэлч (Dave Welch), участвовавший в создании Infinera, десятилетиями занимался фотонными системами и хорошо знает их слабые и сильные места. В частности, по данным NVIDIA, на «оптику» уже уходит около 10 % энергопотребления ИИ ЦОД. Системы на базе фотоники в принципе очень чувствительны к температурам, требуют высокой точности производства (на уровне микрометров) и в целом не особенно надёжны. В результате Уэлч заинтересовался не оптическим, а радиодиапазоном от 300 ГГц до 3 ТГц. Решение AttoTude используют волноводы толщиной около 200 мкм с диэлектрическим сердечником, которые уже показывают затухание на уровне 0,3 дБ/м, что в разы меньше, чем у медного 224G-кабеля.

У AttoTude уже есть все основные компоненты, включая интерфейс для подключения к ускорителям, терагерцовый генератор, мультиплексор, антенны и собственно волноводы. Главная задача сейчас — объединить всё в компактный модуль, который можно будет легко подключать к ускорителям, как уже действующие решения. Компания уже продемонстрировала передачу данных на скорости 224 Гбит/с на частоте 970 ГГц на расстояние 4 м.

 Источник изображения: Point2 Technologies via IEEE Spectrum

Источник изображения: Point2 Technologies via IEEE Spectrum

Point2, созданная девять лет назад ветеранами Marvell, NVIDIA и Samsung, привлекла $55 млн инвестиций, в основном от Molex, занимающейся кабелями и коннекторами. Последняя уже продемонстрировала, что можно выпускать кабели Point2 без изменения своих производственных линий, а теперь партнёром стартапа стала и Foxconn Interconnect Technology. Такая поддержка может оказаться решающей при попытке привлечь гиперскейлеров в качестве клиентов.

На каждом конце кабеля Point2 e-Tube, точно так же имеются генератор, антенны и чип для преобразования цифровых сигналов в радиоволны. Волновод состоит из диэлектрического ядра с металлическим покрытием. Для достижения скорости 1,6 Тбит/с требуется восемь волноводов, каждый из которых работает на собственной частоте и с собственными параметрами. Такой кабель значительно тоньше и легче AEC. По словам вице-президента компании Дэвида Куо (David Kuo), одним из ключевых преимуществ технологии Point2 является возможность выпуска чипов по дешёвому и доступному техпроцессу 28 нм.

 Источник изображения: Point2 Technologies via IEEE Spectrum

Источник изображения: Point2 Technologies via IEEE Spectrum

Оба стартапа параллельно занимаются вопросами интеграции своих решений непосредственно в вычислительные чипы. Интегрированная фотоника (CPO) уже появилась в коммутаторах Broadcom и NVIDIA, но до прямой интеграции аналогичных интерфейсов в ускорители и другие чипы дело всё никак не дойдёт. NVIDIA и Broadcom, работающие по отдельности, вынуждены проделывать массу работы для того, чтобы наладить выпуск надёжных систем, работающих в одном корпусе с дорогими ускорителями.

Одна из проблем — подключение оптоволокна к волноводу на фотонном чипе с точностью на уровне микрометров. В частности, инфракрасный лазер необходимо разместить точно напротив ядра оптоволокна, толщина которого составляет всего 10 мкм. Для сравнения, миллиметровые и терагерцовые сигналы имеют значительно большие длины волн, поэтому подобной точности при подключении радиоволновода не требуется.

Постоянный URL: http://servernews.ru/1134579
30.12.2025 [09:34], Владимир Мироненко

Intel: Wi-Fi 8 будет «про надёжность и расширенные возможности», а не «про скорость»

Стандарт беспроводной связи следующего поколения Wi-Fi 8 будет в большей степени посвящён не дальнейшему увеличению скорости передачи данных, а расширению возможностей, пишет The Register со ссылкой на заявление главного технического директора по беспроводным технологиям Intel Карлоса Кордейро (Carlos Cordeiro). «Основное внимание в Wi-Fi всегда уделялось тому, как сделать его быстрее. Вы увидите, что с Wi-Fi 8 это немного изменится», — сообщил он. Обратная совместимость с Wi-Fi 5/6/7 сохранится.

Intel утверждает, что Wi-Fi 8 «просто будет работать лучше». За основу будет взят Wi-Fi 7 (2,4/5/6 ГГц и 320 МГц), к которому добавят интеллектуальные функции для стабильной работы и бесперебойной работы приложений, чувствительных к задержкам. Вместе с тем Wi-Fi 8 позволит обеспечить более высокую скорость на заданном отрезке сети. «Я имею в виду, что если вы возьмете точку доступа и устройство Wi-Fi 7, и получите заданную скорость передачи данных, а затем замените их Wi-Fi 8, вы сможете получить более высокую скорость передачи данных в том же месте и на том же расстоянии», — пояснил Кордейро.

 Источник изображений: Intel

Источник изображений: Intel

Он отметил, что Intel рассматривает Wi-Fi 8 как «технологию связи для эры ИИ», которая будет обеспечивать доступ к огромным объёмам вычислительных ресурсов. Кордейро заявил, что Wi-Fi 7 и так обеспечивает высокую скорость, а новый стандарт направлен на то, чтобы сделать связь более надёжной, более низколатентной и более интеллектуальной. Это означает, что устройства и сетевое оборудование должны быть более контекстно-ориентированными, способными прогнозировать потребности пользователей и адаптироваться к ним.

Топ-менеджер Intel привёл примеры задач, которые Wi-Fi 8 призван решить для пользователей. Например, для университетской или корпоративной сети важны роуминг и сосуществование множества клиентов, но в настоящее время для перехода от одной точки доступа к другой может потребоваться несколько десятков миллисекунд. В Wi-Fi 8 этот показатеь Intel намерена снизить до нескольких миллисекунд и добиться нулевой потери пакетов. Кроме того, нужны управление помехами и повышение времени автономной работы устройств. В случае смешанного трафика — конференц-звонков, онлайн-игр и стриминга — нужны интеллектуальная приоритизация и управление QoS.

Также ожидается, что Wi-Fi 8 сможет «видеть» окружающую среду с помощью радиоволн, излучаемых устройствами. «Мы ожидаем, что устройства Wi-Fi смогут определять расстояние и направление до других находящихся поблизости устройств», — заявил Кордейро. «По сути, мы хотим, чтобы устройства могли учитывать контекст, понимать окружающую обстановку, и это откроет возможности для разработки новых приложений», — отметил он.

Например, во время онлайн-совещания, в котором пользователь участвует с помощью ноутбука, он может встать и отойти от ноутбука, держа в руках телефон: «Ноутбук и телефон автоматически “поймут”, что они удаляются друг от друга, и сессия Teams может переключиться на телефон и обратно». Среди других ожидаемых функций — «пробуждение» компьютера при приближении к нему, автоматическая блокировка при удалении, а также распознавание и реагирование на жесты, например, свайп для перехода к следующему слайду презентации.

Intel перечислила в документе Wi-Fi 8 Is Here: The Most Comprehensive White Paper Yet некоторые улучшения, направленные на реализацию этих возможностей в Wi-Fi 8. Например, надёжность и производительность соединения будут улучшены за счёт более интеллектуального использования MCS. Вместо нынешней системы, когда все потоки MIMO используют одну и ту же схему кодирования, в Wi-Fi 8 каждому потоку будет обеспечено наилучшее возможное кодирование с учётом условий. В Wi-Fi 8 добавляется больше промежуточных шагов модуляции, то есть пользователи со средним уровнем сигнала должны получать более высокую скорость передачи данных, чем с Wi-Fi 7.

Также в Wi-Fi 8 будет улучшенная коррекция ошибок с помощью LDPC. Работа точек доступа будет синхронизирована. Они не будут передавать данные одновременно по одному и тому же каналу, что позволит избежать коллизий и ускорить подключение. Благодаря Prioritized EDCA будет обеспечиваться приоритетный доступ для критически важных приложений даже в условиях перегрузки сети. Для повышения безопасности Wi-Fi 8 будет использовать шифрование управляющих кадров, что предотвратит атаки с подменой данных, такие как ложные сообщения о разрыве соединения. Поддержка стандарта IEEE P802.11bi расширит защиту процесса установления соединения и других кадров, которые ранее были недоступны.

Постоянный URL: http://servernews.ru/1134589
29.12.2025 [14:53], Владимир Мироненко

«Т-Технологии» и «Интеррос» приобрели 25 % АО «Селектел»

Компания «Каталитик Пипл», созданная МКПАО «Т-Технологии» и ХК «Интеррос» для инвестирования в высокотехнологичный сектор, приобрела 25 % провайдера IT-инфраструктуры АО «Селектел» (Selectel). Selectel подчеркнула большие перспективы партнёрства с компанией «Т-Технологии», поскольку синергия с экосистемой «Т» позволит максимально реализовать потенциал её бизнеса.

Олег Любимов, генеральный директор Selectel, отметил совпадение видения двух компаний. По его словам, объединение их компетенций обеспечит возможность создавать продукты и сервисы, которые будут задавать стандарты для всего российского IT-рынка. Согласно прогнозу Selectel, потребность в IT-инфраструктуре будет и дальше расти в течение ближайших 10 лет двузначными темпами, в том числе за счёт внедрения цифровых проектов с использованием AI.

 Источник изображения: Selectel

Источник изображения: Selectel

В свою очередь, в «Т-Технологиях» отметили, что инвестиция в крупнейшего в России независимого провайдера IT-инфраструктуры выполнена в полном соответствии с долгосрочной стратегией технологического развития группы. «Мы видим большие перспективы для развития специализированной AI-инфраструктуры и масштабных платформенных решений. Сочетание экспертизы "Т" в области AI с уникальным инфраструктурным опытом Selectel открывает для нас множество возможных синергий, как для нужд группы, так и для B2B-клиентов обеих компаний», — заявил президент «Т-Технологий» Станислав Близнюк.

Как сообщают «Ведомости», стоимость 25 % уставного капитала АО «Селектел» оценивается примерно в 16 млрд руб. Приобретение выполнено за счёт денежных потоков, полученных «Каталитик Пипл» от предыдущих инвестиций. Планы «Т-Технологии», в состав которой, в том числе, входит «Т-Банк», включают также строительство собственных ЦОД, что позволит сэкономить 26 млрд руб. до 2030 года. Для реализации этой задачи ею было создано ООО «Т-ЦОД-3».

Согласно отчёту Selectel, в I полугодии 2025 года её выручка увеличилась на 46 % год к году — до 8,9 млрд руб. Капитальные затраты составили 3,7 млрд руб., причём большая часть этой суммы (2,5 млрд руб.) была израсходована на приобретение серверного оборудования.

По данным iKS Consulting, Selectel входит в Топ-3 крупнейших по выручке компаний на рынке инфраструктурных облачных услуг (IaaS). Как прогнозируют в iKS Consulting, к 2028 году облачный рынок в РФ вырастет до 464 млрд руб. при среднегодовых темпах роста около 30 %.

Постоянный URL: http://servernews.ru/1134613

Входит в перечень общественных объединений и религиозных организаций, в отношении которых судом принято вступившее в законную силу решение о ликвидации или запрете деятельности по основаниям, предусмотренным Федеральным законом от 25.07.2002 № 114-ФЗ «О противодействии экстремистской деятельности»;