Материалы по тегу:
|
17.03.2026 [22:28], Андрей Крупин
В России утверждён план развития высокопроизводительных вычислений и суперкомпьютерной инфраструктурыПравительство РФ утвердило план мероприятий, в рамках которого будут создаваться дополнительные условия для развития суперкомпьютерных технологий, искусственного интеллекта и вычислительных систем. Документ включает конкретные сроки мероприятий и их исполнителей, а также предполагает десятикратное увеличение совокупной мощности отечественных суперкомпьютеров к 2030 году. Согласно дорожной карте, в ближайшие несколько лет в России должна начаться реализация масштабной программы, включающей комплекс мероприятий, направленных на формирование единых требований к суперкомпьютерным центрам коллективного пользования, определение порядка предоставления доступа к ним научного сообщества и ключевых организаций промышленности, а также перспектив их дальнейшего развития и модернизации. В процессе работы по этому направлению планируется сформировать стратегию дальнейшего развития и правила функционирования национальной исследовательской компьютерной сети нового поколения, которая объединяет сотни ведущих вузов и научных организаций. Предполагается, что развитие коммуникационной инфраструктуры расширит возможности для проведения исследований, требующих обработки и передачи больших объёмов данных.
Суперкомпьютер «Политехник РСК Торнадо» производства группы компаний РСК, установленный в Санкт-Петербургском политехническом университете Петра Великого (источник изображения: «РСК Технологии» / rscgroup.ru) Часть мероприятий дорожной карты направлена на разработку концепции профильной федеральной научно-технической программы, в рамках которой будет предусмотрено создание, развитие и внедрение отечественных алгоритмов, методов и программного обеспечения для проведения суперкомпьютерных вычислений в различных отраслях экономики. Научно-техническая программа в том числе подразумевает формирование новых и развитие имеющихся образовательных и дополнительных профессиональных программ по использованию суперкомпьютерных технологий и высокопроизводительных вычислений. По мнению «К2 НейроТех» (входит в «К2Тех»), утверждение дорожной карты — важный сигнал для всего рынка. Ключевой вызов для промышленного ИИ сегодня — не отсутствие моделей, а дефицит доступных вычислительных мощностей и зрелой инфраструктуры для их эксплуатации. При этом важно разделять два типа нагрузки: обучение моделей, требующее пиковых мощностей, и инференс — постоянную эксплуатацию, которая по мере зрелости рынка будет занимать всё большую долю вычислительных затрат. Без учёта этой специфики даже десятикратный рост мощностей может не дать ожидаемого экономического эффекта: «Особенно важно, что в дорожной карте уделено внимание подготовке кадров и развитию национальной исследовательской сети — без этого даже самые мощные суперкомпьютеры останутся невостребованными».
17.03.2026 [19:23], Руслан Авдеев
AWS и NVIDIA расширят сотрудничество: в следующие 12 месяцев AWS внедрит более 1 млн ИИ-ускорителей NVIDIAВ ходе конференции NVIDIA GTC 2026 компании AWS и NVIDIA анонсировали расширение технологического сотрудничества. Речь идёт о взаимодействии в сфере ускоренных вычислений, технологий интерконнекта, настройки ИИ-моделей и инференса. Основные планы сотрудничества включают использование AWS в облачных регионах по всему миру более 1 млн новых ИИ-ускорителей NVIDIA, в т.ч. семейств Blackwell и Rubin. AWS уже предлагает облачные инстансы на основе ускорителей NVIDIA для ИИ и машинного обучения. Также продолжается сотрудничество в сфере сетевых технологий NVIDIA Spectrum. Ведётся подготовка к запуску новых инстансов EC2 на основе ускорителей NVIDIA RTX Pro 4500 Blackwell Server Edition. AWS станет первым крупным облачным провайдером, анонсировавшим поддержку этих ускорителей. Эти инстансы предназначены для аналитики, «говорящих» ИИ-систем, генерации контента, рекомендательных систем, видеостриминга, видеорендеринга и др. Они будут построены на архитектуре AWS Nitro System, позволяющей полностью использовать ресурсы выделенного оборудования для пользовательских задач. Также Nitro System обеспечивает высокий уровень безопасности — доступ к данным и рабочим процессам получают только сами пользователи, его не имеют даже сотрудники AWS. При этом система обновляется и оптимизируется без остановки работы. С ростом инфраструктуры ключевой проблемой становится взаимодействие между ускорителями NVIDIA и AWS Trainium. Компании объявили о поддержке библиотеки NVIDIA Inference Xfer Library (NIXL) и AWS Elastic Fabric Adapter (EFA), что позволяет ускорить распределённый инференс ИИ-моделей на Amazon EC2. Подобная архитектура распределённого инференса позволяет эффективно совмещать вычисления и передачу данных, снижать задержки и максимизировать использование ИИ-ускорителей. NIXL с EFA интегрируются с популярными открытыми фреймворками, включая NVIDIA Dynamo, vLLM и SGLang.
Источник изображения: AWS Дополнительно AWS и NVIDIA объявили об использовании Apache Spark в конфигурации Amazon EMR на Amazon EKS с инстансами G7e на основе ускорителей NVIDIA RTX Pro 6000 Blackwell, что втрое ускоряет аналитику данных. При этом сохраняется совместимость с имеющимися приложениями Spark. Наконец, компании объявили о расширении поддержки ИИ-моделей NVIDIA Nemotron в облаке Amazon Bedrock с адаптацией моделей для юриспруденции, здравоохранения, финансов и других специализированных областей. Вся инфраструктура управляется Bedrock, что значительно упрощает задачи разработчиков. Вскоре ожидается появление гибридной MoE-модели NVIDIA Nemotron 3 Super для финансовых сервисов, кибербезопасности, ретейла, разработки ПО и др. В целом компании создали полный стек ИИ-инфраструктуры — от ИИ-ускорителей и сетей до управляемых сервисов. Это позволит клиентам быстрее внедрять ИИ-решения, не конструируя инфраструктуру из разрозненных компонентов. Как сообщает Datacenter Dynamics, в феврале 2026 года глава AWS Мэтт Гарман (Matt Garman) заявил, что компания всё ещё использовала устаревшие ускорители NVIDIA A100 в некоторых серверах, поскольку спрос был высок даже на них. Широкий доступ к NVIDIA Blackwell Ultra появился в декабре 2025 года, в скором будущем планируется организовать доступ и к ускорителям Rubin. В то же время компания намерена инвестировать в собственные ускорители Trainium. В феврале OpenAI объявила, что будет использовать 2 ГВт мощностей на основе Trainium и других ускорителей в облаке AWS, во многом благодаря $50 млрд инвестиций со стороны Amazon.
17.03.2026 [19:19], Руслан Авдеев
Скандал с почтовым ПО Horizon не утихает: тысячи невинно осуждённых британцев до сих пор без выплатБолее года прошло с тех пор, как сообщалось, что пострадавшие от ПО Horizon Почты Великобритании всё ещё ждут компенсаций. Тем не менее ситуация меняется очень медленно — британские парламентарии заявляют, что система выплат по-прежнему работает крайне медленно и остаётся излишне бюрократизированной, а тысячи бывших сотрудников почты всё ещё не могут получить деньги, сообщает The Register. В новом докладе Комитета по бизнесу и торговле (UK Parliament Business and Trade Committee) британского парламента отмечается, что проблемы с выплатой компенсаций людям, в своё время несправедливо обвинённым из-за ПО Horizon в кражах и мошенничестве, сохраняются. Хотя уже выплачено более £1,4 млрд, депутаты подчёркивают, что многие жертвы всё ещё не могут получить деньги. Это происходит из-за медленного рассмотрения заявлений, юридических споров и длительного ожидания окончательных решений. Это особенно оскорбительно после многолетней борьбы за восстановление репутации. ПО Horizon, разработанное Fujitsu и внедрённое на Почте Великобритании, работало некорректно, в результате чего пострадали сотни почтовых сотрудников, которых обвинили в недостачах и махинациях. В результате многие понесли уголовную ответственность, их жизнь была буквально сломана — и лишь спустя годы обвинительные приговоры удалось отменить. Более того, имеются данные, что британская техподдержка Fujitsu Horizon была набрана из «легализованных хакеров».
Источник изображения: Wesley Tingey/unsplash.com С тех пор британские власти разработали несколько механизмов выплаты компенсаций, общая сумма которых, вероятно, составит порядка £2 млрд. Тем не менее парламентарии заявляют, что система компенсаций до сих пор весьма несовершенна и вызывает у заявителей стресс — тысячи жертв столкнулись с «повторной травматизацией». Отмечается, что совершенно недопустимо поручать управление выплатами компенсаций самой Почте Великобритании, поскольку организация не должна отвечать за контроль возмещения ущерба, причинённого её собственными действиями в прошлом. Рекомендовано передать соответствующую работу Министерству бизнеса и торговли Великобритании (DBT) или независимому органу. Также парламентарии обратили внимание на постоянные задержки в обработке заявлений и трудности с получением пострадавшими документов, необходимых для подтверждения их статуса. В некоторых случаях на это уходят месяцы, что замедляет рассмотрение заявлений, и без того тянущееся годами. Более того, Fujitsu, разработавшая и обслуживавшая систему Horizon, вообще не участвует в выплате компенсаций. Ранее она признавала «моральные обязательства» по участию в выплатах, но расходы всё ещё несёт только британское правительство. Сообщалось, что компания влила £280 млн в британское подразделение в преддверии выплат компенсаций жертвам ошибок в её ПО, однако пока она лишь продолжает зарабатывать на государственных контрактах. Комитет предупредил, что Horizon, вполне возможно, не единственная программная система, работающая с критическими ошибками, ведущими к неправомерному судебному преследованию. Согласно представленным членам парламента доказательствам, дела, связанные с более ранней бухгалтерской системой Capture, могут оказаться «верхушкой ещё одного айсберга». По последним данным, IBM во второй раз пытается заключить контракт с Почтой Великобритании на замену скандального ПО Fujitsu Horizon — в прошлый раз компания не смогла справиться с этой задачей.
17.03.2026 [16:22], Андрей Крупин
В России прошли первые биржевые торги услугами ЦОДОператор сети дата-центров 3data сообщил о завершении первых биржевых торгов услугами по размещению оборудования (colocation) на Бирже ЦТС, которые состоялись 5 марта 2026 года. Победителем стало АО «Уиллстрим», ведущее деятельность в сфере профессионального аутсорсинга колл-центров. Результатом торгов стало заключение биржевого договора на размещение оборудования в центре обработки данных. Предметом торгов являлись стойко-места 3data, расположенные в московском дата-центре «М8» уровня надёжности Tier III. В аукционе приняли участие российские коммерческие организации, продемонстрировав высокий уровень интереса к данному механизму закупки. Итоговая стоимость единицы лота составила 201,3 тыс. руб. с НДС ежемесячно за стойко-место с подведённой мощностью 5 кВт, включая стойку и два блока розеток (PDU).
Источник изображения: 3data.ru «Первые биржевое размещение услуг colocation открывает принципиально новый этап формирования объективной рыночной стоимости таких услуг. Планируем активно расширять ассортимент предложений от операторов дата-центров и привлекать больше участников торгов», — прокомментировали инициативу компании 3data представители Биржи ЦТС. 3data основана в 2013 году и является одним из крупнейших операторов коммерческих дата-центров в России. В отличие от других игроков рынка компания придерживается концепция «ЦОД шаговой доступности», предполагающей размещение вычислительных площадок не в промзонах, а в деловых районах, рядом с офисами клиентов. В настоящий момент 3data располагает 24 собственными дата-центрами, расположенными в Москве, Московской области, Екатеринбурге, Ставрополе, Новосибирске, Владивостоке и Южно-Сахалинске.
17.03.2026 [11:02], Руслан Авдеев
Meta✴ потратит до $27 млрд на ИИ-инфраструктуру NebiusMeta✴ Platforms в течение пяти лет намерена заплатить $27 млрд за ИИ-инфраструктуру, доступ к которой предоставит облачный провайдер Nebius Group, базирующийся в Нидерландах, сообщает Bloomberg. В Meta✴ подтвердили сделку с Nebius. Nebius — стратегический партнёр NVIDIA, с 2027 года предоставит Meta✴ мощности ЦОД на $12 млрд, ещё до $15 млрд Meta✴ потратит на покупку мощностей, которые облачный провайдер строит для сторонних клиентов. Это один из крупнейших «разовых» контрактов, заключенных Meta✴, что подчёркивает стремление компании развиваться в сфере ИИ. Недавно появилась информация, что компания сократит более 20 % штата из-за высоких затрат на ИИ-проекты. В 2025 году она уже заключила сделку с Nebius на $3 млрд. За последние 12 месяцев акции Nebius выросли в цене в четыре раза, а на фоне новостей подорожали на 15 %, а Meta✴ — на 2,8 %.
Источник изображения: Nebius Предполагается, что Meta✴ и её крупнейшие конкуренты потратят в 2026 году около $650 млрд на строительство ЦОД и покупку другой инфраструктуры на фоне взрывного роста спроса на ИИ-сервисы в ближайшие годы. Для Meta✴ ИИ в последнее время является ключевым приоритетом и компания вкладывает значительные средства в конкуренцию с OpenAI, Google и др. С начала года заключены соглашения с NVIDIA и AMD о создании ИИ-инфраструктуры. Кроме того, Meta✴ разрабатывает и собственные ИИ-ускорители. В 2025 году заявлялось, что к 2028 году Meta✴ потратит на инфраструктурные инициативы в США $600 млрд. Для этого она будет использовать средства, вырученные от рекламного бизнеса и внешнее финансирование. Компания разрабатывает также и собственные ИИ-модели и др.
Источник изображения: Bloomberg Nebius, отделившаяся от «Яндекса» в 2024 году, — один из немногих новичков, очень успешно воспользовавшихся бумом ИИ-технологий; при этом немаловажную роль играет NVIDIA, активно инвестирующая в стартапы, конкурирующие с гиперскейлерами вроде Google и Amazon (AWS). На днях NVIDIA объявила о намерении инвестировать в Nebius $2 млрд, что привело к росту акций последней на 16 %. Значительная часть инвестиций NVIDIA была направлена компаниям, покупающим её собственные чипы. Это вызвало критику экспертов рынка, опасающихся, что такие инвестиции подпитывают создание ИИ-пузыря. Например, в январе NVIDIA сообщила об инвестициях $2 млрд в неооблачного провайдера CoreWeave, конкурирующего с Nebius, средства предназначались на внедрение ИИ-ускорителей самой NVIDIA. В 2026 году компания вложила $30 млрд в OpenAI, а также принимала участие в очередном раунде финансирования британской Nscale, желавшей привлечь $2 млрд. В январе сообщалось, что затраты Meta✴ на связанные с ИИ расходы в 2026 году составят от $115 до $135 млрд, это превышает прогнозы аналитиков в $110,7 млрд и почти вдвое больше, чем капитальные затраты компании в 2025 году, которые составили $72,2 млрд. Роста затрат направлен на поддержку подразделения Meta✴ Superintelligence Labs (MSL), а также основной повседневной деятельности компании.
17.03.2026 [10:32], Руслан Авдеев
NVIDIA анонсировала Space-1 Vera Rubin Module — основа для орбитальных ЦОД, которая в 25 раз быстрее H100Глава NVIDIA Дженсен Хуанг (Jensen Huang) в ходе конференции GTC 2026 представил космический вычислительный модуль на архитектуре Vera Rubin. По его словам, модуль до 25 раз производительнее, чем вариант NVIDIA H100, и шесть коммерческих космических компаний уже внедрили платформу, сообщает Tom’s Hardware. Space-1 Vera Rubin Module предназначен для орбитальных дата-центров, работающих с ИИ-моделями непосредственно в космосе. Он имеет тесно интегрированную архитектуру CPU–GPU и высокоскоростной интерконнект для работы с большими потоками данных от космических инструментов в режиме реального времени. Также предлагается вариант NVIDIA IGX Thor для критически важных периферийных сред с поддержкой выполнения ИИ-задач в режиме реального времени, безопасной загрузки, автономных операций и др. Наиболее компактный вариант NVIDIA Jetson Orin предназначается для самых компактных устройств и рассчитан на использование в спутниках с ограниченными размерами, весом и энергопотреблением — для систем бортового «зрения», навигации и обработки данных с датчиков. Для Земли NVIDIA предлагает ускорители RTX PRO 6000 Blackwell Series Server Edition для геопространственной разведки. Заявленная производительность — при обработке больших массивов изображений в 100 раз выше, чем у устаревших систем на базе CPU.
Источник изображения: NVIDIA По данным NVIDIA, сейчас её новые платформы на Земле и в космосе используют компании Aetherflux, Axiom Space, Kepler Communications, Planet Labs PBC, Sophia Space и Starcloud, Kepler внедряет Jetson Orin в своей спутниковой группировке для управления данными и их маршрутизацией с помощью ИИ-инструментов. NVIDIA Jetson Orin применяется непосредственно в спутниках. В октябре 2025 года основатель Amazon и Blue Origin Джефф Безос (Jeff Bezos) прогнозировал, что через 10–20 лет на орбите появятся ЦОД гигаваттного масштаба. Основными преимуществами таких решений назывались возможность непрерывного электроснабжения группировки с помощью солнечной энергии, а также упрощённая система охлаждения в космосе. Starcloud уже строит специальные орбитальные ИИ-ЦОД, предназначенные для обучения моделей и инференса непосредственно на орбите. ИИ-ускорители IGX Thor, Jetson Orin и RTX PRO 6000 Blackwell Server Edition уже доступны клиентам NVIDIA. Дата начала продаж Vera Rubin Space Module до сих пор неизвестна: заявляется, что модуль появится в продаже «позже». Космические ЦОД — весьма перспективное направление в сфере ИИ. Одним из наиболее громких событий стала заявка SpaceX, попросившей у американских властей разрешение на вывод на орбиту миллиона микро-ЦОД. Инициатива подверглась критике Amazon как «спекулятивная», но компания столкнулась с критикой Федеральной комиссии по связи с США, потребовавшей навести порядок в собственном космическом бизнесе.
17.03.2026 [10:21], Сергей Карасёв
NVIDIA представила центральные процессоры Vera с 88 ядрами Olympus для ИИ и не толькоКомпания NVIDIA анонсировала процессоры Vera, спроектированные с прицелом на современные ресурсоёмкие задачи в области ИИ. Изделия, как утверждается, обеспечивают исключительную производительность каждого ядра, а также высокую пропускную способность памяти и коммутационной сети. В основу Vera положены ядра Olympus — это первые CPU-решения NVIDIA, специально разработанные для дата-центров. Olympus используют 10-битный интерфейс выборки и декодирования инструкций, а также нейронный алгоритм предсказания ветвлений, позволяющий оценивать два варианта ветвления за каждый цикл. Изделие полностью совместимо с набором инструкций Arm v9.2 и существующим ПО.
Источник изображений: NVIDIA Конфигурация Vera предусматривает наличие 88 ядер Olympus с возможностью одновременной обработки до 176 потоков инструкций. Объём кеша L3 составляет 162 Мбайт. Задействована шина NVIDIA Scalable Coherency Fabric (SCF) второго поколения, первоначально разработанная для CPU семейства NVIDIA Grace. В составе процессора SCF отвечает за связь вычислительных ядер Olympus с общим кешем L3 и подсистемой памяти, обеспечивая стабильную задержку и пропускную способность на уровне 3,4 Тбайт/с: это позволяет использовать более 90 % пиковой пропускной способности памяти под нагрузкой. Каждому ядру Olympus доступна полоса до 14 Гбайт/с, что примерно в три раза превышает пропускную способность на ядро в традиционных CPU для дата-центров. ![]() В составе Vera применяется подсистема памяти LPDDR5X на основе модулей SOCAMM (Small Outline Compression Attached Memory Modules). Суммарная ёмкость может составлять до 1,5 Тбайт, что втрое больше по сравнению с решениями предыдущего поколения. Пропускная способность памяти достигает 1,2 Тбайт/с, тогда как энергопотребление составляет менее 50% по сравнению с традиционными конфигурациями DDR. При этом модули SOCAMM являются заменяемыми, что упрощает модернизацию и обслуживание систем. Процессор Vera выполнен на основе единого монолитного вычислительного кристалла. Каждое ядро обеспечивается единообразной пропускной способностью. Большинство операций, чувствительных к задержкам, выполняются локально, что позволяет минимизировать межкристальный трафик, который обычно присутствует в традиционных CPU. В целом, как утверждается, реализованные архитектурные особенности позволяют чипам Vera демонстрировать до 1,5 раз более высокую производительность одного ядра по сравнению с конкурирующими решениями x86 при выполнении задач в песочнице с максимальной нагрузкой на сокет. NVIDIA разработала семейство платформ на базе Vera для решения разнообразных задач в сфере ИИ. Это, в частности, CPU-стойки с жидкостным охлаждением, а также системы с GPU поколения Rubin. Устройства на базе Vera будут поставляться крупными OEM-производителями, включая Cisco, Dell, HPE, Lenovo и Supermicro. Такие машины станут доступны во II половине текущего года.
17.03.2026 [02:00], Владимир Мироненко
ИИ-ускорители Groq прописались в платформе NVIDIA Vera RubinNVIDIA объявила о том, что платформа Vera Rubin, объединяющая теперь уже семь различных чипов (ещё в январе их было шесть), которые вместе откроют новые горизонты агентного ИИ, запущена в производство. Платформа включает Arm-процессоры Vera, ускорители Rubin, интерконнект NVLink 6, адаптеры ConnectX-9 SuperNIC и DPU BlueField-4, а также Ethernet-коммутаторы Spectrum/Quantum-6. Седьмым чипом стал LPU Groq 3 — NVIDIA купила Groq за рекордные $20 млрд всего три месяца назад и активно наращивает производство LPU. Благодаря такому сочетанию компонентов платформа обеспечивает обработку ИИ-нагрузок на всех этапах — от масштабного предварительного обучения, постобучения и масштабирования во время тестирования до инференса агентных задач в реальном времени, говорит NVIDIA. «Vera Rubin — это скачок в развитии — семь прорывных чипов, пять стоек, один гигантский суперкомпьютер — созданный для обеспечения всех этапов работы ИИ», — сообщил Дженсен Хуанг (Jensen Huang), основатель и генеральный директор NVIDIA. Он отметил, что с появлением Vera Rubin в развитии агентного ИИ наступил переломный момент, положившей начало «крупнейшему в истории развёртыванию инфраструктуры». «Платформа NVIDIA Vera Rubin предоставляет нам вычислительные ресурсы, сетевые возможности и системную архитектуру, позволяющие продолжать работу, одновременно повышая безопасность и надёжность, на которые полагаются наши клиенты», — подтвердил Дарио Амодеи (Dario Amodei), генеральный директор и соучредитель Anthropic. «Инфраструктура NVIDIA — это основа, которая позволяет нам расширять границы ИИ, — заявил Сэм Альтман (Sam Altman), генеральный директор OpenAI. — С NVIDIA Vera Rubin мы будем запускать более мощные модели и агентов в огромных масштабах и предоставлять более быстрые и надёжные системы сотням миллионов людей». Как отметила компания, Vera Rubin предлагает самую обширную комплексную ИИ-платформу — суперкомпьютер с множеством стоек, специально разработанных для ИИ, работающих как одна массивная, целостная система. NVIDIA Vera Rubin NVL72 обеспечивает высокую эффективность в обучение больших MoE-моделей с использованием вчетверо меньшего количества ускорителей по сравнению с платформой Blackwell и достижение до 10 раз большей пропускной способности инференса на ватт при в десять раз меньшей стоимости токена. CPU-стойка Vera — это высокоплотная MGX-платформа с СЖО, объединяющая 256 процессоров Vera для обеспечения масштабируемой, энергоэффективной производительности с первоклассной однопоточной обработкой, что обеспечивает возможности для масштабируемого агентного ИИ. Стойки Vera имеют тесную синхронизацию сред во всей ИИ-фабрике. Вместе со стойками Rubin они обеспечивают основу крупномасштабных систем агентного ИИ и обучения с подкреплением — при этом Vera обеспечивает результаты в два раза эффективнее и наполовину быстрее, чем традиционные CPU (впрочем, в NVL8 по-прежнему будут Intel Xeon). Стойки Groq 3 LPX (тоже с СЖО и тоже на базе MGX) и Vera Rubin, разработанные для обеспечения низкой задержки и обработки больших контекстов, необходимых для агентных систем, обеспечивают до 35 раз более высокую пропускную способность инференса на мегаватт и до 10 раз больший потенциал дохода для моделей с триллионами параметров. В масштабе предприятия парк LPU функционирует как единый гигантский процессор для быстрого и детерминированного ускорения инференса. Стойка LPX с 256 LPU-чипами имеет 128 Гбайт SRAM с агрегированной пропускной способностью 640 Тбайт/с. В сочетании с Vera Rubin NVL72 чипы LPU повышают эффективность декодирования, совместно вычисляя каждый слой модели ИИ для каждого выходного токена. Всё это позволяет работать с моделями с триллионами параметров и контектсным окном в миллионы токенов, сохраняя максимальную эффективность по энергопотреблению, памяти и вычислительным ресурсам. Анонсированная вместе с Vera Rubin СХД BlueField-4 STX разработана специально для ИИ-нагрузок, обеспечивая бесперебойное расширение памяти GPU по всему POD-кластеру. Впрочем, теперь компания говорит, что BlueField-4 включает CPU Vera, а не Grace, и ConnectX-9 SuperNIC. STX обеспечивает высокоскоростной общий слой данных, оптимизированный для хранения и извлечения больших объёмов KV-кеша, генерируемых LLM и рабочими процессами агентного ИИ. А программная платформа DOCA Memos позволяет использовать выделенное KV-хранилище для увеличения пропускной способности инференса до пяти раз, также повышая энергоэффективность по сравнению с архитектурами хранения общего назначения. Также NVIDIA совместно с более чем 200 партнёрами анонсировала платформу NVIDIA DSX для Vera Rubin, которая включает технологию DSX Max-Q, позволяющую динамически управлять питанием всей ИИ-фабрики целиком, позволяя увеличить на 30 % ИИ-инфраструктуру в ЦОД при том же энергопотреблении. ПО DSX Flex обеспечивает ИИ-фабрикам гибкость в работе с энергосетями, позволяя освоить до 100 ГВт неиспользуемой мощности сетей. Кроме того, NVIDIA выпустила эталонный проект Vera Rubin DSX AI Factory — схему для совместно разработанной ИИ-инфраструктуры, которая максимизирует количество токенов на ватт и общую пропускную способность, повышая отказоустойчивость системы и ускоряя развётывание. Продукты на базе Vera Rubin будут доступны у партнёров NVIDIA, начиная со II половины этого года. В их число входят гиперскейлеры AWS, Google Cloud, Microsoft Azure и Oracle Cloud, а также партнёры NVIDIA Cloud — CoreWeave, Crusoe, Lambda, Nebius, Nscale и Together AI. Ожидается, что широкий спектр серверов на базе продуктов Vera Rubin будут поставлять глобальные производители систем Cisco, Dell Technologies, HPE, Lenovo и Supermicro, а также Aivres, ASUS, Foxconn, GIGABYTE, Inventec, Pegatron, Quanta Cloud Technology (QCT), Wistron и Wiwynn.
17.03.2026 [00:52], Владимир Мироненко
Решение TrueNAS Connect обеспечит пользователям Community Edition и сторонних СХД бесплатный доступ к продвинутым функциям TrueNAS EnterpriseКомпания TrueNAS (ранее — iXsystems) объявила о доступности сервиса TrueNAS Connect, который позиционируется как своего рода мост для доступа к корпоративным функциям хранения данных TrueNAS без необходимости приобретения её оборудования. TrueNAS Enterprise отличается от бесплатной TrueNAS Community Edition для NAS-устройств и других систем хранения данных, основанной на Linux, расширенными возможностями, включая проактивное оповещение, расширенное управление, безопасность уровня оборонных стандартов, повышение производительности, интеграцию со сторонним программным обеспечением и т. д. Доступ к этим функциям ранее можно было получить только через коммерческие партнёрские отношения с TrueNAS в рамках бизнес-модели Open-Core, например приобретая устройства TrueNAS Enterprise — различные серверы и решения для хранения данных с предустановленной TrueNAS Enterprise, предоставляющей самый продвинутый набор функций для этой открытой платформы. «TrueNAS Connect был представлен в начале 2026 года как решение для мониторинга и управления, расширяющее и улучшающее вашу установку TrueNAS за счёт дополнительных веб-функций, а также упрощающее процесс установки для новых пользователей. В течение 2026 года TrueNAS Connect также станет мостом между нашей бесплатной версией Community Edition и нашими корпоративными устройствами Enterprise», — отметила компания. Новое решение позволяет клиентам пользоваться расширенными функциями без необходимости приобретения устройств TrueNAS Enterprise. Это является подходящим вариантом для тех, кто уже инвестировал в другое оборудование или вынужден использовать его по требованиям организации, но хочет максимально использовать возможности TrueNAS в корпоративной среде, отметил ресурс Phoronix. Компания пояснила, что Community Edition предназначена для энтузиастов, домашних лабораторий, студентов и самостоятельных технических команд, которым нужна мощная платформа хранения данных без лицензионных сборов. Она включает в себя полную основу OpenZFS с файловыми, блочными и объектными протоколами, виртуальными машинами, Docker, приложениями и многим другим. Версия будет оставаться бесплатной — ничего не удаляется, и постоянно добавляются новые функции с открытым исходным кодом. В свою очередь, TrueNAS Enterprise предназначена для ИТ-руководителей и профессиональных организаций, которым нужны готовые к использованию высокодоступные устройства, безопасность уровня оборонного предприятия, выделенная поддержка и глубокая интеграция с такими платформами, как VMware, Proxmox и Veeam. TrueNAS Connect предоставляет новые возможности для опытных пользователей: профессионалов, малых предприятий и т. д. «Это мост, обеспечивающий возможности корпоративного класса, такие как расширенный мониторинг, веб-доступ, проактивные оповещения, управление несколькими системами и защита от программ-вымогателей, для вашего собственного оборудования», — сообщила TrueNAS, добавив, что планирует в ближайшие годы предложить больше дополнительных функций для опытных пользователей. TrueNAS Connect включает бесплатный уровень Foundation, который охватывает базовую функциональность, а также платные уровни Plus и Business, причём последний появится в будущем, для команд, которым требуется больше возможностей. Он также значительно упрощает установку Community Edition на оборудование bare metal. Компания отметила, что бизнес-модель Open-Core не меняется. ПО TrueNAS остаётся основой для всех трёх версий. Многие новые функции будут автоматически включены в бесплатную версию Community Edition. TrueNAS Connect управляет лицензированием и разрешениями, которые обеспечивают возможности Enterprise, выходящие за рамки бесплатного уровня.
16.03.2026 [22:47], Андрей Крупин
70 % российских компаний продолжают использовать софт AtlassianОколо 70 % отечественных организаций до сих пор продолжают использовать неподдерживаемые версии программных решений Jira, Confluence и Trello австралийской компании Atlassian. Об этом свидетельствует проведённое системным интегратором «К2Тех» исследование. Согласно представленным «К2Тех» сведениям, лишь 15 % организаций ведут активную миграцию с решений Atlassian. Ещё 15 % приступили к пилотным проектам. Основная масса демонстрирует выжидательную позицию: 46 % опрошенных компаний находятся на стадии оценки вариантов, 10 % вообще не начинали процесс миграции. Таким образом, 7 из 10 предприятий все ещё продолжают эксплуатацию решений Atlassian, которые официально не поддерживаются. При этом 53 % опрошенных компаний оценивают срок миграции в 1–2 года, а 28 % считают, что им потребуется более двух лет. Оставшаяся часть считает реалистичным завершить миграцию в срок до одного года.
Источник изображения: Atlassian Напомним, с 30 марта 2026 года Atlassian официально прекратит продажи новых лицензий Data Center по всему миру и сфокусируется на реализации глобальной стратегии перевода клиентов с серверных лицензий на облачную модель. Для российского бизнеса такой вариант неприемлем, в первую очередь — по причине корпоративных политик безопасности, запрещающих хранение чувствительных данных за пределами контура компании. «С 2022 года некоторые компании продлевали лицензии Atlassian через иностранные юрлица, но переход вендора на облачную модель сделал эти схемы невозможными. Легальный доступ к облачным сервисам Atlassian для российских пользователей отсутствует, а для крупного бизнеса и окологосударственных структур он исключён также требованиями к размещению данных на сторонних серверах. В результате единственным доступным сценарием остаётся использование устаревших серверных версий без поддержки вендора. Однако такой подход сопряжён с нарастающими рисками: неустранимые уязвимости, несовместимость с актуальными ОС и невозможность интеграции с корпоративными системами», — поясняет системный интегратор «К2Тех», прогнозирующий в текущем году массовый переход отечественного бизнеса на российские аналоги Atlassian. |
|

