Материалы по тегу: стандарты

08.11.2025 [12:53], Сергей Карасёв

WORM, WORSe и WORN — определены три уровня архивного хранения данных для ИИ-систем

Организация Active Archive Alliance, по сообщению ресурса Blocks & Files, определила три основных уровня архивного хранения данных в эпоху ИИ. Предложенная концепция поможет преобразовать архивы из пассивных хранилищ в активные механизмы с возможностью быстрого извлечения нужных сведений.

Active Archive Alliance — это отраслевая группа, сформированная в 2010 году для продвижения концепции «активных архивов». Такие системы обеспечивают упрощённый и быстрый доступ к любым данным в любое время. В состав альянса входят Arcitecta, BDT Media Automation GmbH, Cerebyte, FujiFilm, IBM, Iron Mountain, MagStor, Point, Savartus, Spectra Logic, Wasabi, Western Digital и XenData.

 Источник изображений: Horison Information Strategies / Blocks & Files

Источник изображений: Horison Information Strategies / Blocks & Files

Отмечается, что на фоне стремительного развития ИИ организациям в различных отраслях всё чаще требуется быстрый доступ к огромным объёмам исторической информации. Помочь в удовлетворении таких потребностей призван «активный архив». Архитектура таких платформ предполагает применение накопителей разных типов — SSD, HDD, оптических дисков и ленточных устройств. Распределение данных между ними управляется при помощи специального интеллектуального ПО. Сами накопители могут размещаться локально или в облаках. Предусмотрены различные слои архивирования: «горячие» (SSD, HDD), «тёплые» (HDD, оптические диски) и «холодные» (LTO). Данные по мере старения перемещаются от горячего до холодного слоя, но могут вернуться обратно в случае необходимости.

При этом Active Archive Alliance предлагает три уровня доступа к информации — WORM (Write Once, Read Many), WORSe (Write Once, Read Seldom) и WORN (Write Once, Read Never.) Первый предполагает однократную запись и многократное чтение, второй — однократную запись и редкое чтение, третий — однократную запись при практически полном отсутствии операций чтения. Эти уровни соответствуют трём типам хранилищ — активному, архивному и глубокому. Все они относятся к вторичным массивам, на которые, по оценкам, приходится около 80 % данных (ещё 20 % располагаются в первичных высокопроизводительных системах). Причём активный ярус хранения обеспечивает около 15 % ёмкости, архивный — 60 %, глубокий — только 5 %.

Постоянный URL: http://servernews.ru/1132080
21.10.2025 [16:14], Руслан Авдеев

К 2030 году 21″ OCP-стойки станут доминирующим стандартом в ЦОД

Дата-центры намерены стандартизировать использование более крупных 21″ стоек вместо обычных 19″ к 2030 году. По данным Omdia, гиперскейлеры и производители серверов полностью поддерживают такой переход, а корпоративные ЦОД всё ещё будут придерживаться старого типоразмера, сообщает The Register.

По некоторым данным, 19″ стойки (EIA-310) ведут свою «родословную» от релейных шкафов на железных дорогах — там подобный стандарт появился ещё до того, как его приняли телефонные компании, а позже и IT-индустрия. Meta (Facebook) ещё в 2012 году столкнулась с ограничениями старого формата и основала OCP для того, чтобы организовать разработку и принятие более эффективных индустриальных стандартов.

По прогнозам аналитиков, на более крупный формат, продвигаемый OCP, к концу десятилетия придётся более 70 % поставок, поскольку он активно внедряется крупными вендорами вроде Dell и HPE — одними из лидеров в гонке по выпуску ИИ-оборудования. По данным Omdia, на сегодня все крупнейшие сервис-провайдеры, включая Microsoft, Amazon, Meta, Google, ByteDance, Huawei и Oracle уже перешли на использование 21″ стоек в своих ЦОД. Так, Huawei ещё в 2019 году объявила, что её дата-центры будут опираться на 21″ стандарт.

 Источник изображения: ***

Источник изображения: Meta

Преимуществами более крупных стоек является лучшая циркуляция воздуха и возможность устанавливать более крупные массивы вентиляторов, что улучшает охлаждение. Кроме того, такие стойки допускают установку более крупных модулей питания и трубок СЖО, что важно для ИИ-серверов. При этом сохраняется совместимость с 19″ решениями. В Omdia ожидают, что полностью укомплектованные стойки вроде NVIDIA DGX GB200 NVL72 станут фактическим стандартом.

 Источник изображения: Omdia

Источник изображения: Omdia

Кроме того, Dell и HPE продвигают предложенную OCP модульную серверную архитектуру Data Center Modular Hardware System (DC-MHS), которая позволяет по отдельности обновлять IO-модули и остальное «железо». Omdia прогнозирует, что на долю ИИ-серверов будет приходиться всё большая часть расходов на серверы в целом. Уже в 2024 году речь шла о 66 %, причём ключевые игроки рынка, включая гиперскейлеров и облачных ИИ-провайдеров, поддерживают именно 21″ стандарт, поэтому победа OCP над другими стандартами стала лишь вопросом времени.

Постоянный URL: http://servernews.ru/1131137
16.10.2025 [13:39], Руслан Авдеев

Унификация, стандартизация, совместимость: Google призвала создавать взаимозаменяемые компоненты для ИИ ЦОД

В ходе мероприятия OCP Summit компания Google выступила с общеотраслевой инициативой «переосмысления» архитектуры ЦОД, оптимизированных для эпохи ИИ. В рамках сообщества Open Compute Project (OCP) предлагается создать рабочее направление по разработке «гибких, взаимозаменяемых ЦОД», сообщает пресс-служба компании.

Google подчеркнула, что скорость внедрения и неоднородность ИИ-технологий растёт, что затрудняет создание общей системы, проектирования, развёртывания и обслуживания ЦОД. Представленный Google проект предусматривает создание модульных, совместимых друг с другом решений для ЦОД, позволяющих легко адаптироваться к стремительному развитию ИИ и изменению рабочих нагрузок. Говорится о «начале революции» в сфере ИИ — мир радикально изменился и необходимо создавать дата-центры, способные меняться не менее быстро. По данным компании, за последние 24 месяца использование ИИ-ускорителей внутри Google увеличилось в 15 раз, объём хранилищ для машинного обучения Hyperdisk ML — в 37 раз, а количество обработанных токенов — до двух квадрлн/мес.

 Источник изображений: Google

Источник изображений: Google

В Google сравнивают исследователей ИИ с исследователями космоса, а участников OCP, строителей инфраструктуры — со строителями ракет. Сама инфраструктура компании, как утверждается, поддерживает ИИ-трансформацию на всех уровнях экосистемы, от пользовательских приложений (на основе Gemini) до корпоративных сервисов и научных изысканий в самых разных областях.

Особое внимание уделяется обеспечению взаимозаменяемости и гибкости: модульные компоненты, спроектированные различными участниками отрасли, должны быть совместимы с компонентами и системами других поколений и вендоров, причём принципы унификации должны применяться ко всем компонентам ЦОД, включая электропитание, охлаждение, вычислительное оборудование, сетевые технологии и др.

Стратегия самой Google строится вокруг т.н. ИИ-гиперкомпьютера — комплексной архитектуры, в которой все компоненты от чипов до электросетей разработаны с учётом общих особенностей системы для обеспечения максимальной эффективности. Благодаря использованию собственных TPU, оптических коммутаторов и СЖО, компания добилась роста энергоэффективности и снижения затрат в 10–100 раз за последние 10 лет. Google уже развернула мегаваттами инфраструктуры с жидкостным охлаждением.

Компания вместе с партнёрами организовала в рамках OCP рабочую группу, целью которой является создание единых стандартов обеспечения модульности и совместимости компонентов, а также общих интерфейсов в области вычислений, сетей, хранилищ, безопасности и устойчивости.

В частности, участники OCP договорились о разработке гибких систем электропитания для современных ЦОД. Речь идёт о стандартизации 400-В архитектур и модульных системах Mt. Diablo с использованием твердотельных преобразователей. Также ведутся работы в сфере микросетей и аккумуляторных хранилищ. Всё вместе это позволит сглаживать пики потребления энергии, характерные для обучения ИИ, а в перспективе и возвращать излишки энергии обратно в энергосети.

Охлаждение также переосмысливается в эпоху ИИ. В начале 2025 года OCP представлено современное решение для жидкостного охлаждения Project Deschutes. Теперь оно получит широкое распространение среди вендоров, включая поставщиков жидкостного охлаждения вроде Boyd, CoolerMaster, Delta, Envicool, Nidec, nVent и Vertiv. Сообщество работает над унификацией интерфейсов охлаждения, новых теплообменников. Важную роль играет стандартизация компонентов и интерфейсов в колокейшн- и сторонних ЦОД.

Наконец, Google подчёркивает необходимость унификации физических стандартов: высоты, ширины, глубины и даже грузоподъёмности стоек; ширины и планировки проходов, интерфейсов стоечного и сетевого оборудования. Также требуются единые стандарты для телеметрии и мехатроники, которые лягут в основу строительства и эксплуатации дата-центров следующего поколения. Совместно с партнёрами по OCP ведутся работы над стандартизацией интеграции телеметрии для сторонних дата-центров.

Помимо физической инфраструктуры, по словам Google, необходимо внедрение открытых стандартов для обеспечения масштабируемости и безопасности систем:

  • Надёжность. Предполагается расширение многолетней работы по повышению управляемости, надёжности и ремонтопригодности систем. В частности, стандарты, ранее применявшиеся в основном для GPU, теперь будут распространяться и на CPU. Это касается своевременной прошивки и отладки процессоров.
  • Безопасность. Google предложила очередное поколение аппаратной технологии Root of Trust (RoT) Caliptra. Она предназначена для проверки целостности и подлинности прошивок и другого встроенного, а также системного ПО. В версии Caliptra 2.0 предлагается защита с помощью постквантовой криптографии, а технология OCP S.A.F.E делает аудит безопасности рутинной и недорогой операцией.
  • Хранение. OCP L.O.C.K. на основе Caliptra представляет собой надежное решение с открытым исходным кодом для управления ключами для любого устройства хранения данных.
  • Сетевые технологии. Протокол сигнализации о перегрузке (CSIG) стандартизирован и обеспечивает заметное улучшение балансировки нагрузки. Дополнительно прилагаются усилия для дальнейшей стандартизации оптической коммутации (Optical Circuit Switching).

Для измерения воздействия на окружающую среду предложена методология измерения потребления энергии, воды и подсчёта выбросов в ходе ИИ-нагрузок. В частности, с их помощью выяснилось, что медианный промпт Gemini тратит менее 5 капель воды и электричество в объёме, достаточном для просмотра телевизора в течение менее девяти секунд. Эти методы подсчёта касаются и других, совместных с OCP проектов, включая выпуск экобезопасного бетона, чистой резервной энергии и др.

Google приглашает принять участие в инициативе OCP Open Data Center for AI Strategic для разработки общих стандартов. Наконец, сообщество OCP призвали работать над проектами «ИИ для ИИ» — использованием искусственного интеллекта для разработки ИИ-систем следующего поколения. Так, проект AlphaChip предусматривает использование ИИ для размещения компонентов чипов, что уже позволило улучшить показатели мощности, производительности и др., одновременно сократив время проектирования. Предполагается, что создание ИИ систем с помощью ИИ, от полупроводников до программного обеспечения, позволит достигнуть нового уровня эффективности технологий.

Постоянный URL: http://servernews.ru/1130830
14.10.2025 [19:00], Сергей Карасёв

OCP поможет в унификации чиплетов с применением открытых стандартов: Arm и Eliyan поделились наработками

Некоммерческая организация Open Compute Project Foundation (OCP) сообщила о расширении так называемой «открытой чиплетной экономики» (Open Chiplet Economy). Свои наработки в данной сфере сообществу передали компании Arm и Eliyan.

Open Chiplet Economy — это инициатива OCP Server Project Group. Она позволяет разработчикам чиплетов посредством открытого рынка взаимодействовать с производителями продукции. Речь идет о формировании унифицированной экосистемы, за поддержание которой в актуальном состоянии отвечает OCP.

В рамках проекта компания Arm передала организации OCP и её участникам архитектуру FCSA (Foundation Chiplet System Architecture), основанную на CSA (Chiplet System Architecture). Она определяет общие базовые стандарты для разделения монолитных систем на чиплеты, которые затем могут использоваться в составе различных изделий, включая память, устройства ввода-вывода и ускорители. Такой подход, как ожидается, упростит создание новых продуктов благодаря повторному использованию уже разработанных блоков. Кроме того, повысится гибкость за счёт отказа от привязки к проприетарным стандартам чиплетов.

 Источник изображения: OCP

Источник изображения: OCP

В свою очередь, Eliyan предоставит сообществу разработки, которые помогут расширить спецификацию интерконнекта для чиплетов OCP BoW 2.0 (Bunch of Wires). В частности, будут добавлены функции для систем, которым требуется высокая пропускная способность: это могут быть приложения ИИ, НРС, игры, автомобильные платформы и пр. Целевым показателем является поддержка скоростей памяти HBM4 (2 Тбайт/с для чтения или записи) вместе с дополнительным каналом связи для сигналов ECC и управления.

Постоянный URL: http://servernews.ru/1130701
14.10.2025 [02:00], Сергей Карасёв

OCP запустила инициативу Open Data Center for AI для стандартизации инфраструктуры передовых ИИ ЦОД с мегаваттными стойками

Некоммерческая организация Open Compute Project Foundation (OCP) анонсировала инициативу Open Data Center for AI по стандартизации компонентов физической инфраструктуры дата-центров, ориентированных на задачи ИИ и другие ресурсоёмкие нагрузки.

Проект Open Data Center for AI является частью программы OCP Open Systems for AI, которая была представлена в январе 2024 года при участии Intel, Microsoft, Google, Meta, NVIDIA, AMD, Arm, Ampere, Samsung, Seagate, SuperMicro, Dell и Broadcom. Цель заключается в разработке открытых стандартов для кластеров ИИ и ЦОД, в которых размещаются такие системы.

Запуск Open Data Center for AI продиктован быстрым развитием экосистемы дата-центров, результатами, полученными в рамках OCP Open Systems for AI, и новым открытым письмом о сотрудничестве, подготовленным Google, Meta и Microsoft. В настоящее время, как отмечается, отрасль ЦОД сталкивается с проблемами, связанными с тем, что разрозненные усилия её участников, включая гиперскейлеров и колокейшн-провайдеров, порождают различные требования к проектированию инфраструктуры. Это замедляет внедрение инноваций и увеличивает сроки развёртывания передовых площадок.

 Источник изображений: OCP

Источник изображений: OCP

Цель Open Data Center for AI заключается в том, чтобы стандартизовать требования к системам электропитания, охлаждения и телеметрии, а также к механическим компонентам в ЦОД. Предполагается, что это обеспечит взаимозаменяемость элементов физической инфраструктуры дата-центров.

При реализации инициативы Open Data Center for AI планируется использовать уже имеющиеся наработки сообщества OCP в области блоков распределения охлаждающей жидкости (CDU) и блоков распределения питания (PDU). Это, в частности, проект Mt. Diablo, который реализуется Meta, Microsoft и Google. Он предполагает создание общих стандартов электрических и механических интерфейсов. Идея заключается в разделении стойки на независимые шкафы для компонентов подсистемы питания и вычислительного оборудования. При этом планируется переход от единой шины питания постоянного тока с напряжением 48 В на архитектуру 400 В DC (Diablo 400).

Ещё одним проектом, наработки которого пригодятся в рамках Open Data Center for AI, назван CDU Deschutes, разработанный Google. Это решение с резервными теплообменниками и насосами обеспечивает уровень доступности 99,999 %. Система Deschutes рассчитана на тепловые нагрузки до 2 МВт. Открытая спецификация позволит любой компании совершенствовать конструкцию CDU и производить изделия данного типа.

Наконец, упоминаются серверные шасси Clemente, разработанные в Meta. Это узлы 1U, содержащие два суперчипа NVIDIA Grace Blackwell GB300 для ресурсоёмких ИИ-нагрузок. Платформа предполагает применение жидкостного охлаждения для CPU, GPU и коммутатора, а также воздушного охлаждения для других компонентов.

Постоянный URL: http://servernews.ru/1130680
11.08.2025 [10:46], Сергей Карасёв

SSD под контролем: консорциум NVM Express обновил спецификации, добавив быстрое восстановление после сбоев

Консорциум NVM Express обнародовал ряд новых спецификаций, призванных ускорить и упростить разработку изделий с архитектурой NVMe. Реализованы функции, которые помогают в решении эксплуатационных задач, предоставляя администраторам улучшенную прозрачность и контроль над хранилищами для критически важных бизнес-приложений и нагрузок в дата-центрах.

В частности, обновлены базовая спецификация NVMe 2.3, спецификация набора команд (NVM Command Set 1.2, ZNS Command Set 1.4, Key Value Command Set 1.3, Subsystem Local Memory Command Set 1.2, Computational Programs Command Set 1.2), транспортная спецификация (NVMe over PCIe Transport 1.3, NVMe over RDMA Transport 1.2, NVMe over TCP Transport 1.2), а также спецификации NVM Express Management Interface (NVMe-MI) 2.1 и NVMe Boot 1.3.

 Источник изображения: NVM Express

Источник изображения: NVM Express

Одной из новых функций является восстановление после сбоев Rapid Path Failure Recovery. Этот инструмент обеспечивает связь с подсистемой NVM через альтернативные каналы, что позволяет быстро восстанавливать подключение в случае потери связи с контроллером, избегая повреждения данных и дублирования невыполненных команд.

Кроме того, появилась возможность ограничения мощности (Power Limit Config): эта функция обеспечивает полный контроль над максимальной мощностью устройств NVMe, что особенно важно для старых платформ с ограниченным потенциалом в плане питания. В свою очередь, режим Self-reported Drive Power позволяет хосту измерять и контролировать мощность устройства NVMe, а также энергопотребление в течение всего срока его службы. Это помогает в решении вопросов, связанных с обслуживанием хранилищ и устойчивым развитием.

Инструмент Sanitize Per Namespace обеспечивает криптографическую очистку отдельных пространств имен, не затрагивая всю подсистему NVM. Кроме того, упомянут механизм индивидуальной настройки устройств Configurable Device Personality.

Постоянный URL: http://servernews.ru/1127420
05.08.2025 [11:28], Владимир Мироненко

SNIA анонсировала проект Storage.AI для стандартизации обработки ИИ-нагрузок

Storage Networking Industry Association (SNIA) — некоммерческая организация, специализирующаяся на технологиях обработки и оптимизации данных — анонсировала проект Storage.AI, основанный на открытых стандартах для эффективных сервисов обработки данных, связанных с рабочими ИИ-нагрузками. Проект будет сфокусирован на стандартных для отрасли, непатентованных и нейтральных подходах к решению задач, связанных с обработкой данных для ИИ, с целью оптимизации производительности, энергоэффективности и экономичности соответствующих рабочих процессов.

К инициативе уже присоединились AMD, Cisco, DDN, Dell, IBM, Intel, KIOXIA, Microchip, Micron, NetApp, Pure Storage, Samsung, Seagate, Solidigm и WEKA. Отдельно отмечается отсутствие NVIDIA — крупнейшего поставщика ИИ-ускорителей.

 Источник изображений: SNIA

Источник изображений: SNIA

Как указано в пресс-релизе, рабочие ИИ-нагрузки чрезвычайно сложны и ограничены такими факторами, как задержки, доступное пространство, энергопотребление и охлаждение, объём памяти и стоимость. Решение этих проблем в рамках открытой отраслевой инициативы рассматривается как наиболее быстрый путь к оптимизации и широкому внедрению ИИ.

По словам Дж. Метца (J Metz), председателя SNIA, беспрецедентные требования со стороны ИИ требуют целостного взгляда на весь конвейер данных — от храненилищ и памяти до сетевых технологий и вычислений. Он подчеркнул, что Storage.AI предоставляет отраслевому сообществу независимую от вендоров платформу, предназначенную для координации широкого спектра сервисов обработки данных и создания эффективных, открытых решений, необходимых для ускоренного внедрения ИИ-технологий.

Инициатива координирует ряд технических спецификаций, которые до сих пор существовали обособленно и не были адаптированы под нужды ИИ-нагрузок.

Первоначальный набор спецификаций включает:

  • интерфейс SDXI (Smart Data Accelerator Interface) для перемещения данных в памяти на аппаратном уровне;
  • протоколы прямого доступа к ускорителям;
  • стандарты I/O, инициируемого ускорителем;
  • реализации файлов и объектов через RDMA;
  • фреймворки Compute-near-storage;
  • модели программирования NVM (энергонезависимой памяти).

Предполагается, что в рамках проекта Storage.AI будет создана открытая экосистема эффективных сервисов обработки данных, способных справляться с наиболее сложными задачами, связанными с ИИ-нагрузками, и устранять текущие пробелы в обработке и доступе к данным. В обеспечении широкой поддержки экосистемы также примут участие партнёры SNIA, включая UEC, NVM Express, OCP, OFA, DMTF и SPEC.

Постоянный URL: http://servernews.ru/1127091
27.05.2025 [18:53], Владимир Мироненко

28 мая состоится онлайн-мероприятие по подготовке предложений в рамках обзора ВВУИО+20

28 мая состоится онлайн-мероприятие по подготовке предложений в рамках обзора ВВУИО+20 (Всемирная встреча на высшем уровне по вопросам информационного общества), который проводится в связи с намерением ООН произвести актуализацию принципов ВВУИО с учётом существующих реалий — цифровой трансформации, развития ИИ-технологий и т.д. — и анализа эффективности реализации рамочных программ «Направлений деятельности ВВУИО» и «Форум по управлению Интернетом» (IGF), а также в соответствии с «Целями устойчивого развития ООН» (ЦУР).

Как сообщает организация RIPE NCC, двадцатилетний обзор будет в основном опираться на Тунисскую повестку 2005 года, итоги ВВУИО+10 2015 года и «Глобальный цифровой договор» (ГЦД), принятый в рамках «Пакта ООН во имя будущего» (Pact for the Future) в 2024 году. В RIPE NCC отметили необходимость сохранения и развития модели, которая позволила достичь значительного прогресса в расширении доступа в интернет, аудитория которого выросла с 700 млн человек в 2003 году до 5,8 млрд сегодня.

Процесс обзора ВВУИО+20 стартовал с открытых консультаций в 2024 году и принятия «Доклада о ходе осуществления итогов ВВУИО» Комиссией ООН по науке и технике в целях развития (КНТР) в апреле 2025 года. Затем, 25 марта Генеральная Ассамблея ООН приняла «Порядок проведения обзора ВВУИО+20» и были назначены два сопредседателя для осуществления руководства обзором итогов ВВУИО. В дополнение отдельные учреждения ООН проведут собственные обзоры.

Следующие этапы обзора включают проведение «Мероприятия высокого уровня Форума ВВУИО» в Женеве с 7 по 11 июля и двухдневное заседание высокого уровня Генеральной Ассамблеи ООН (ГА ООН) в Нью-Йорке, запланированное на декабрь 2025 года и посвящённое согласованию итоговой резолюции.

 Источник изображения: Stefan Cosma/unsplash.com

Источник изображения: Stefan Cosma/unsplash.com

Речь идёт не только о будущем многостороннего подхода, использовавшегося для управления интернетом и цифрового сотрудничества, но и решении проблем глобального неравенства при осуществлении цифровой трансформации общества. Как полагают в RIPE NCC, эти проблемы должны быть решены в ходе обзора путём обеспечения прозрачности и выделения ресурсов для того, чтобы модель способствовала преодолению растущего цифрового разрыва и подготовке к технологиям завтрашнего дня более справедливым образом с целью становления равноправного глобального информационного общества. В качестве ключевого приоритета в RIPE NCC назвали возобновление как рамок ВВУИО, так и мандата IGF.

Один из ключевых вопросов — техническая координация и управление интернетом. В RIPE NCC указали на необходимость сохранения координирующей роли RIR для поддержания интернет-протоколов и открытых стандартов, обеспечивающих глобальную совместимость, децентрализованное управление и единую распределённую систему маршрутизации, а также регистрационных служб, гарантирующих уникальность интернет-идентификаторов.

Организация отметила, что совместно с партнёрами, включая другие RIR, ICANN и IETF, она способствует стабильности, безопасности и нейтралитету основной инфраструктуры интернета посредством открытого процесса разработки политики «снизу вверх», а также путем координации со всеми соответствующими заинтересованными сторонами из правительств, научных кругов, гражданского общества и частного сектора.

RIPE NCC отметила основополагающее значение для технической координации интернета таких структур, как IETF, ICANN и RIR, призвав укрепить роль технического сообщества и сотрудничество с правительствами. Также организация предлагает направить усилия на преодоление цифрового разрыва при подготовке к новым технологиям завтрашнего дня: «интернет должен развиваться, чтобы поддерживать не только нынешних пользователей, но и будущие инновации в области ИИ, квантовых вычислений и робототехники».

Зарегистрироваться для бесплатного участия в онлайн-мероприятии можно по этой ссылке.

Постоянный URL: http://servernews.ru/1123505
20.04.2025 [14:40], Сергей Карасёв

Sitronics Group: российским ИИ ЦОД нужны единые стандарты

Sitronics Group намерена принять участие в разработке и продвижении единых стандартов для рынка модульных ЦОД. Об этом в ходе конференции Data Fusion заявил директор профильного департамента компании Игорь Анисимов, призвав участников отрасли присоединиться к инициативе.

В России сектор ЦОД развивается и адаптируется к новым нагрузкам, в первую очередь к ИИ. При этом возрастает нагрузка на энергетическую инфраструктуру, что потенциально может спровоцировать дефицит. По словам Анисимова, участникам рынка следует заняться решением таких вопросов, как рост плотности энергопотребления, а также стандартизация строительства и эксплуатации дата-центров, ориентированных на ИИ-нагрузки. При этом необходимо сохранить рентабельность бизнеса с учётом технологических требований для развёртывания ЦОД. Модульные дата-центры позволяют заказчикам в сжатые сроки создавать платформы для ИИ, получив мощности в аренду или же масштабировав собственные посредством типовых модулей.

«Сегодня нет единого стандарта для центров обработки данных с ИИ-нагрузкой, который позволил бы снизить капитальные затраты за счёт уменьшения затрат на разработку уникальных решений для каждого ЦОД. Стандартизация позволит проработать совместимость инфраструктуры ЦОД с системами ИИ. Мы намерены активно участвовать в этом процессе, особенно в части разработки стандартов для модульных ЦОД, которые, на наш взгляд, обладают большим потенциалом для эффективного размещения систем искусственного интеллекта», — говорит Анисимов.

 Источник изображения: Sitronics Group

Источник изображения: Sitronics Group

По его словам, при развёртывании дата-центров для ИИ прежде всего требуется бесперебойное электроснабжение и эффективное охлаждение. Сама Sitronics Group ведёт разработки в соответствующих областях: в частности, компания занимается созданием системы фрикулинга с экономайзерами. Кроме того, при стандартизации ЦОД необходимо определить форм-фактор серверов (стандартный или OCP), оптимальную температуру теплоносителя на входе в стойку и на уровне процессора, изучить вопросы совмещения зон для стандартных и ИИ-вычислений в рамках одного объекта, рассчитать мощности инженерных систем и пр.

Постоянный URL: http://servernews.ru/1121556
17.04.2025 [12:08], Сергей Карасёв

JEDEC обнародовала стандарт памяти HBM4 для ИИ-ускорителей следующего поколения

Ассоциация JEDEC Solid State Technology объявила о публикации стандарта памяти с высокой пропускной способностью HBM4. Он предполагает дальнейшее повышение пропускной способности, эффективности и ёмкости памяти для ускорителей следующего поколения, ориентированных на задачи ИИ и НРС.

Стандарт JESD270-4 HBM4, как утверждается, привносит многочисленные улучшения по сравнению с предыдущей версией. В частности, благодаря переходу от 1024-бит интерфейса у HBM3E к 2048-бит общая пропускная способность возросла до 2 Тбайт/с. Таким образом, HBM4 подходит для наиболее ресурсоёмких приложений, требующих эффективной обработки огромных массивов данных и сложных вычислений, включая генеративный ИИ.

Стандарт HBM4 удваивает количество независимых каналов на стек с 16 (HBM3) до 32: это предоставляет разработчикам большую гибкость. Говорится о поддержке уровней напряжения VDDQ 0,7 В, 0,75 В, 0,8 В или 0,9 В и VDDC 1,0 В или 1,05 В, что обеспечивает возможность снижения энергопотребления и повышения энергоэффективности. Допускается формирование 4-, 8-, 12- и 16-ярусных стеков ёмкостью 24 и 32 Гбайт. Упомянута поддержка Directed Refresh Management (DRFM) для снижения риска сбоев и повышения надёжности, доступности и удобства обслуживания.

 Источник изображения: K hynix

Источник изображения: SK hynix

Для стандарта HBM4 заявлена обратная совместимость с существующими контроллерами HBM3, что обеспечивает бесшовную интеграцию и гибкость при разработке систем нового поколения. При этом один и тот же контроллер может работать как с HBM3, так и с HBM4.

«Внедрение HBM4 знаменует собой важный шаг в области создания памяти с высокой пропускной способностью, обеспечивая производительность, эффективность и масштабируемость, которые необходимы для поддержки ИИ и высокопроизводительных вычислений следующего поколения», — говорит старший вице-президент, корпоративный научный сотрудник и технический директор по вычислениям и графике AMD.

Постоянный URL: http://servernews.ru/1121418

Входит в перечень общественных объединений и религиозных организаций, в отношении которых судом принято вступившее в законную силу решение о ликвидации или запрете деятельности по основаниям, предусмотренным Федеральным законом от 25.07.2002 № 114-ФЗ «О противодействии экстремистской деятельности»;

Система Orphus