Лента новостей

28.02.2024 [15:31], Сергей Карасёв

На MWC 2024 замечен первый образец ускорителя AMD Instinct MI300X с 12-слойной памятью HBM3E

Компания AMD готовит новые модификации ускорителей семейства Instinct MI300, которые ориентированы на обработку ресурсоёмких ИИ-приложений. Изделия будут оснащены высокопроизводительной памятью HBM3E. Работу над ними подтвердил технический директор AMD Марк Пейпермастер (Mark Papermaster), а уже на этой неделе на стенде компании на выставке MWC 2024 был замечен образец обновлённого ускорителя.

На сегодняшний день в семейство Instinct MI300 входят модификации MI300A и MI300X. Первая располагает 228 вычислительными блоками CDNA3 и 24 ядрами Zen4 на архитектуре x86. В оснащение входят 128 Гбайт памяти HBM3. На более интенсивные вычисления ориентирован ускоритель MI300X, оборудованный 304 блоками CDNA3 и 192 Гбайт HBM3. Но у этого решения нет ядер Zen4.

Недавно компания Micron сообщила о начале массового производства 8-слойной памяти HBM3E ёмкостью 24 Гбайт с пропускной способностью более 1200 Гбайт/с. Эти чипы будут применяться в ИИ-ускорителях NVIDIA H200, которые выйдут на коммерческий рынок во II квартале нынешнего года. А Samsung готовится к поставкам 12-слойных чипов HBM3E на 36 Гбайт со скоростью передачи данных до 1280 Гбайт/с.

AMD подтвердила намерение применять память HBM3E в обновлённых ускорителях Instinct MI300, но в подробности вдаваться не стала. В случае использования 12-слойных чипов HBM3E ёмкостью 36 Гбайт связка из восьми модулей обеспечит до 288 Гбайт памяти с высокой пропускной способностью. Наклейка на демо-образце недвусмысленно указывает на использование именно 12-слойной памяти. Впрочем, это может быть действительно всего лишь стикер, поскольку представитель AMD уклонился от прямого ответа на вопрос о спецификациях представленного изделия.

Ожидается также, что в 2025 году AMD выпустит ИИ-ускорители следующего поколения серии Instinct MI400. Между тем NVIDIA готовит ускорители семейства Blackwell для ИИ-задач: эти изделия, по заявлениям самой компании, сразу после выхода на рынок окажутся в дефиците.

Постоянный URL: https://servernews.ru/1100932
28.02.2024 [14:04], Сергей Карасёв

В Samsung разработаны первые в отрасли 12-слойные чипы HBM3E ёмкостью 36 Гбайт

Компания Samsung Electronics объявила о разработке первых в отрасли чипов высокопроизводительной памяти HBM3E в виде 12-ярусных стеков общей ёмкостью 36 Гбайт. Изделия ориентированы на применение в системах ИИ с большой вычислительной нагрузкой.

Новые чипы Samsung HBM3E обеспечивают пропускную способность до 1280 Гбайт/с. По этому показателю, как утверждается, решения более чем на 50 % превосходят доступные на рынке 8-слойные стеки HBM3.

 Источник изображения: Samsung

Источник изображения: Samsung

При изготовлении чипов Samsung применяет технологию термокомпрессии в комплексе с диэлектрической плёнкой. В результате, суммарная высота полученных 12-слойных изделий эквивалентна высоте 8-слойных. Samsung добилась наименьших в отрасли зазоров в стеке — всего 7 мкм, а также устранила пустоты между слоями. Это позволило поднять плотность вертикальной компоновки более чем на 20 % по сравнению с 8-слойными продуктами HBM3.

Кроме того, при производстве стеков Samsung использует между слоями памяти контактные выступы разного размера. Небольшие выступы служат для передачи сигналов, тогда как более крупные улучшают отвод тепла. Такой подход, по заявлениям Samsung, также способствует снижению доли брака.

В целом, как утверждается, внедрение 12-слойной памяти HBM3E по сравнению с 8-слойными изделиями даёт возможность увеличить скорость обучения ИИ-моделей на 34 %, тогда как количество одновременно обслуживаемых пользователей систем инференса может вырасти в 11,5 раз. Пробные поставки новых чипов уже начались, а массовое производство намечено на I половину 2024 года.

Нужно отметить, что буквально на днях компания Micron объявила о начале массового производства 8-слойной памяти HBM3E на 24 Гбайт с пропускной способностью более 1,2 Тбайт/с. Кроме того, Micron уже в марте начнёт распространять образцы 12-ярусных чипов HBM3E ёмкостью 36 Гбайт.

Постоянный URL: https://servernews.ru/1100929
28.02.2024 [14:01], Сергей Карасёв

CERN открыла новый дата-центр во Франции для поддержания экспериментов БАК

Европейская организация по ядерным исследованиям (CERN) объявила об открытии в Превессене во Франции нового ЦОД, который займётся обработкой информации, поступающей от Большого адронного коллайдера (БАК). Объект построен в рекордные сроки — менее чем за два года.

Общая площадь дата-центра превышает 6000 м2. Предусмотрены шесть залов для размещения оборудования, каждый из которых рассчитан на мощность в 2 МВт и может вместить до 78 стоек. В ЦОД в основном будут размещены серверы на базе CPU для обработки данных экспериментов, а также небольшое количество систем и хранилищ для обеспечения непрерывности операций и аварийного восстановления. Ожидается, что на полное оснащение площадки оборудованием потребуется около десяти лет.

 Источник изображения: CERN

Источник изображения: CERN

Отмечается, что новый объект соответствует строгим техническим требованиям, обеспечивающим экологическую устойчивость. Развёрнута эффективная система рекуперации тепла, которое будет использоваться для отопления зданий на территории Превессена. Целевой коэффициент PUE составляет 1,1, а показатель эффективности использования воды (WUE) — 0,379 л/кВт·ч. Система охлаждения будет автоматически включаться, когда наружная температура достигнет 20 °C. При этом температура в самих помещениях дата-центра ни при каких условиях не должна превышать 32 °C.

БАК в настоящее время генерирует около 45 Пбайт информации в неделю, но ожидается, что этот объём удвоится после модернизации комплекса. Данные экспериментов передаются в глобальную вычислительную сеть Worldwide LHC Computing Grid (WLCG), объединяющую около 170 дата-центров, расположенных в более чем 40 странах. Общая ёмкость хранилищ составляет примерно 3 Эбайт, а для обработки данных задействован примерно 1 млн процессорных ядер. Существующий дата-центр CERN на площадке в Мерене (Швейцария) по-прежнему является основным для организации.

Постоянный URL: https://servernews.ru/1100936
28.02.2024 [13:10], Сергей Карасёв

ИИ-модели Mistral AI появятся на платформе Microsoft Azure

Корпорация Microsoft объявила о заключении многолетнего партнёрского соглашения с французской компанией Mistral AI, которая специализируется на технологиях ИИ и разработке больших языковых моделей (LLM). В рамках договора Microsoft приобретёт небольшую долю в этом стартапе, оцениваемом приблизительно в €2 млрд.

Сообщается, что Mistral AI сделает свои LLM доступными через облачную инфраструктуру Microsoft Azure. Речь, в частности, идёт о новой модели общего назначения Mistral Large. Она поддерживает французский, немецкий, испанский, итальянский и английский языки.

Стороны намерены сотрудничать по трём ключевым направлениям. Одно из них — использование суперкомпьютерной инфраструктуры: Microsoft будет поддерживать Mistral AI с помощью платформы Azure AI, которая, как утверждается, обеспечивает «лучшую в своём классе производительность и масштабируемость» для обучения ИИ и задач инференса. Вторым направлением является вывод моделей Mistral AI на коммерческий рынок: доступ к LLM будет предоставляться по схеме MaaS (модель как услуга) на базе Azure AI Studio и Azure Machine Learning. Кроме того, Microsoft и Mistral AI намерены вести совместные исследования и разработки в области ИИ.

 Источник изображения: pixabay.com

Источник изображения: pixabay.com

«Мы очень рады начать партнёрские отношения с Microsoft. Благодаря передовой ИИ-инфраструктуре Azure мы достигнем новой вехи в развитии бизнеса и продвижении передовых решений», — сказал Артур Менш (Arthur Mensch), генеральный директор Mistral AI.

Microsoft, которая вкладывает миллиарды долларов в компанию OpenAI, разработчика ИИ-бота ChatGPT, намерена инвестировать в Mistral AI около €15 млн. Это соглашение уже привлекло внимание со стороны Европейской комиссии. Антимонопольный регулятор ЕС хочет проверить условия сделки и оценивать её возможное влияние на рынок.

Постоянный URL: https://servernews.ru/1100946
27.02.2024 [23:20], Алексей Степин

«Тантор Лабс» и «Аквариус» представили программно-аппаратную БД-платформу Tantor XData

Компания «Тантор Лабс», разработчик СУБД Tantor и российский производитель вычислительной техники, группа компаний «Аквариус» объявили о выпуске на рынок программно-аппаратного комплекса Tantor XData. Главное предназначение новинки, как нетрудно догадаться, это обслуживание СУБД Tantor, разработанной «Тантор Лабс» на основе PostgreSQL и оптимизированной для применения в высоконагруженных сценариях.

Компоненты Tantor XData внесены в государственные реестры Минпромторга и Минцифпы. В стандартном исполнении основой Tantor XData являются вычислительные модули — двухпроцессорные серверы «Аквариус» на базе Intel Xeon Cascade Lake-SP. Но возможны и нестандартные варианты исполнения с четырёхпроцессорными серверами, а также с двухпроцессорными вариантами на базе процессоров AMD EPYC, либо двух- и четырёхпроцессорные серверы на базе Arm (Baikal-S или Kunpeng 920).

Минимальная конфигурация включает в себя пять серверов, три нужны для запуска СУБД Tantor, два других являются серверами управления и резервного копирования. Она располагает 144 процессорными ядрами (288 vCPU), 4,5 Тбайт оперативной памяти, 420 Тбайт хранилища под данные СУБД и 500 Тбайт — под резервные копии и логи. Масштабируется система группами серверов, а максимальная конфигурация состоит из 18 машин с 864 ядрами (1728 vCPU), 27 Тбайт RAM, 2,5 Пбайт под данные БД без учёта репликации, а также 3 Пбайт под резервные копии и логи. Одна работающая копия БД может использовать до 92 vCPU, 1,5 Тбайт памяти и 120 Тбайт хранилища.

 Источник: «Тантор Лабс»

В основе программной части лежит ОС Astra Linux Special Edition, способная работать в трёх режимах защиты: «Орёл» (базовый), «Воронеж» (усиленный) и «Смоленск» (максимальный). Поверх ОС функционирует программный кластер из трёх связанных репликацией копий Tantor Special Edition, поддерживающий автоматическое масштабирование ресурсов. В состав платформы входят службы Tantor Appliance Manager, управляющая аппаратными ресурсами и кластерами БД, и Backman, отвечающая за резервное копирование. Для управление ПАК имеется графический интерфейс.

Tantor XData поставляется в полностью собранном виде и готова к использованию «из коробки». ПАК подходит как для организации хранилищ данных с онлайн-аналитикой (OLAP), так и для развёртывания системы обработки транзакций в режиме реального времени (OLTP). Новинка уже применяется в тестовом режиме некоторыми российскими компаниями. Стоимость платформы варьируется в зависимости от потребностей заказчика и определяется сочетанием программно-аппаратных ресурсов и сервисной поддержки вендоров.

Постоянный URL: https://servernews.ru/1100905
27.02.2024 [22:29], Владимир Мироненко

ВТБ переведёт десятки тысяч рабочих мест на отечественную ОС Astra Linux

В этом году Банк ВТБ планирует перевести всех своих сотрудников на российскую операционную систему Astra Linux. «Группа Астра» сообщила, что ВТБ приобрёл у неё бессрочные лицензии операционной системы Astra Linux в рамках стратегического партнёрства. По оценкам «Infoline-аналитики» покупка лицензий обошлась ВТБ в 2,5–3 млрд руб., уточняют «Ведомости».

По словам заместителя руководителя технологического блока и старшего вице-президента ВТБ, внедрение ОС происходит по итогам пилотного тестирования, продолжавшегося в течение 2023 года. Astra Linux уже используют в качестве основной ОС около 3,5 тыс. сотрудников различных подразделений банка. Кроме того, на рабочих местах ещё более 30 тыс. сотрудников были проведены предварительные работы по её установке. В работе над проектом миграции участвует компания «Астра Консалтинг».

Генеральный директор «Группы Астра» отметил ключевое значение работы ВТБ для экономики РФ. Банк обладает масштабной инфраструктурой, где задействовано множество мультивендорных решений, которые необходимо взаимоувязать и обеспечить бесперебойную работу на новой платформе, и «Группа Астра» прилагает все усилия, чтобы инфраструктура банка была в полной мере подготовлена к миграции. Чтобы свести к минимуму риски и гарантировать непрерывность бизнес-процессов заказчика, «Группа Астра» предоставила банку возможность работать в двух контурах: и обновлённом, и предыдущем.

 Источник изображения: «Группа Астра»

Источник изображения: «Группа Астра»

Эксперты отмечают, что ВТБ как госбанк до конца текущего года обязан перейти на одну из российских ОС, чтобы достичь показателей эффективности, установленных в «Методических рекомендациях по цифровой трансформации госкорпораций и компаний с госучастием» Минцифры. При этом на объектах КИИ доля отечественных решений приближается к 100 %, хотя среди госзаказчиков, уже купивших российское ПО, не все успели его внедрить, говорят собеседники «Ведомостей».

Постоянный URL: https://servernews.ru/1100918
27.02.2024 [21:44], Сергей Карасёв

Gigabyte представила новые серверы для ИИ, 5G и периферийных вычислений

Компания Gigabyte Technology на MWC 2024 анонсировала новые серверы для ИИ-задач, 5G-сетей, облачных и периферийных вычислений. Дебютировали модели на процессорах AMD и Intel, оснащённые мощными ускорителями.

В частности, представлены серверы G593-ZX1/ZX2, оборудованные восемью картами AMD Instinct MI300X для ресурсоёмких вычислений. Кроме того, демонстрируются сервер высокой плотности H223-V10 с поддержкой суперчипа NVIDIA Grace Hopper, модель G383-R80 с четырьмя APU AMD Instinct MI300A и сервер серии G593, оснащённый восемью ускорителями NVIDIA HGX H100.

Ещё одна новинка — сервер хранения S183-SH0. Он допускает использование 32 SSD формата E1.S (NVMe), благодаря чему подходит для обработки сложных рабочих нагрузок, таких как большие языковые модели (LLM). Эти серверы также могут быть интегрированы в суперкомпьютерные кластеры и инфраструктуру 5G.

На edge-сегмент рассчитан сервер E263-S30 с модульной архитектурой: он может быть адаптирован под различные сценарии использования путём установки необходимых аппаратных компонентов. А модель R163-P32 комплектуется процессором AmpereOne с архитектурой Arm (до 192 ядер Arm с частотой до 3,0 ГГц), что обеспечивает высокую энергетическую эффективность.

На ИИ-приложения и облачные периферийные вычисления ориентированы серверы R243-EG0 и R143-EG0, которые оснащены чипами AMD EPYC 8004 Siena. Для сегмента малого и среднего бизнеса Gigabyte предлагает серверы R113-C10 и R123-X00, наделённые процессорами AMD Ryzen 7000 и Intel Xeon E-2400: эти модели подходят для веб-хостинга, создания гибридных облаков и хранилищ данных.

Постоянный URL: https://servernews.ru/1100858
27.02.2024 [21:27], Сергей Карасёв

«Морион» наладил в Перми серийное производство отечественных управляемых Ethernet-коммутаторов

Министерство промышленности и торговли Пермского края сообщило о том, что местный разработчик и производитель оборудования связи «Морион» организовал серийный выпуск управляемых Ethernet-коммутаторов для построения высокопроизводительных сетей связи.

Организовано серийное производство коммутаторов КРМ-5960 и КАМ-3284. Устройства первого семейства относятся к моноблочному типу: они оснащены 20 портами 1GbE RJ-45, четырьмя разъёмами 1GbE RJ-45/SFP и четырьмя портами 10GbE SFP+. Диапазон рабочих температур в зависимости от модификации простирается от 0 до +50 °C или от +5 до +40 °C.

Решения КАМ-3284 представлены в блочно-модульном исполнении: они содержат по четыре оптических или электрических порта на модуль — до 24 портов в блоке. Эти коммутаторы могут эксплуатироваться при температурах от -10 до +55 °C при воздействии вибрации, многократных ударов и соляного тумана. Устройства можно применять в подвижных комплексах связи, в прибрежных морских зонах, на надводных лодках и пр.

 Источник изображения: Министерство промышленности и торговли Пермского края

Источник изображения: Министерство промышленности и торговли Пермского края

Упомянуты функции контроля доступа с высоким уровнем безопасности и ограничением трафика, в том числе при работе с инфраструктурой, построенной на базе российской платформы Astra Linux. Отмечается, что изделия изготавливаются преимущественно из российских комплектующих — уровень локализации составляет 70 %. Правда, не уточняется, о каких именно компонентах идёт речь.

«Морион» уже поставляет коммутаторы для ведомственных и технологических сетей связи нефте- и газотранспортных предприятий, железнодорожных и сетевых компаний энергетической системы. В 2024 году планируется выпуск более 140 моделей управляемых коммутаторов. Инвестиции в проект превышают 140 млн руб. Из них 46 млн руб. предоставил федеральный Фонд развития промышленности (ФРП), ещё 20 млн руб. — региональный ФРП Пермского края.

Нужно отметить, что выпуск коммутаторов наладили и многие другие российские компании. В их число входят производитель инфраструктурного IT-оборудования Fplus, поставщик сетевого телекоммуникационного оборудования операторского класса N3COM, дочернее предприятие Росатома «ТВЭЛ» и «Аквариус».

Постоянный URL: https://servernews.ru/1100913
27.02.2024 [20:45], Руслан Авдеев

Huawei Cloud запустит облачный регион в Египте и построит ИИ-центр в Гонконге

Уже в следующем месяце в Египте должен заработать новый облачный регион компании Huawei. Datacenter Dynamics сообщает, что у компании есть и другие планы — она намерена построить облачный вычислительный ИИ-центр в Гонконге. Это первый проект такого рода за пределами материкового Китая.

Регион в Египте станет очередным дополнением к 85 зонам Huawei Cloud, разбросанным по 30 странам и территориям планеты. В Китае Huawei является вторым по величине облачным провайдером, но наращивает и глобальное присутствие. Только в прошлом году она ввела в эксплуатацию облачные регионы в Турции и Саудовской Аравии. Кроме того, компания активно осваивает рынки облачных сервисов Латинской Америки. В частности, ведётся строительство регионов в Бразилии и Мексике.

 Источник изображения: Omar Elsharawy/unsplash.com

Источник изображения: Omar Elsharawy/unsplash.com

Пока нет данных, в каком ЦОД будет размещён египетский регион. Ещё в 2019 году Huawei сообщала о намерении арендовать ЦОД Telecom Egypt в Каире, но, похоже, с тех пор планы по экспансии в Африке и на Ближнем Востоке изменились. Заодно Huawei поделилась планами создания облачного ИИ-центра в Гонконге. Хотя компания имеет несколько подобных объектов на материковой территории КНР, в Гонконге пока ничего подобного у неё нет. При этом в компании назвали ИИ одним из приоритетов для её облачных проектов.

Сейчас у оператора есть облачные объекты в материковом Китае и Гонконге, Ирландии, Нидерландах, Франции, Таиланде, Сингапуре, Индонезии, Саудовской Аравии, Турции, Южной Африке, Бразилии, Аргентине, Перу, Чили и других странах. В то же время многие государства по-прежнему считают компанию поставщиком услуг с высоким риском из-за вероятных тесных связей с китайскими властями и крайне напряжённых отношений с США.

Постоянный URL: https://servernews.ru/1100904
27.02.2024 [18:42], Владимир Мироненко

Консорциум AI-RAN Alliance займётся интеграцией ИИ с 5G/6G

Двумя главными темами на проходящей сейчас выставке Mobile World Congress 2024 стали искусственный интеллект (ИИ) и 5G. И хотя их можно рассматривать как отдельные технологические тренды, они связаны между собой, пишет ресурс SiliconANGLE.

Сервис-провайдеры вкладывают значительные средства в поддержание и модернизацию своих услуг, чтобы они соответствовали развивающимся технологическим стандартам для мобильных сетей. В свою очередь телекоммуникационные компании стремятся увеличить доходы, создавая дополнительную нагрузку для провайдеров. В то же время ИИ требует крупных инвестиций в инфраструктуру, которые сервис-провайдеры не будут осуществлять без твёрдой уверенности, что они окупятся.

Для коллективного решения назревших в индустрии проблем и был создан консорциум AI-RAN Alliance, нацеленный на интеграцию искусственного интеллекта (ИИ) с сотовыми технологиями для дальнейшего развития сетей радиодоступа (RAN) и мобильных сетей вообще. В число учредителей вошли Amazon Web Services Inc. (AWS), Arm Holdings Ltd., DeepSig Inc., Ericsson, Microsoft Corp., Nokia Corp., Северо-Восточный университет (Northeastern University), NVIDIA Corp., Samsung Electronics Co. Ltd., SoftBank Group Corp. и T-Mobile USA.

 Источник изображения: AI-RAN Alliance

Источник изображения: AI-RAN Alliance

Компании будут сотрудничать в деле разработки инновационных технологий и их внедрения в коммерческие продукты в рамках подготовки к эпохе 6G. AI-RAN Alliance обеспечит стратегический сдвиг в сторону ИИ для смягчения финансового давления в телекоммуникационной отрасли, объяснил Ронни Васишта (Ronnie Vasishta), старший вице-президент по телекоммуникациям NVIDIA. Он уточнил, что основная цель — объединить ИИ с технологиями сетей радиодоступа для создания новых возможностей для бизнеса в сфере телекоммуникаций.

В пресс-релизе AI-RAN Alliance отмечено, что члены консорциума будут использовать свой технологический опыт и коллективное лидерство, чтобы сосредоточиться на трех основных областях исследований и инноваций:

  • ИИ для RAN (AI for RAN) — расширение возможностей RAN с помощью ИИ для повышения эффективности использования спектра.
  • ИИ и RAN (AI and RAN) — интеграция ИИ и RAN для более эффективного использования инфраструктуры и создания новых возможностей получения дохода на основе ИИ-решений.
  • ИИ в RAN (AI on RAN) — развёртывание сервисов ИИ на границе сети на уровне RAN для повышения операционной эффективности и предложения новых услуг мобильным пользователям.

В рамках консорциума были созданы три группы, которые будут развивать эти направления. Операторы, входящие в консорциум, возглавят тестирование и внедрение передовых технологий, разработанных в результате коллективных усилий участников консорциума. Члены AI-RAN Alliance будут совместно разрабатывать сценарии использования новых технологий, официальные документы, проекты и рекомендации, а также обмениваться результатами работы с существующими организациями по стандартизации.

«Одной из самых больших проблем была доступность данных. Для эффективного ИИ необходимы данные, но их доступность несколько ограничена, — отметил Васишта. — Поэтому мы хотим создать среду, в которой можно будет обмениваться информацией и предоставлять наборы данных, чтобы ИИ мог работать более эффективно. Верификационное тестирование будет проводиться в лабораториях AI-RAN Alliance, к которым имеют доступ участники».

Ещё одна неотложная задача — улучшение инфраструктуры 5G путём решения проблем с подключением, которые ограничивают её потенциал. Для этого инфраструктуру необходимо переместить ближе к точке использования, а также включить в неё программно-определяемую сеть радиодоступа. Это позволит улучшить пользовательский опыт и эффективность обслуживания текущих приложений, а также улучшит работу ИИ-приложений. Поддерживая приложения, которым требуется низкая задержка и высокая пропускная способность, операторы смогут максимально раскрыть потенциал своих сетей 5G.

Постоянный URL: https://servernews.ru/1100894
Система Orphus