Материалы по тегу: c

15.11.2024 [17:47], Владимир Мироненко

FTC собралась расследовать жалобы на антиконкурентную практику в облачном бизнесе Microsoft

Федеральная торговая комиссия США (FTC) готовится начать расследование заявлений по поводу использования Microsoft антиконкурентных практик в своём облачном бизнесе, сообщила Financial Times со ссылкой на информированные источники. По их словам, FTC пока не запросила документы или другую информацию у Microsoft. Это говорит о том, что расследование находится на ранней стадии и нет никаких гарантий, что оно будет продолжено.

Как утверждают источники, сейчас FTC изучает обвинения Microsoft в злоупотреблении своей рыночной властью — компания якобы навязывает карательные условия лицензирования, чтобы помешать клиентам переносить свои данные из Azure на другие платформы. В частности, чтобы усложнить переход на другую платформу, Microsoft существенно увеличивает абонентскую плату для тех, кто покидает Azure, вводит высокие сборы за выход и якобы делает продукты Office 365 несовместимыми с облаками конкурентов.

На этот шаг регулятора подтолкнуло письмо Google с обвинением Microsoft в антиконкурентной практике, направленное в комиссию в июне 2023 года. В письме утверждается, что Microsoft использует ограничения по лицензированию ПО, чтобы заставить клиентов использовать облачные сервисы Azure для экономии денег.

 Источник изображения: Microsoft Azure

Google также заявила, что Microsoft использует доминирующее положение Windows Server и Office, чтобы оказывать давление на клиентов, заставляя их пользоваться Azure, и использует «сложную сеть» лицензионных ограничений, которые призваны помешать компаниям диверсифицировать поставщиков корпоративного ПО.

Также было отмечено, что Microsoft взимает плату со сторонних поставщиков облачной инфраструктуры, таких как Google Cloud и Amazon Web Services, за запуск её ПО, такого как Windows Server и Office, на их платформах. В конечном итоге расходы перекладываются на клиентов. При этом дополнительная плата за запуск ПО Microsoft в облаке Azure не взимается.

Аналитик Хольгер Мюллер (Holger Mueller) из Constellation Research сообщил в прошлом году, что поставщики ПО ужесточают условия лицензирования, чтобы ограничить своих конкурентов. «Основная уловка заключается в том, что они либо ограничивают сервисы, не позволяя им работать в других облаках, либо взимают большую плату за такую возможность», — сказал Мюллер.

Microsoft удалось избежать официального расследования деятельности своего облачного подразделения со стороны Еврокомиссии с помощью сделки с CISPE. При этом Google пыталась с помощью денежного вознаграждения убедить облачные компании не прекращать жаловаться на Microsoft в ЕС. В итоге Google подала в Еврокомиссию новую жалобу на Microsoft и сформировала новую коалицию Open Cloud Coalition. Аналогичные разбирательства ведутся и в Великобритании.

Постоянный URL: http://servernews.ru/1114074
15.11.2024 [10:33], Сергей Карасёв

«Росэлектроника» создаст суперкомпьютер нового поколения для РАН

Холдинг «Росэлектроника», входящий в госкорпорацию «Ростех», анонсировал проект нового НРС-комплекса, который будет создан для Объединённого института высоких температур Российской академии наук (ОИВТ РАН). Особенностью суперкомпьютера станет применение российского интерконнекта «Ангара».

Система разрабатывается в рамках соглашения, заключенного между НИЦЭВТ (входит в «Росэлектронику») и ОИВТ РАН. При проектировании машины планируется использовать опыт разработки и производства суперкомпьютеров НИЦЭВТ предыдущих поколений — «Ангара-К1», Desmos и Fisher.

Отмечается, что коммуникационная сеть «Ангара», созданная специалистами НИЦЭВТ, предназначена для построения мощных суперкомпьютеров, вычислительных кластеров для обработки больших данных и расчётов на основе сверхмасштабируемых параллельных алгоритмов. Помимо «Ангары», в составе проектируемого HPC-комплекса будут задействованы технологии погружного охлаждения.

На сегодняшний день участники проекта прорабатывают технические характеристики создаваемого суперкомпьютера — количество узлов, объём памяти, архитектуру процессоров и число ядер. Особое внимание будет уделяться максимально возможному использованию отечественной элементной базы. Целевые показатели производительности системы не раскрываются, но говорится, по величине пикового быстродействия она превзойдёт предшественников.

 Источник изображения: unsplash.com / Scott Rodgerson

Источник изображения: unsplash.com / Scott Rodgerson

Суперкомпьютер планируется применять для проведения научно-исследовательских, опытно-конструкторских и технологических работ на базе образовательных учреждений и промышленных предприятий РФ.

«Стратегическое партнёрство с НИЦЭВТ позволит нам совместно создать высокопроизводительную вычислительную систему и расширить наши возможности в исследовании сложных процессов в энергетике и теплофизике. ОИВТ РАН обладает большим опытом использования передовых вычислительных методов, включая методы первопринципного моделирования и молекулярной динамики для научных исследований. Увеличение мощности вычислительных ресурсов позволит значительно повысить точность, темп и эффективность наших исследований», — отметил директор ОИВТ РАН.

Постоянный URL: http://servernews.ru/1114048
15.11.2024 [10:31], Сергей Карасёв

Eviden представила интерконнект BullSequana eXascale третьего поколения для ИИ-систем

Компания Eviden (дочерняя структура Atos) анонсировала BullSequana eXascale Interconnect (BXI v3) — интерконнект третьего поколения, специально разработанный для рабочих нагрузок ИИ и HPC. Технология станет доступа на рынке во II половине 2025 года.

Отмечается, что существующие высокоскоростные сетевые решения недостаточно эффективны, поскольку не устраняют критическое узкое место, известное как «сетевая стена». По заявлениям Eviden, зачастую при крупномасштабном обучении ИИ компании наращивают количество ускорителей, однако на самом деле ограничивающим фактором является интерконнект. Хотя поставщики сетевых решений продолжают удваивать пропускную способность каждые несколько лет, этого недостаточно для решения проблемы. В результате, до 70 % времени GPU простаивают, ожидая получения данных из-за задержек, утверждает Eviden. Технология BXI v3 призвана устранить этот недостаток.

 Источник изображений: Eviden

Источник изображений: Eviden

Новый интерконнект использует стандарт Ethernet в качестве базового протокола связи. При этом реализованы функции, которые обычно характерны для масштабируемых сетей высокого класса, таких как Infiniband. Отмечается, что BXI v3 обеспечивает низкие задержки (менее 200 нс от порта к порту), высокую пропускную способность, упорядоченную (in order) доставку пакетов, расширенное управление перегрузками и масштабируемость.

Технология BXI v3 ляжет в основу интеллектуального сетевого адаптера (Smart NIC) нового поколения, который поможет снизить влияние задержек сети на GPU и CPU. При использовании такого решения ускоритель ИИ выгружает данные на сетевой адаптер и сразу же переходит к другим задачам, что устраняет неэффективность, связанную с простоями. Подчёркивается, что протокол BXI v3 интегрируется непосредственно в Smart NIC, благодаря чему оборудование работает сразу после установки, а в приложения не требуется вносить какие-либо изменения.

Кроме того, новая технология предоставляет ряд дополнительных функций, ориентированных на повышение производительности путём оптимизации системных операций и обработки данных. В частности, BXI v3 обеспечивает прозрачную трансляцию виртуальных адресов в физические, что позволяет приложениям напрямую отправлять запросы в SmartNIC с использованием виртуальных адресов без необходимости системных вызовов. Такой подход повышает эффективность, обеспечивая бесперебойное управление памятью при сохранении высокой производительности.

Технология BXI v3 также позволяет регистрировать до 32 млн приёмных буферов, которые SmartNIC выбирает с помощью ключей сопоставления на основе атрибутов сообщения. Благодаря этому уменьшается нагрузка на CPU, что повышает общую эффективность системы. Кроме того, сетевой адаптер способен выполнять математические атомарные операции, что дополнительно высвобождает ресурсы CPU. Впрочем, деталей пока мало, зато говорится об участии в консорциуме Ultra Ethernet (UEC) и партнёрстве с AMD.

Постоянный URL: http://servernews.ru/1114044
14.11.2024 [08:17], Владимир Мироненко

SoftBank построит в Японии первый в мире ИИ-суперкомпьютер на базе NVIDIA DGX B200

NVIDIA объявила о серии совместных проектов с SoftBank, направленных на ускорение суверенных инициатив Японии в области ИИ, которые также обеспечат возможность получения дохода от ИИ для поставщиков телекоммуникационных услуг по всему миру.

В выступлении на саммите NVIDIA AI Summit Japan генеральный директор NVIDIA Дженсен Хуанг (Jensen Huang) объявил, что SoftBank создаёт самый мощный в Японии ИИ-суперкомпьютер с использованием платформы NVIDIA DGX SuperPOD B200 и интерконнекта Quantum-2 InfiniBand. Эта система станет первой в мире, которая получит системы DGX B200. Она будет использоваться компанией для разработки генеративного ИИ и развития других бизнес-решений, а также для предоставления вычислительных услуг университетам, научно-исследовательским институтам и предприятиям в стране. Суперкомпьютер идеально подойдёт для разработки больших языковых моделей (LLM), говорится в пресс-релизе.

Пока что на звание самого мощного ИИ-суперкомьютера Японии претендует система ABCI 3.0 на базе NVIDIA H200. Впрочем, Softbank не сидит сложа руки и планирует построить ещё один суперкомпьютер, на этот раз на базе суперускорителей GB200 NVL72. Они же будут использоваться в проекте Sharp, KDDI и Supermicro по созданию «крупнейшего в Азии» ИИ ЦОД.

 Источник изображения: NVIDIA

Источник изображения: NVIDIA

Также в ходе саммита было объявлено, что SoftBank, используя платформу ускоренных вычислений NVIDIA AI Aerial, успешно запустил первую в мире телекоммуникационную сеть, объединяющую возможности ИИ и 5G. В ходе испытаний, проведенных в префектуре Канагава, SoftBank продемонстрировала, что решение AI-RAN достигло производительности 5G операторского класса, используя ресурсы ускорителя для одновременной обработки сетевого трафика и инференса.

Отмечается, что мобильные сети традиционно рассчитаны на обработку пиковых нагрузок и в среднем задействуют только треть аппаратных ресурсов, что позволяет монетизировать оставшиеся две трети путём предоставления ИИ-сервисов. NVIDIA и SoftBank также сообщили, что с помощью ПО NVIDIA AI Enterprise японская компания будет создавать локализованные безопасные ИИ-сервисы.

Постоянный URL: http://servernews.ru/1113967
12.11.2024 [13:27], Руслан Авдеев

Microsoft объявила о доступности Windows Server 2025: облака и ИИ

Microsoft сообщила, что Windows Server 2025 доступна практически всем желающим. По данным Storage Review, в своём новом продукте разработчик уделил немало внимания интеграции в ОС облачных функций и поддержке ИИ-нагрузок. Также улучшены производительность и безопасность ОС.

Одной из важных функций новой ОС считается повышение безопасности файловых служб File Services/Server Message Block (SMB). Последняя теперь работает по протоколу QUIC, что обеспечивает более безопасный доступ к файлам. Защита SMB предусматривает использование расширенных настроек брандмауэра, защиту от брутфорс-атак и атак MitM, Relay Attack или Spoofing.

В Active Directory появилась функция Делегированных Управляемых Учетных Записей Служб (dMSA). В отличие от классических учётных записей служб, dMSA не нужно ручное управление паролями, Active Directory справляется с задачей автоматически. dMSA даёт возможность делегировать специальные разрешения для доменных ресурсов, что снижает риски безопасности и улучшает видимость и контроль за активностью учётных записей служб.

 Источник изображения: Microsoft

Источник изображения: Microsoft

В Windows Server 2025 представлены революционные, по словам Microsoft, возможности для гибридных облаков. Важную роль играет возможность обновления на лету (Hot-Patching). Сервис по подписке для управления гибридными облаками Azure Arc позволяет свести к минимуму количество перезагрузок и простои при обновлении ПО на локальных площадках. Кроме того, упрощён процесс подключения к Azure Arc и улучшена функциональность SDN, обеспечивается L2/L3-доступ для «бесшовной» миграции рабочих нагрузок между разными локациями.

Помимо этого, новая операционная система предлагает улучшенные производительность и масштабируемость в целом. Так, показатели IOPS в ряде нагрузок до 60 % выше в сравнении в Windows Server 2022, а расширенные функции ФС Resilient File System (ReFS), включая дедупликацию и сжатие, обеспечивают заметную экономию дискового пространства. Функции Storage Spaces и Storage Replica Compression обеспечивают эффективное использование дискового пространства и оптимальный обмен данными между репликами.

Наконец, новый релиз ОС оптимизирован для задач, связанных с ИИ и машинным обучением. Например, имеется встроенная функция разделения ресурсов ускорителей на несколько виртуальных машин. Подсистема Hyper-V теперь оптимизирована как для традиционных нагрузок, так и ресурсоёмких ИИ-нагрузок. Кроме того, обеспечена непрерывность работы даже непосредственно во время техобслуживания и во время сбоев оборудования.

Официальному релизу сопутствовал курьёзный, но весьма неприятный случай: у некоторых пользователей запустилось автоматическое обновление Windows Server 2022 до версии 2025, хотя ничего подобного Microsoft изначально не задумывала.

Постоянный URL: http://servernews.ru/1113851
12.11.2024 [12:00], Сергей Карасёв

«Рикор» представила российские мини-ПК для бизнеса на платформе Intel Alder Lake

Компания «Рикор» анонсировала компьютеры небольшого форм-фактора Rikor MSK и Rikor Pro для корпоративных клиентов. Устройства, как утверждается, стали первыми серийными мини-ПК, корпус которых полностью произведён в России: это сокращает время поставки, уменьшает стоимость, а также даёт дополнительную гибкость при заказе.

В основу новинок положена аппаратная платформа Intel Alder Lake, но позже появится модификация на платформе AMD. Сейчас доступен выбор из процессоров Core i3-12100 (4С/8Т; 3,3–4,3 ГГц; 60 Вт) и Core i5-12400 (6С/12Т; 2,5–4,4 ГГц; 65 Вт). Доступны два слота SO-DIMM для модулей DDR4-3200 суммарным объёмом до 64 Гбайт.

 Источник изображения: «Рикор»

Источник изображения: «Рикор»

Устройства заключены в корпус с габаритами 180 × 178 × 39 мм (объём около 1,25 л). Есть коннектор М.2 для SSD с интерфейсом PCIe 3.0 или SATA-3 и ещё один разъём М.2 для SSD SATA-3. Кроме того, может быть установлен SFF-накопитель SATA-3. В оснащение входят адаптеры Wi-Fi 6 и Bluetooth 5.2, сетевой контроллер 1GbE. Изображение может выводиться одновременно на несколько мониторов через интерфейсы D-Sub, HDMI 1.4b и DisplayPort 1.4. Доступны четыре порта USB 3.2 Gen1 Type-A, два порта USB 3.2 Gen1 Type-С и два порта USB 2.0 Type-A, гнездо RJ-45 для сетевого кабеля и набор аудиогнёзд на 3,5 мм. За питание отвечает внешний блок мощностью 90 Вт. Упомянут модуль ТРМ 2.0.

Ключевым преимуществом устройств «Рикор» называет максимальную локализацию производства. Инженеры компании разработали конструкцию объёмом немногим более 1 л, которая, как отмечается, не только не уступает зарубежным аналогам по ключевым характеристикам, но и превосходит их по прочности и лёгкости. Полный цикл производства внутри страны позволяет снизить стоимость устройств благодаря экономии на логистике и материалах, а также ускоряет поставки клиентам.

Постоянный URL: http://servernews.ru/1113842
12.11.2024 [10:55], Сергей Карасёв

AIC выпустила JBOD-массив J4108-02-04X формата 4U с поддержкой 108 накопителей

Компания AIC представила JBOD-массив J4108-02-04X, предназначенный для формирования систем хранения данных большой ёмкости. Решение, рассчитанное на установку в стойку, выполнено в форм-факторе 4U с габаритами 434 × 1050 × 176 мм.

Новинка допускает использование 108 накопителей LFF или SFF, для монтажа/демонтажа которых не требуются инструменты. Поддерживается горячая замена, что обеспечивает простоту обслуживания и сокращает время простоя.

Задействованы карты расширения Expander с поддержкой SAS4 × 48 (Hub), а также SAS35 × 40, SAS35 × 36/SAS4 × 40, SAS4 × 32 (Edge). Реализованы четыре хост-интерфейса Mini SAS HD (SFF-8674; обратно совместим с SFF-8644 SAS12G) в расчёте на модуль расширения.

 Источник изображений: AIC

Источник изображений: AIC

Интерфейсы накопителей — 24 Гбит/с и 12 Гбит/с SAS при использовании двух модулей расширения или 24 Гбит/с и 12 Гбит/с SAS + 6 Гбит/с SAS/SATA при использовании одного модуля расширения.

Модель J4108-02-04X комплектуется двумя блоками питания с сертификатом 80 Plus Platinum или 80 Plus Titanium мощностью 2000 Вт каждый с возможностью горячей замены. За охлаждение отвечают восемь вентиляторов размером 60 × 56 мм (плюс по одному вентилятору 40 × 56 мм на модуль расширения). Диапазон рабочих температур — от 0 до +35 °C.

Помимо модели на 108 накопителей, компания AIC анонсировала JBOD-массив J4078-02-04X типоразмера 4U с возможностью установки 78 устройств LFF/SFF, а также модель J2024-07-04X стандарта 2U, которая рассчитана на 24 накопителя SFF.

Постоянный URL: http://servernews.ru/1113845
11.11.2024 [11:43], Сергей Карасёв

AMD наращивает долю на рынке серверных чипов на фоне проблем Intel

Компания AMD быстро укрепляет позиции на рынке процессоров с архитектурой х86. Причём, как сообщает ресурс Tom's Hardware, ссылаясь на данные аналитиков Mercury Research, речь идёт обо всех ключевых сегментах — серверном, настольном и мобильном.

По итогам III квартала 2024 года доля AMD на глобальном рынке CPU с учётом всех сегментов достигла 24,0 % в штучном выражении. Для сравнения: во II четверти 2024-го этот показатель равнялся 21,3 %, а годом ранее — 23,1 %. Если рассматривать продажи в денежном исчислении, то AMD заняла 26,5 % против 24,2 % во II квартале текущего года и 25,9 % в III квартале 2023-го.

AMD наращивает долю на рынке серверных чипов: показатель достиг 24,2 % в натуральном выражении. Во II четверти 2024 года компания контролировала 24,1 % сегмента, а годом ранее — 23,3 %. Если оценивать отгрузки в деньгах, то доля AMD зафиксирована на отметке 33,9 %. Кварталом ранее это значение составляло 33,8 %, а год назад — 31,2 %.

 Источник изображения: AMD/Mercury Research

Источник изображения: AMD/Mercury Research

В исследовании отмечается, что Intel остаётся лидером в области серверных процессоров с архитектурой х86: доля корпорации в III квартале 2024 года равна 75,8 %. Тем не менее, AMD смогла реализовать больше чипов высокого класса, на что указывает более высокая доля рынка в денежном выражении по сравнению с натуральным. Кроме того, впервые подразделение дата-центров AMD превзошло по выручке группу DCAI в составе Intel — $3,549 млрд против $3,3 млрд по итогам III квартала 2024 года.

Отчёт не включает заказные чипы AMD, которые устанавливаются в игровые консоли, а также процессоры для оборудования IoT. Успехи AMD отчасти связаны с проблемами Intel, которая оказалась в очень сложном положении: она борется с жёсткой конкуренцией, а прогресс в сфере ИИ оставляет желать лучшего. Intel вынуждена сокращать тысячи сотрудников по всему миру, уменьшать офисные площади и отказываться от неактуальных продуктов ради улучшения финансовых показателей.

Постоянный URL: http://servernews.ru/1113790
11.11.2024 [11:29], Сергей Карасёв

США запретили TSMC выпускать передовые чипы для китайских ИИ-компаний

TSMC, по сообщению The Register, полностью прекратит выпуск передовых изделий для китайских заказчиков, которые занимаются разработкой аппаратных ИИ-решений, включая ускорители на базе GPU. Данная мера, как утверждается, продиктована необходимостью соблюдения экспортных требований США.

Власти США последовательно вводят различные санкции, призванные ограничить возможности китайской полупроводниковой индустрии. Речь идёт о закупках чипов NVIDIA, памяти HBM и других компонентов. А нидерландской компании ASML запрещено поставлять в Китай оборудование для DUV-литографии, на котором можно изготавливать 5- и 7-нм продукцию.

Теперь новые ограничительные меры в отношении клиентов из КНР вводит TSMC. Этот контрактный производитель объявил о том, что с 11 ноября 2024 года прекращает отгружать чипы, произведённые по 7-нм и более совершенным технологиям, китайским заказчикам, которые занимаются разработкой ИИ-устройств и GPU.

Напомним, что в октябре TSMC уведомила американские власти о том, что некий китайский клиент, по всей видимости, пытается обойти экспортный контроль в отношении Huawei, размещая заказы на изделия, схожие с ИИ-ускорителем Ascend 910B. Это продукт был разработан Huawei в качестве альтернативы NVIDIA A100. Решение Ascend 910B представляет собой следующее поколение 7-нм чипа Ascend 910. По имеющейся информации, TSMC, следуя экспортным ограничения США, прекратила все поставки изделий этому неназванному клиенту.

 Источник изображения: TSMC

Источник изображения: TSMC

Решение TSMC ограничит возможности китайских компаний по использованию технологий с нормами 7-нм и менее при создании ИИ-устройств. Вместе с тем, подчёркивается, что правила не распространяются на китайских клиентов, которые заказывают у TSMC 7-нм чипы для других приложений, таких как мобильные устройства и системы связи.

Как отмечает TrendForce, решение TSMC «отражает осторожную позицию гиганта контрактного производства в глобальной цепочке поставок полупроводников на фоне разгорающейся войны в сфере микрочипов между двумя мировыми сверхдержавами».

Постоянный URL: http://servernews.ru/1113791
11.11.2024 [07:52], Сергей Карасёв

Lenovo поставит Италии НРС-кластер на базе Intel Xeon Emerald Rapids для исследований в области чистой энергии

Национальное агентство по новым технологиям, энергетике и устойчивому экономическому развитию Италии (ENEA) выбрало компанию Lenovo для создания нового суперкомпьютера. Использовать НРС-комплекс планируется для ускорения исследований в области чистой энергии, в частности, по направлению ядерного синтеза.

Проект нацелен на повышение вычислительной мощности платформы CRESCO (Computational Center for Research on Complex Systems — Вычислительный центр в области исследований сложных систем). Эта суперкомпьютерная система располагается в исследовательском центре Портичи (регион Кампания, административный центр Неаполь).

Lenovo развернёт кластер из 758 узлов, в оснащение каждого из которых войдут два процессора Intel Xeon Platinum 8592+ поколения Emerald Rapids (64С/128T; 1,9–3,9 ГГц; 350 Вт). Говорится о применении технологии прямого жидкостного охлаждения Lenovo Neptune Direct Water-Cooling, которая позволяет отводить до 98 % тепла, генерируемого НРС-комплексом. Подчёркивается, что, помимо повышения производительности, оборудование Lenovo обеспечит высокую энергетическую эффективность. Серверы изготавливаются на предприятии Lenovo в Венгрии, а близость к месту установки позволяет сократить расходы по транспортировке и снизить выбросы вредных газов в атмосферу.

 Источник изображения: Lenovo

Источник изображения: Lenovo

После введения в эксплуатацию новой системы общее быстродействие CRESCO поднимется примерно в шесть раз: с нынешних 1,01 до более чем 6,5 Пфлопс. Это выведет платформу в лидеры по вычислительной мощности в Италии. ENEA управляет развитой вычислительной инфраструктурой, которая предоставляет пользователям ресурсы для расчётов, моделирования и трёхмерной визуализации данных. В настоящее время сеть объединяет шесть объектов в разных областях: это Фраскати, Портичи, Болонья, Казачча, Трисайя и Бриндизи.

Постоянный URL: http://servernews.ru/1113771
Система Orphus