Лента новостей
14.12.2024 [15:15], Сергей Карасёв
Представлен ПАК Tantor XData 2.0 на основе СУБД Tantor 16.6 и серверов «Аквариус»Компания «Тантор Лабс», входящая в «Группу Астра», анонсировала программно-аппаратный комплекс (ПАК) Tantor XData 2.0 для поддержания работы СУБД Tantor. По сравнению с платформой предыдущего поколения новинка, как утверждается, демонстрирует более высокую производительность, а также обладает улучшенным интерфейсом. Оригинальная версия Tantor XData дебютировала в феврале нынешнего года: в разработке решения приняли участие специалисты группы компаний «Аквариус». Говорилось о применении серверов на процессорах Intel Xeon Cascade Lake-SP, AMD EPYC, Baikal-S или Kunpeng 920, а также ОС Astra Linux Special Edition. А в апреле 2024-го «Группа Астра» создала компанию «Иксдата» по выпуску ПАК для высоконагруженных СУБД. Говорится, что в Tantor XData 2.0 применяется аппаратно-программное RAID-решение собственной разработки, которое обеспечивает трёхкратное сжатие данных и увеличивает производительность подсистемы хранения до 102 тыс. TPS (транзакций в секунду) в тестах pgbench (операции чтения/записи). Это на 25 % больше по сравнению с ПАК предыдущей версии. В состав комплекса включено S3-совместимое хранилище, позволяющее гибко масштабировать ресурсы. При этом обеспечивается высокая доступность данных благодаря возможности дублирования и распределения между разными узлами. Реализована новая встроенная система резервного копирования на основе WAL-G: благодаря использованию объектного хранилища S3 упрощается восстановление информации из резервных копий. Кроме того, возможна миграция резервных копий баз данных между различными площадками или регионами. Применяется СУБД Tantor 16.6. Усовершенствованный графический интерфейс с модулем управления и мониторинга аппаратных ресурсов DCImanager позволяет централизованно взаимодействовать как с программной, так и с аппаратной частью ПАК в режиме «одного окна»: это повышает удобство и прозрачность административных операций. В Tantor XData 2.0 улучшены возможности работы с кластерами баз данных: остановка и запуск для планового обслуживания, ведение реестра задействованных ресурсов, автоматизированное выделение сетевых и дисковых ресурсов при формировании кластера, усиленный механизм работы с секретами для повышения уровня безопасности. Интерфейс для проведения полного цикла инсталляции/обновления и конфигурирования ПАК XData 2.0 обеспечивает автоматизацию ключевых этапов: монтажа, коммутации и первичной настройки аппаратного комплекса, установки и конфигурации операционной системы на управляющие и вычислительные серверы, на серверы хранения данных, установку, настройку, диагностику и обновление компонентов ПАК, предварительную проверку перед вводом в промышленную эксплуатацию.
13.12.2024 [18:54], Руслан Авдеев
Боевой 5G из коробки: Nokia представила автономную мобильную платформу 5G Banshee Flex RadioКомпания Nokia анонсировала 5G Banshee Flex Radio — мобильной широкополосной периферийную сеть, разработанную для выполнения сложных тактических задач на современном поле боя. Решение входит в портфолио Tactical Solutions и предлагает безопасную, надёжную и гибкую 4G/5G-связь, которая незаметно дополняет уже имеющиеся системы коммуникаций, имеющиеся в распоряжении военных. Помимо собственно военного оборудования, система совместима с любыми 5G-устройствами, а также с технологиями радиосвязи, сетями и оборудованием предыдущих поколений. Nokia Banshee Flex Radio отвечает потребностям тактических групп, непосредственно участвующих в боях. Платформа «из коробки» обеспечивает обширные возможности периферийных вычислений, поддержку mesh-сетей, гибкость выбора частотных диапазонов c полосами до 100 МГц, безопасность эксплуатации и простоту внедрения. Также поддерживаются сети MANET (L, S, High C, Low C) и спутниковое подключение. ![]() Источник изображения: Nokia Модульная структура позволяет адаптировать платформу для любых театров военных действий. Система оснащена бортовым компьютером для выполнения тактических задач. Она включает периферийный EPC-модуль для обработки информации на месте без отправки в облако и тактический сервер TAK (Tactical Assault Kit) для сбора, обработки и обмена информацией на поле боя. Для электроснабжения необходимы 90–264 В AC, а энергопотребление не превышает 484 Вт. Размер одного модуля связи составляет 516 × 400 × 525 мм при массе около 52 кг. Nokia — не новичок в ВПК. Banshee Flex Radio относится к особой серии сетевых продуктов, включающих Banshee 4G Tactical Radio, Banshee 4G Mobile Radio и другие решения. Современные технологии довольно активно используются военными, в том числе в самых неожиданных сферах. Например, летом ВМС США успешно подключили к облаку авианосец «Авраам Линкольн».
13.12.2024 [17:33], Руслан Авдеев
Crusoe Energy привлекла $600 млн инвестиций, которые потратит на строительство одного из крупнейших в мире ИИ ЦОДСтартап Crusoe Energy Systems LLC, занимающийся строительством ИИ ЦОД, объявил об успешном привлечении $600 млн. Эти средства направят на ускоренное расширение физической инфраструктуры компании, сообщает The Information. Раунд финансирования серии D обеспечил рост стоимости компании до $2,8 млрд. Его возглавил фонд Founders Fund Питера Тиля (Peter Thiel), участие приняли NVIDIA, Fidelity, Long Journey Ventures, Mubadala, Ribbit Capital и Valor Equity Partners. Основанная в 2018 году Crusoe изначально занималась строительством контейнерных ЦОД для нефтяных полей — такие объекты работают на попутном «факельном» газе. Компания использовала энергию для майнинга биткоинов, но позже переориентировалась на ИИ-проекты и HPC-решения в целом, а сейчас переключилась на строительство крупных дата-центров. Кроме того, был анонсироване сервис Crusoe Cloud. В компании заявляют, что могут обеспечить экономически эффективные масштабные ИИ-вычисления, предоставляя экологически безопасную инфраструктуру. ![]() Источник изображения: Ruthson Zimmerman/unsplash.com В октябре 2024 года Crusoe сформировала совместное предприятие с Blue Owl Capital и Primary Digital стоимостью $3,4 млрд для строительства кампуса ЦОД из двух зданий в Техасе. Кампус обеспечат около 93 тыс. м3 площадей и получит около 1,2 ГВт энергии. Объект будет вмещать до 100 тыс. современных ускорителей и станет одним из крупнейших в мире дата-центров, построенных специально для ИИ-нагрузок. По-видимому, вычислительные мощности именно этого кампуса при посредничестве Oracle и Microsoft достанутся OpenAI. В прошлом году компания объявила о расширении сотрудничества с ведущими технологическими компаниями, включая NVIDIA, Vast Data Inc., Deloitte и Rescale Inc. Теперь Crusoe действует в девяти штатах США и трёх странах, включая Исландию. Новые инвестиции, по данным компании, позволят ей построить больше ЦОД, в изобилии обеспеченных чистой энергией. Уже сейчас ведётся реализация проектов дата-центров общей ёмкостью более 15 ГВт.
13.12.2024 [15:33], Андрей Крупин
«Лаборатория Касперского» внедрила GigaChat в систему KUMA для мониторинга и анализа инцидентов ИБ«Лаборатория Касперского» сообщила о расширении функциональных возможностей программного комплекса Kaspersky Unified Monitoring and Analysis Platform (KUMA) и включении в состав продукта инструментов анализа событий безопасности посредством нейросетевой модели GigaChat от «Сбера». KUMA относится к классу решений SIEM (Security Information and Event Management) и позволяет IT-службам в режиме реального времени осуществлять централизованный мониторинг событий ИБ, выявлять инциденты информационной безопасности, оперативно реагировать на возникающие угрозы, а также выполнять требования, предъявляемые регуляторами к защите персональных данных, в том числе к обеспечению безопасности государственных информационных систем. Построенный на базе GigaChat инструментарий получил название KIRA — Kaspersky Investigation and Response Assistant. Он позволяет сократить объём выполняемых ИБ-персоналом рутинных операций и снизить вероятность ошибок при анализе инцидентов — искусственный интеллект автоматически формирует карточки событий, оценивает степень их риска и помогает в принятии решений о приоритетности реагирования. Также ИИ в KUMA позволяет работать с системой профильным сотрудникам с разным уровнем подготовки. Так, опираясь на анализ от GigaChat, начинающие специалисты могут принимать более быстрые и точные решения по реагированию на инциденты. ![]() Пример работы Kaspersky Investigation and Response Assistant (источник изображения: «Лаборатория Касперского») «Лаборатория Касперского внедряет инструменты искусственного интеллекта в свои решения уже более 20 лет. Интеграция KUMA с GigaChat — логичное продолжение развития наших защитных продуктов с опорой на передовые технологии и прекрасный пример того, как лидеры в своих областях объединяют усилия, чтобы усовершенствовать безопасность организаций и помочь специалистам в их работе», — говорится в заявлении «Лаборатории Касперского». SIEM-платформа KUMA зарегистрирована в реестре отечественного ПО и имеет статус рекомендованной для использования в государственных ведомствах и организациях РФ.
13.12.2024 [12:05], Сергей Карасёв
Объём облачного рынка в России в 2024 году вырос на треть — до 165,6 млрд рублейВ 2024 году объём российского рынка облачных инфраструктурных сервисов достиг примерно 165,6 млрд руб., что соответствует росту на 36,3 % по отношению к 2023-му. Такую оценку дают аналитики iKS-Consulting. Отмечается, что рост отрасли в долларовом выражении составил только 8,6 % — до $1,95 млрд. Объясняется это резким падением курса рубля по отношению к иностранным валютам. В сегменте IaaS+PaaS лидером по выручке по итогам 2024 года стал Cloud.ru (до 2022 года входил в структуру «Сбера») с долей 28,9 %. На втором месте находится РТК-ЦОД с 16,9 %, а замыкает тройку Yandex Cloud с 11,4 %. Кроме того, в первую пятёрку вошли Selectel и MTS Web Services (MWS) с результатом 6,7 % и 6,5 % соответственно. Если рассматривать только направление PaaS, то первое место в рейтинге ведущих провайдеров занимает Cloud.ru с долей 45,6 %. Затем идут Yandex Cloud и РТК-ЦОД, контролирующие соответственно 26,7 % и 5,3 % сегмента. В сфере IaaS также лидирует Cloud.ru — доля зафиксирована на уровне 24,7 %. На втором и третьем местах находятся РТК-ЦОД и MTS Web Services с результатом 19,8 % и 8,1 %. ![]() Источник изображений: iKS-Consulting «Активное развитие российского IT-рынка происходило в том числе на фоне общемирового тренда на повышение проникновения высоких технологий во все сферы бизнеса и дополнительного импульса, полученного в результате пандемии COVID-19. В России также продолжается цифровая трансформация экономики, одним из наиболее заметных трендов которой является внедрение технологий ИИ в различные бизнес-процессы», — отмечается в исследовании iKS-Consulting. ![]() Среди ключевых драйверов облачного рынка в России авторы исследования называют быстрое развитие сервисов ИИ, ограниченные возможности предприятий по инвестициям в собственную инфраструктуру, спрос на услуги со стороны государства, а также миграцию заказчиков на отечественные платформы. Кроме того, наблюдается расширение облачных инфраструктур в целом. ![]() С другой стороны, существуют сдерживающие факторы: это сохраняющееся недоверие к облачным услугам со стороны ряда организаций, дефицит специализированных кадров и экономическая нестабильность. Для расширения облачных инфраструктур требуются значительные инвестиции в серверы и другое оборудование, что приводит к росту цен для конечных клиентов.
13.12.2024 [11:55], Руслан Авдеев
ExxonMobil впервые построит газовую электростанцию специально для питания ИИ ЦОДТранснациональный нефтегазовый гигант ExxonMobil обнародовал планы строительства новой электростанции мощностью 1,5 ГВт, работающей на природном газе. Предполагается, что новые проект будет снабжать электричеством только дата-центры, сообщает Datacenter Dynamics. Пока проект находится на ранних стадиях реализации. Речь идёт о первой энергетической инициативе Exxon, предполагающей строительство электростанции, не обеспечивающей электричеством собственные операции компании. Компания начала изучать перспективы бизнеса электрогенерации в этом году, когда стало понятно, что спрос на электричество стремительно растёт благодаря массовому строительству ЦОД в США. В Exxon утверждают, что намерены внедрить технологию захвата углерода для нейтрализации более 90 % выбросов электростанции. Местоположение электростанции Exxon пока не раскрывается, но известно, что компания уже зарезервировала землю и ведёт переговоры с потенциальными потребителями энергии из числа операторов ЦОД. В компании заявляют, что проект полностью соответствует рыночному спросу — он низкоуглеродный, лишён проблем с сетевыми подключениями и будет быстро реализован. ![]() Источник изображения: Mick Truyts/unsplash.com Новости Exxon отражают более широкие изменения на рынке энергетики — спрос на природный газ растёт на фоне роста спроса со стороны ИИ ЦОД. На прошлой неделе Meta✴ построит за $10 млрд ЦОД на северо-востоке Луизианы. Дата-центр будет получать 1,5 ГВт от газовых турбин Entergy Louisiana. В S&P Global уже пришли к выводу, что спрос на природный газ для обеспечения энергией ЦОД может достичь минимум 85 млн м3 в день к 2030 году, максимум — он будет вдвое больше. В результате природный газ стал своеобразным «мостом» для перехода на «зелёные» источники энергии с низким углеродным выбросом. В прошлом месяце американский оператор электросетей Midcontinent Independent System Operator заявил, что ЦОД могли бы потенциально платить за «газовую» генерацию для получения энергии в краткосрочной перспективе. Впрочем, многие опасаются, что даже быстрого масштабирования газовых электростанций будет недостаточно для удовлетворения спроса дата-центров на электроэнергию, особенно в крупнейшем мировом хабе ЦОД в Вирджинии. В новом докладе властей штата предупреждается, что для соответствия росту ЦОД необходимо будет строить новую электростанцию на 1,5 ГВт на природном газе каждые два года в течение 15 лет. Это первая попытка Exxon заняться генерацией энергии для ЦОД. Ранее компания инвестировала в технологии жидкостного охлаждения. Она сотрудничала с Intel над разработкой новых СЖО для дата-центров. В октябре 2023 года ExxonMobil объявила о намерении выйти на рынок охлаждающих жидкостей для ЦОД — синтетических и полусинтетических.
13.12.2024 [10:52], Сергей Карасёв
Квартальный объём мирового рынка корпоративного WLAN-оборудования достиг $2,5 млрдКомпания International Data Corporation (IDC) обнародовала результаты исследования глобального рынка корпоративного оборудования для беспроводных локальных сетей (WLAN) по итогам III квартала 2024 года. Аналитики отмечают, что отрасль стабилизируется после потрясений, вызванных пандемией COVID-19, когда нарушилась работа производств и цепочек поставок. Продажи WLAN-оборудования с июля по сентябрь включительно составили примерно $2,5 млрд. Это на 5,8 % больше по сравнению со II четвертью текущего года, однако на 1,7 % меньше по отношению к III кварталу 2023-го. Падение продаж за первые три квартала 2024-го составило в годовом исчислении около 17,5 %. ![]() Источник изображения: IDC На точки доступа Dependent Access Point стандарта Wi-Fi 6E пришлось 31,7 % в общем объёме выручки против 20,4 % годом ранее. Ещё 4,9 % продаж в денежном выражении обеспечили решения Wi-Fi 7. Основная масса прочих точек доступа Dependent Access Point основана на технологии Wi-Fi 6. В США сегмент корпоративного WLAN-оборудования в III четверти 2024-го сократился на 3,2 % в годовом исчислении, но вырос на 10,7 % в квартальном. В Западной Европе рынок показал рост на 0,2 % в годовом исчислении и на 4,2 % в квартальном. В Центральной и Восточной Европе прибавка составила соответственно 0,5 % и 7,8 %. В Азиатско-Тихоокеанском регионе, за исключением Японии и Китая, сектор сократился на 4,4 % в годовом исчислении и на 3,5 % в квартальном. В КНР зафиксировано падение на 10,2 % в годовом исчислении, тогда как в квартальном выражении отмечен рост на 2,2 %. В список ведущих поставщиков WLAN-продуктов на корпоративном рынке входят Cisco (41,6 % в денежном выражении), HPE Aruba Networking (15,1 %), Ubiquiti (8,3 %), Huawei (7,2 %) и Juniper Networks (5,3 %).
12.12.2024 [23:59], Руслан Авдеев
Царь-ускоритель Cerebras WSE-3 в одиночку обучил ИИ-модель с 1 трлн параметровCerebras Systems совместно с Сандийскими национальными лабораториями (SNL) Министерства энергетики США (DOE) провели успешный эксперимент по обучению ИИ-модели с 1 трлн параметров с использованием единственной системы CS-3 с царь-ускорителем WSE-3 и 55 Тбайт внешней памяти MemoryX. Обучение моделей такого масштаба обычно требует тысяч ускорителей на базе GPU, потребляющих мегаватты энергии, участия десятков экспертов и недель на наладку аппаратного и программного обеспечения, говорит Cerebras. Однако учёным SNL удалось добиться обучения модели на единственной системе без внесения изменений как в модель, так и в инфраструктурное ПО. Более того, они смогли добиться и практически линейного масштабирования — 16 систем CS-3 показали 15,3-кратный прирост скорости обучения. Модель такого масштаба требует терабайты памяти, что в тысячи раз больше, чем доступно отдельному GPU. Другими словами, классические кластеры из тысяч ускорителей необходимо корректно подключить друг к другу ещё до начала обучения. Системы Cerebras для хранения весов используют внешнюю память MemoryX на базе 1U-узлов с самой обычной DDR5, благодаря чему модель на триллион параметров обучать так же легко, как и малую модель на единственном ускорителе, говорит компания. Ранее SNL и Cerebras развернули кластер Kingfisher на базе систем CS-3, который будет использоваться в качестве испытательной платформы при разработке ИИ-технологий для обеспечения национальной безопасности.
12.12.2024 [22:54], Владимир Мироненко
Всё дальше от народа: Marvell предложила гиперскейлерам кастомизацию HBM для ИИ-ускорителейMarvell Technology анонсировала новый подход к интеграции HBM (CHBM) в специализированные XPU, который предоставляет адаптированные интерфейсы для оптимизации производительности, мощности, размера кристалла и стоимости для конкретных конструкций ИИ-ускорителей. Как указано в пресс-релизе, этот подход учитывает вычислительный «кремний», стеки HBM и упаковку. Marvell сотрудничает с облачными клиентами и ведущими производителями HBM, такими, как Micron, Samsung и SK hynix. CHBM повышает возможности XPU, ускоряя ввода-вывод между внутренними кристаллами самого ускорителя и базовыми кристаллами HBM. Это приводит к повышению производительности и снижению энергопотребления интерфейса памяти до 70 % по сравнению со стандартными интерфейсами HBM. Оптимизированные интерфейсы также уменьшают требуемую площадь кремния в каждом кристалле, позволяя интегрировать логику для поддержки HBM в базовый кристалл и сэкономить до 25 % площади. Высвободившееся пространство может быть использовано для размещения дополнительных вычислительных или функциональных блоков и поддержки до 33 % большего количества стеков HBM. Всё это повышает производительность и энергоэффективность XPU, одновременно снижая совокупную стоимость владения для операторов облачных инфраструктур. Правда, это же означает и несоответствие стандартами JEDEC. Как отметил ресурс ServeTheHome, HBM4 требует более 2000 контактов, т.е. вдвое больше, чем HBM3. Для кастомного решения нет необходимости в таком количестве контактов, что также высвобождает место для размещения других компонентов. «Ведущие операторы ЦОД масштабируются с помощью индивидуальной инфраструктуры. Улучшение XPU путем адаптации HBM к конкретной производительности, мощности и общей стоимости владения — это последний шаг в новой парадигме разработки и поставки ускорителей ИИ», — сказал Уилл Чу (Will Chu), старший вице-президент Marvell и генеральный менеджер группы Custom, Compute and Storage. В свою очередь, Гарри Юн (Harry Yoon), корпоративный исполнительный вице-президент Samsung Electronics, отметил, что оптимизация HBM для конкретных XPU и программных сред значительно повысит производительность облачной инфраструктуры операторов и её энергоэффективность. Согласно данным ServeTheHome, в этом году гиперскейлеры увеличили капзатраты примерно на $100 млрд. Следующее поколение ИИ-кластеров будет в десять и более раз превосходить по мощности систему xAI Colossus на базе 100 тыс. NVIDIA H100. Отказ от стандартов JEDEC и появление возможности настройки памяти с учётом потребностей гиперскейлеров является монументальным шагом для отрасли. Также этого говорит о нацеленности архитектуры Marvell XPU на гиперскейлеров, поскольку в таком «тюнинге» памяти небольшие заказчики не нуждаются.
12.12.2024 [18:37], Руслан Авдеев
Broadcom поможет Apple создать собственные серверные ИИ-ускорителиПо неофициальным данным, Apple работает с Broadcom над разработкой серверного ИИ-ускорителя для обслуживания ИИ-сервисов в своих ОС. По словам трёх анонимных источников The Information, чип создаётся в рамках проекта Baltra и будет запущен в производство в 2026 году. Ранее компании уже работали над 5G-технологиями. Деталей пока немного. На одной из конференций в этом году представитель Apple заявил, что ИИ-экосистема Apple Intelligence должна работать как на самих устройствах компании, так и в частном облаке Apple Private Cloud Compute на базе чипов M2 Ultra. Они используются для инференса, тогда как для обучения ИИ-моделей Apple использует ускорители Google TPU. Первые слухи о том, что компания разрабатывает серверные ускорители, появились в мае 2024 года. У компании богатый опыт разработки Arm-чипов, а Broadcom, помимо прочего, продаёт лицензии на различные IP-блоки и уже не раз помогала гиперскейлерам в создании кастомных чипов. Не так давно Broadcom анонсировала новую технологию упаковки 3.5D eXtreme Dimension System in Package (3.5D XDSiP), которая как раз ориентирована на создание высокопроизводительных кастомных чипов. Она позволяет объединить два 3D-стека, пару I/O чиплетов и до 12 модулей памяти HBM3 в одной упаковке, занимающей более 6000 мм². Производство первых чипов по этой технологии ожидается в 2026 году. Созданием собственных ИИ-ускорителей заняты практически все крупные гиперскейлеры. Google первой занялась созданием собственных ускорителей и теперь в её портфолио есть уже шесть поколений TPU, Meta✴ трудится над MTIA, AWS предлагает Trainium2 и Inferentia2, Microsoft анонсировала Maia 100, Alibaba разработала Hanguang 800, а ByteDance и OpenAI пока ещё только создают будущие ускорители, причём при помощи всё той же Broadcom. Впрочем, для многих из них это попытка снизить зависимость от NVIDIA, выручка которой бьёт все рекорды. |
|