Лента новостей

28.02.2024 [23:23], Владимир Мироненко

Российский облачный рынок продолжает бурно расти

В 2023 году объём российского рынка облачных услуг вырос по сравнению с предыдущим годом 33,9 % до 121 млрд руб., сообщается в отчёте iKS-Consulting «Российский рынок облачных инфраструктурных сервисов», о котором пишет Forbes. Эти цифры учитывают рынок IaaS и PaaS. В валютном эквиваленте рост рынка составил 7,4 %, до $1,44 млрд, что по мнению аналитиков отражает «более реальную его динамику, очищенную от инфляции».

Темпы роста рынка в 2023 году оказались ниже роста в 2022 году (90,6 млрд руб., +47 %) Аналитики отметили значительный рост доли рынка провайдеров Cloud.ru и Yandex Cloud, которых объединяет стремление развивать облака в совокупности с построенными вокруг компаний экосистемами. Новые игроки рынка продемонстрировали в 2021–2022 гг. кратный рост объёмов продаж облачных услуг не только в сегменте IaaS, но и особенно в сегменте PaaS.

 Рынок облачных инфраструктурных сервисов (IaaS и PaaS) в России в 2013–2023 гг., млрд руб. (Источник здесь и далее: iKS-Consulting)

Рынок облачных инфраструктурных сервисов (IaaS и PaaS) в России в 2013–2023 гг., млрд руб. (Источник здесь и далее: iKS-Consulting)

На рынке по-прежнему лидируют «Ростелеком-ЦОД» и Cloud.ru. Но если «Ростелеком-ЦОД» увеличил присутствие на рынке всего на долю процента, то доля Cloud.ru выросла за год с 17,6 до 21,8 %. Доля вышедшей на третье место Yandex.Cloud увеличилась с 7,4 до 9,8 %, а доли Selectel (7,2 %) и МТС (6,2 %) не изменились. Суммарно на первую пятёрку приходится более 68 % рынка.

 Предварительный рейтинг ТОП-20 на рынке облачных инфраструктурных сервисов (IaaS+PaaS), 2023 г., % выручки

Предварительный рейтинг ТОП-20 на рынке облачных инфраструктурных сервисов (IaaS+PaaS), 2023 г., % выручки

Если говорить о сегментах, то на рынке IaaS лидером остаётся «Ростелеком-ЦОД» с долей 27,1 %. За ним следуют Cloud.ru (19,0 %) и Selectel (8,5 %). Среди поставщиков PaaS лидерами являются Cloud.ru (35,4 %) и Yandex Cloud (25,0 %). Драйвером роста доли Cloud.ru аналитики iKS-Consulting назвали доступ к сервисам для создания и работы с моделями ИИ, а вот Yandex Cloud сосредоточена на услугах по предоставлению платформ для баз данных и управлению кластерами Kubernetes. Обе компании лидируют в сегменте синтеза и распознавания речи и изображений.

 Предварительный рейтинг ТОП-20 на рынке IaaS, 2023 г., % выручки

Предварительный рейтинг ТОП-20 на рынке IaaS, 2023 г., % выручки

iKS-Consulting сообщила, что значительный рост российского рынка также связан с миграцией существенной доли пользователей в российские облака из зарубежных после ввода санкций в 2022 году и уходом крупных зарубежных игроков из России. Уход западных компаний привёл также к росту цен на отечественные облака.

 Предварительный рейтинг игроков PaaS в 2023 году, % выручки

Предварительный рейтинг игроков PaaS в 2023 году, % выручки

Также в числе факторов роста аналитики назвали:

  • увеличение проникновения облачных услуг;
  • повышение доверия к облачным услугам со стороны крупного бизнеса;
  • ограниченные размеры инвестиций в инфраструктуру, актуальность замены CAPEX на OPEX;
  • политику оптимизации затрат на ИТ-инфраструктуру во многих компаниях;
  • появление новых игроков на рынке и фокусирование крупных провайдеров на секторе облачных услуг;
  • комплекс государственных мер по защите национального рынка.

В iKS-Consulting отметили, что рынок облачных услуг находится на этапе бурного роста. Вместе с тем ещё не сложилась устоявшаяся структура спроса и предложения, не до конца преодолён порог осторожности по отношению к сервисам данного класса со стороны потенциальных клиентов. Но уже в этом году миграция с зарубежных облаков может в основном завершиться, что отразится на темпах роста рынка, считают эксперты, опрошенные Forbes. С другой стороны, ожидается рост сегмента B2G.

 Темпы прироста сегментов облачного рынка в России в рублёвом выражении, 2014–2023 гг., %

Темпы прироста сегментов облачного рынка в России в рублёвом выражении, 2014–2023 гг., %

По словам экспертов, российский облачный рынок рос двузначными темпами ещё до ввода санкций и исхода из России зарубежных провайдеров, хотя нельзя отрицать, что импортозамещение и отказ от зарубежных IT-решений в 2022 году дали серьёзный толчок этому процессу. Директор по продуктам Selectel говорит, что постоянное развитие облачного рынка в России — это «фундаментальный тренд, а не ситуативный». Он также отметил, что «выручка Selectel растет сопоставимыми с рынком темпами».

Постоянный URL: https://servernews.ru/1100952
28.02.2024 [18:52], Руслан Авдеев

AWS откроет в Мексике свой первый облачный регион и вложит $5 млрд в развитие ЦОД

Amazon Web Services (AWS) намерена построить свой второй крупный облачный регион в Латинской Америке, на этот раз — в Мексике. Первым стал AWS South America в Сан-Паулу (Бразилия). Блог компании сообщает, что новый регион введут в эксплуатацию в начале 2025 года. AWS Mexico Region получит три независимые зоны доступности, удалённые друг от друга, но связанные широкополосными оптоволоконными каналами с низким уровнем задержки сигнала.

Компания давно инвестирует в развитие информационной инфраструктуры в Мексике. С 2020 года AWS запустила семь узлов Amazon CloudFront и сервис AWS Outposts, а в 2023 году появились выделенные локальные зоны AWS Local Zone. Клиентами AWS в стране уже являются Banco Santander Mexico, SkyAlert, Cinepolis, Aeromexico, Kueski и Bolsa Institucional de Valores (BIVA).

 Источник изображения: Andrew Schultz/unsplash.com

Источник изображения: Andrew Schultz/unsplash.com

По данным Datacenter Dynamics, местные власти приветствовали инвестиции AWS и расширение спектра услуг в стране, это поможет её цифровой и экономической трансформации. По их словам, готовность компании инвестировать в Мексику демонстрирует уверенность бизнеса в привлекательности условий ведения дел. Власти также приветствовали инвестиции AWS в обучение студентов, мелкие, средние и крупные компании и взаимодействие с предпринимателями цифрового сектора.

В стране уже присутствуют регионы Huawei Cloud и Oracle, а Microsoft и Google также планируют запустить здесь собственные сервисы. AWS сообщила о планах инвестировать $5 млрд в развитие своих мексиканских дата-центров в течение 15 лет. Компания также работает над четырьмя облачными регионами — в Германии, Малайзии, Новой Зеландии и Таиланде — и 15 новыми зонами доступности.

Постоянный URL: https://servernews.ru/1100968
28.02.2024 [16:03], Сергей Карасёв

«Инферит» представил отечественные СХД с возможностью масштабирования до 4 тыс. накопителей

Российский поставщик IT-продукции «Инферит» (ГК Softline) анонсировал три СХД: HS4240, FS2240 и FS2241. Кроме того, предлагается сервер RS208, на базе которого возможно создание отказоустойчивой высокопроизводительной программно-определяемой системы хранения.

Решение HS4240 выполнено в формате 4U на базе двух неназванных процессоров с 12 ядрами (2,3 ГГц). Допускается установка 24 накопителей SAS/SATA стандарта LFF/SFF. При этом система масштабируется до 2000 накопителей SSD/HDD. Устройство оснащено двумя контроллерами, работающими в режиме «активный — активный». На каждый контроллер возможно установить до шести карт расширения. В зависимости от модификации доступны до четырёх портов FC8/16/32 и до четырёх портов 10/25/40/100GbE. Реализована поддержка протоколов NFS, CIFS, S3, FTP, SMB, а также iSCSI и FC. Задействованы два блока питания и четыре вентилятора охлаждения.

 Источник изображений: «Инферит»

Источник изображений: «Инферит»

В свою очередь, FS2240 и FS2241 — это высокопроизводительные СХД типа All-flash в форм-факторе 2U. Они рассчитаны на 24 накопителя SAS SSD формата SFF ёмкостью до 16 Тбайт каждый. Первая из указанных моделей несёт на борту два 8-ядерных чипа с частотой 3,2 ГГц; возможно масштабирование до 2048 накопителей. Вторая модификация оборудована двумя 14-ядерными процессорами с той же частотой; допускается масштабирование до 4096 SSD. Обе СХД снабжены двумя контроллерами в режиме «активный — активный». Заявлена поддержка iSCSI, FC, NFS, CIFS, FTP, SMB. Есть до четырёх портов FC8/16/32 и до четырёх портов 10/25/40GbE, а также шесть слотов для карт расширения в расчёте на контроллер. Применены два блока питания мощностью 1200 Вт каждый, а за охлаждение отвечают в общей сложности восемь вентиляторов.

Все СХД совместимы с Windows и Linux. Упомянута поддержка OpenStack, VMware, Hyper-V, Docker, Kubernetes и других гетерогенных облачных вычислительных платформ.

Сервер RS208 формата 2U поддерживает установку двух процессоров Intel Xeon поколения Skylake, Cascade Lake или Cascade Lake Refresh в исполнении LGA 3647. Есть 16 слотов для модулей DDR4-2133/2400/2666/2933. Во фронтальной части расположены отсеки для восьми накопителей SAS/SATA формата LFF/SFF с возможностью горячей замены, четыре из них имеют поддержку NVMe. Сзади расположены два SFF-отсека для накопителей SAS/SATA, а внутри корпуса доступны четыре посадочных места для SFF-устройств. Может быть также установлен модуль M.2 2280 (PCIe x4 или SATA). Предусмотрены четыре слота PCIe x16 и два слота PCIe x8, четыре сетевых порта 1GbE RJ-45 и выделенный сетевой порт управления. Применены два блока питания 80 Plus Platinum на 800 Вт и система воздушного охлаждения.

Постоянный URL: https://servernews.ru/1100948
28.02.2024 [15:54], Руслан Авдеев

Доступность ускорителей NVIDIA H100 повысилась, что привело к появлению вторичного рынка

Сроки поставок ускорителей NVIDIA H100 значительно сократилось, с 8–11 мес. до всего 3-4. По данным Tom’s Hardware, в результате многие компании, ранее сделавшие огромные запасы, пытаются продать излишки. Кроме того, стало намного легче арендовать ускорители в облаках Amazon, Google и Microsoft. Впрочем, разработчики ИИ-моделей до сих пор испытывают проблемы с доступом к ресурсам ускорителей, поскольку спрос превышает предложение.

Как сообщают СМИ, некоторые компании пытаются перепродать доставшиеся им H100, а другие стали заказывать меньше в связи с высокой стоимостью обслуживания складских запасов и окончанием паники на рынке. В прошлом году приобрести подобные ускорители было чрезвычайно сложно. Отчасти улучшение ситуации на рынке связано с тем, что провайдеры облачных сервисов вроде Amazon (AWS) и других крупных игроков упростили аренду H100.

 Источник изображения: NVIDIA

Источник изображения: NVIDIA

Несмотря на то, что доступ к H100 упростился, желающим обучать LLM добраться до ресурсов по-прежнему непросто, во многом потому, что им требуются ускорители в невероятных количествах, в некоторых случаях речь идёт о сотнях тысяч экземпляров, поэтому цены на них до сих пор не упали, а NVIDIA продолжает получать сверхприбыли.

При этом рост доступности привёл к тому, что компании всё чаще пытаются сэкономить, ведут себя более избирательно при выборе предложений продажи или аренды, стараются приобрести более мелкие кластеры и внимательнее оценивают их экономическую целесообразность для бизнеса. Кроме того, альтернативные решения становятся все более распространёнными и всё лучше поддерживаются ПО. Это ведёт к формированию сбалансированной ситуации на рынке.

Так или иначе, спрос на ИИ-чипы по-прежнему высок, а с учётом того, что LLM становятся всё масштабнее, требуется больше вычислительных мощностей. Поэтому крупные игроки, которые зависят от поставок решений NVIDIA, занялись созданием собственных ускорителей. Среди них Microsoft, Meta и OpenAI.

Постоянный URL: https://servernews.ru/1100957
28.02.2024 [15:31], Сергей Карасёв

На MWC 2024 замечен первый образец ускорителя AMD Instinct MI300X с 12-слойной памятью HBM3E

Компания AMD готовит новые модификации ускорителей семейства Instinct MI300, которые ориентированы на обработку ресурсоёмких ИИ-приложений. Изделия будут оснащены высокопроизводительной памятью HBM3E. Работу над ними подтвердил технический директор AMD Марк Пейпермастер (Mark Papermaster), а уже на этой неделе на стенде компании на выставке MWC 2024 был замечен образец обновлённого ускорителя.

На сегодняшний день в семейство Instinct MI300 входят модификации MI300A и MI300X. Первая располагает 228 вычислительными блоками CDNA3 и 24 ядрами Zen4 на архитектуре x86. В оснащение входят 128 Гбайт памяти HBM3. На более интенсивные вычисления ориентирован ускоритель MI300X, оборудованный 304 блоками CDNA3 и 192 Гбайт HBM3. Но у этого решения нет ядер Zen4.

Недавно компания Micron сообщила о начале массового производства 8-слойной памяти HBM3E ёмкостью 24 Гбайт с пропускной способностью более 1200 Гбайт/с. Эти чипы будут применяться в ИИ-ускорителях NVIDIA H200, которые выйдут на коммерческий рынок во II квартале нынешнего года. А Samsung готовится к поставкам 12-слойных чипов HBM3E на 36 Гбайт со скоростью передачи данных до 1280 Гбайт/с.

AMD подтвердила намерение применять память HBM3E в обновлённых ускорителях Instinct MI300, но в подробности вдаваться не стала. В случае использования 12-слойных чипов HBM3E ёмкостью 36 Гбайт связка из восьми модулей обеспечит до 288 Гбайт памяти с высокой пропускной способностью. Наклейка на демо-образце недвусмысленно указывает на использование именно 12-слойной памяти. Впрочем, это может быть действительно всего лишь стикер, поскольку представитель AMD уклонился от прямого ответа на вопрос о спецификациях представленного изделия.

Ожидается также, что в 2025 году AMD выпустит ИИ-ускорители следующего поколения серии Instinct MI400. Между тем NVIDIA готовит ускорители семейства Blackwell для ИИ-задач: эти изделия, по заявлениям самой компании, сразу после выхода на рынок окажутся в дефиците.

Постоянный URL: https://servernews.ru/1100932
28.02.2024 [14:04], Сергей Карасёв

В Samsung разработаны первые в отрасли 12-слойные чипы HBM3E ёмкостью 36 Гбайт

Компания Samsung Electronics объявила о разработке первых в отрасли чипов высокопроизводительной памяти HBM3E в виде 12-ярусных стеков общей ёмкостью 36 Гбайт. Изделия ориентированы на применение в системах ИИ с большой вычислительной нагрузкой.

Новые чипы Samsung HBM3E обеспечивают пропускную способность до 1280 Гбайт/с. По этому показателю, как утверждается, решения более чем на 50 % превосходят доступные на рынке 8-слойные стеки HBM3.

 Источник изображения: Samsung

Источник изображения: Samsung

При изготовлении чипов Samsung применяет технологию термокомпрессии в комплексе с диэлектрической плёнкой. В результате, суммарная высота полученных 12-слойных изделий эквивалентна высоте 8-слойных. Samsung добилась наименьших в отрасли зазоров в стеке — всего 7 мкм, а также устранила пустоты между слоями. Это позволило поднять плотность вертикальной компоновки более чем на 20 % по сравнению с 8-слойными продуктами HBM3.

Кроме того, при производстве стеков Samsung использует между слоями памяти контактные выступы разного размера. Небольшие выступы служат для передачи сигналов, тогда как более крупные улучшают отвод тепла. Такой подход, по заявлениям Samsung, также способствует снижению доли брака.

В целом, как утверждается, внедрение 12-слойной памяти HBM3E по сравнению с 8-слойными изделиями даёт возможность увеличить скорость обучения ИИ-моделей на 34 %, тогда как количество одновременно обслуживаемых пользователей систем инференса может вырасти в 11,5 раз. Пробные поставки новых чипов уже начались, а массовое производство намечено на I половину 2024 года.

Нужно отметить, что буквально на днях компания Micron объявила о начале массового производства 8-слойной памяти HBM3E на 24 Гбайт с пропускной способностью более 1,2 Тбайт/с. Кроме того, Micron уже в марте начнёт распространять образцы 12-ярусных чипов HBM3E ёмкостью 36 Гбайт.

Постоянный URL: https://servernews.ru/1100929
28.02.2024 [14:01], Сергей Карасёв

CERN открыла новый дата-центр во Франции для поддержания экспериментов БАК

Европейская организация по ядерным исследованиям (CERN) объявила об открытии в Превессене во Франции нового ЦОД, который займётся обработкой информации, поступающей от Большого адронного коллайдера (БАК). Объект построен в рекордные сроки — менее чем за два года.

Общая площадь дата-центра превышает 6000 м2. Предусмотрены шесть залов для размещения оборудования, каждый из которых рассчитан на мощность в 2 МВт и может вместить до 78 стоек. В ЦОД в основном будут размещены серверы на базе CPU для обработки данных экспериментов, а также небольшое количество систем и хранилищ для обеспечения непрерывности операций и аварийного восстановления. Ожидается, что на полное оснащение площадки оборудованием потребуется около десяти лет.

 Источник изображения: CERN

Источник изображения: CERN

Отмечается, что новый объект соответствует строгим техническим требованиям, обеспечивающим экологическую устойчивость. Развёрнута эффективная система рекуперации тепла, которое будет использоваться для отопления зданий на территории Превессена. Целевой коэффициент PUE составляет 1,1, а показатель эффективности использования воды (WUE) — 0,379 л/кВт·ч. Система охлаждения будет автоматически включаться, когда наружная температура достигнет 20 °C. При этом температура в самих помещениях дата-центра ни при каких условиях не должна превышать 32 °C.

БАК в настоящее время генерирует около 45 Пбайт информации в неделю, но ожидается, что этот объём удвоится после модернизации комплекса. Данные экспериментов передаются в глобальную вычислительную сеть Worldwide LHC Computing Grid (WLCG), объединяющую около 170 дата-центров, расположенных в более чем 40 странах. Общая ёмкость хранилищ составляет примерно 3 Эбайт, а для обработки данных задействован примерно 1 млн процессорных ядер. Существующий дата-центр CERN на площадке в Мерене (Швейцария) по-прежнему является основным для организации.

Постоянный URL: https://servernews.ru/1100936
28.02.2024 [13:10], Сергей Карасёв

ИИ-модели Mistral AI появятся на платформе Microsoft Azure

Корпорация Microsoft объявила о заключении многолетнего партнёрского соглашения с французской компанией Mistral AI, которая специализируется на технологиях ИИ и разработке больших языковых моделей (LLM). В рамках договора Microsoft приобретёт небольшую долю в этом стартапе, оцениваемом приблизительно в €2 млрд.

Сообщается, что Mistral AI сделает свои LLM доступными через облачную инфраструктуру Microsoft Azure. Речь, в частности, идёт о новой модели общего назначения Mistral Large. Она поддерживает французский, немецкий, испанский, итальянский и английский языки.

Стороны намерены сотрудничать по трём ключевым направлениям. Одно из них — использование суперкомпьютерной инфраструктуры: Microsoft будет поддерживать Mistral AI с помощью платформы Azure AI, которая, как утверждается, обеспечивает «лучшую в своём классе производительность и масштабируемость» для обучения ИИ и задач инференса. Вторым направлением является вывод моделей Mistral AI на коммерческий рынок: доступ к LLM будет предоставляться по схеме MaaS (модель как услуга) на базе Azure AI Studio и Azure Machine Learning. Кроме того, Microsoft и Mistral AI намерены вести совместные исследования и разработки в области ИИ.

 Источник изображения: pixabay.com

Источник изображения: pixabay.com

«Мы очень рады начать партнёрские отношения с Microsoft. Благодаря передовой ИИ-инфраструктуре Azure мы достигнем новой вехи в развитии бизнеса и продвижении передовых решений», — сказал Артур Менш (Arthur Mensch), генеральный директор Mistral AI.

Microsoft, которая вкладывает миллиарды долларов в компанию OpenAI, разработчика ИИ-бота ChatGPT, намерена инвестировать в Mistral AI около €15 млн. Это соглашение уже привлекло внимание со стороны Европейской комиссии. Антимонопольный регулятор ЕС хочет проверить условия сделки и оценивать её возможное влияние на рынок.

Постоянный URL: https://servernews.ru/1100946
28.02.2024 [10:10], Владимир Мироненко

Суперкомпьютер «Оракул» на базе НГУ победил в конкурсе «Проект года»

Реклама | АО «К2 Интеграция» ИНН 7701829110
erid: 4CQwVszH9pWvp5V7PtT

Суперкомпьютер «Оракул» находится в Центре Национальной технологической инициативы (НТИ) по Новым функциональным материалам на базе НГУ (ЦНФМ). Его назначение — ускорить как разработку новых типов материалов, так и проектирование на их основе изделий для промышленных предприятий. Суперкомпьютер позволяет сотрудникам ЦНФМ сократить время на выполнение сложных математических расчётов в среднем в 10–12 раз и таким образом повысить количество выполняемых вычислений в месяц. Вместе с тем архитектура «Оракула» спроектирована в соответствии с требованиями импортозамещения.

Эксперты по HPC К2Тех развернули суперкомпьютер на 11 узлах. Вычислительная подсистема состоит из 392 процессорных ядер, установленных в 7 высокопроизводительных серверах. В их составе серверы как на базе CPU, так и графические с GPU-ускорителями для обработки визуальных данных. Обмен данными между серверами обеспечивает первый российский интерконнект «Ангара» разработки АО «НИЦЭВТ». Номинальная скорость передачи данных — не менее 75 Гбит/c, без блокировок и с низкими задержками.

 Источник изображений: К2Тех

Источник изображений: К2Тех

Ожидаемая пиковая производительность суперкомпьютера — не менее 47 Тфлопс. Вместимость отказоустойчивого NFS-хранилища — не менее 40 Тбайт данных. Для эффективной утилизации вычислительных мощностей серверов специалисты К2Тех развернули и настроили среду виртуализации на основе платформы zVirt отечественного разработчика Orion soft.

«Проекты внедрения суперкомпьютеров единичные в нашей стране. Если раньше западные производители предлагали их как моновендорные решения в отлаженных конфигурациях, то сегодня суперкомпьютер — это штучная работа , выполненная с учетом уникальных требований заказчика. Эксперты К2Тех самостоятельно подобрали компоненты и спроектировали архитектуру «Оракула» под задачи Центра НТИ с учётом требования — ориентироваться на лучшие решения, обеспечивающие технологический суверенитет. При этом в ходе конструирования кластера мы предусмотрели возможность его дальнейшего масштабирования. Нам очень приятно, что профессиональное сообщество ИТ-руководителей Global CIO так высоко оценило этот проект! Более того, мы видим, как интерес к суперкомпьютерам растет и среди наших заказчиков. Поэтому в перспективе мы планируем вывести наши компетенции по HPC-кластерам в отдельное подразделение», — отмечает руководитель направления ИТ-инфраструктуры К2Тех Алексей Зотов.

Высокопроизводительные вычислительные мощности «Оракула» потребовались Центру НТИ для разработки новых функциональных материалов с заданными свойствами. В их числе — инновационные композиционные электрохимические покрытия, перспективные магнитные и огнеупорные материалы. Кроме того, HPC-кластер необходим для ключевых проектов Центра НТИ, связанных с применением технологий машинного обучения и искусственного интеллекта. К ним относятся разработка прототипа цифрового паспорта материала и его информатизация (материал как элемент Интернета вещей), создание цифровых двойников технологических процессов.

«На текущий момент Центр НТИ нацелен на создание и ускоренный вывод на рынок новых типов материалов и продуктов на их основе. Их применение при проектировании деталей, конструкций и прочих изделий способствует развитию отечественных авиационной, космической, энергетической и иных промышленных отраслей, обеспечению технологического суверенитета. Поэтому нам была важна не только высокая производительность вычислительного кластера, но и его компонентная и программная независимость. А это значит — соответствие требованиям импортозамещения. Нам приятно, что формирование такой сложной архитектуры суперкомпьютера взяли на себя специалисты К2Тех, являющиеся экспертами в области реализации комплексных проектов полного цикла, а также подбора лучших российских решений для достижения поставленных целей и задач», — подчёркивает и.о. директора ЦНФМ Тимур Бъядовский.

О компании К2Тех:

К2Тех — эксперт ИТ-рынка по системной интеграции, разработке программных решений и сервисной поддержке. Более 15 лет реализует проекты в области инженерной, аппаратной и программной инфраструктуры, информационной безопасности, пользовательского ПО и бизнес-приложений.

О центре НТИ по Новым функциональным материалам:

Центр компетенций НТИ «Моделирование и разработка новых функциональных материалов с заданными свойствами» создан в 2021 году на базе Новосибирского государственного университета по результатам конкурсного отбора на предоставление грантов на государственную поддержку центров НТИ на базе образовательных организаций высшего образования и научных организаций в соответствии с постановлением Правительства Российской Федерации № 1251 от 16.10.2017.

Основной миссией Центра является создание единой цифровой платформы технологий и инструментов разработки функциональных материалов с заданными свойствами и изделий из них, существенно влияющих на рыночный потенциал конечных продуктов мировых рынков НТИ и технологических проектов-маяков.

Постоянный URL: https://servernews.ru/1100305
27.02.2024 [23:20], Алексей Степин

«Тантор Лабс» и «Аквариус» представили программно-аппаратную БД-платформу Tantor XData

Компания «Тантор Лабс», разработчик СУБД Tantor и российский производитель вычислительной техники, группа компаний «Аквариус» объявили о выпуске на рынок программно-аппаратного комплекса Tantor XData. Главное предназначение новинки, как нетрудно догадаться, это обслуживание СУБД Tantor, разработанной «Тантор Лабс» на основе PostgreSQL и оптимизированной для применения в высоконагруженных сценариях.

Компоненты Tantor XData внесены в государственные реестры Минпромторга и Минцифпы. В стандартном исполнении основой Tantor XData являются вычислительные модули — двухпроцессорные серверы «Аквариус» на базе Intel Xeon Cascade Lake-SP. Но возможны и нестандартные варианты исполнения с четырёхпроцессорными серверами, а также с двухпроцессорными вариантами на базе процессоров AMD EPYC, либо двух- и четырёхпроцессорные серверы на базе Arm (Baikal-S или Kunpeng 920).

Минимальная конфигурация включает в себя пять серверов, три нужны для запуска СУБД Tantor, два других являются серверами управления и резервного копирования. Она располагает 144 процессорными ядрами (288 vCPU), 4,5 Тбайт оперативной памяти, 420 Тбайт хранилища под данные СУБД и 500 Тбайт — под резервные копии и логи. Масштабируется система группами серверов, а максимальная конфигурация состоит из 18 машин с 864 ядрами (1728 vCPU), 27 Тбайт RAM, 2,5 Пбайт под данные БД без учёта репликации, а также 3 Пбайт под резервные копии и логи. Одна работающая копия БД может использовать до 92 vCPU, 1,5 Тбайт памяти и 120 Тбайт хранилища.

 Источник: «Тантор Лабс»

В основе программной части лежит ОС Astra Linux Special Edition, способная работать в трёх режимах защиты: «Орёл» (базовый), «Воронеж» (усиленный) и «Смоленск» (максимальный). Поверх ОС функционирует программный кластер из трёх связанных репликацией копий Tantor Special Edition, поддерживающий автоматическое масштабирование ресурсов. В состав платформы входят службы Tantor Appliance Manager, управляющая аппаратными ресурсами и кластерами БД, и Backman, отвечающая за резервное копирование. Для управление ПАК имеется графический интерфейс.

Tantor XData поставляется в полностью собранном виде и готова к использованию «из коробки». ПАК подходит как для организации хранилищ данных с онлайн-аналитикой (OLAP), так и для развёртывания системы обработки транзакций в режиме реального времени (OLTP). Новинка уже применяется в тестовом режиме некоторыми российскими компаниями. Стоимость платформы варьируется в зависимости от потребностей заказчика и определяется сочетанием программно-аппаратных ресурсов и сервисной поддержки вендоров.

Постоянный URL: https://servernews.ru/1100905

Входит в перечень общественных объединений и религиозных организаций, в отношении которых судом принято вступившее в законную силу решение о ликвидации или запрете деятельности по основаниям, предусмотренным Федеральным законом от 25.07.2002 № 114-ФЗ «О противодействии экстремистской деятельности»;

Система Orphus