Материалы по тегу: ии
|
22.05.2025 [12:43], Сергей Карасёв
ASRock Rack показала серверы NVIDIA HGX B300 и систему XGMRACK GB300 NVL72Компания ASRock Rack в рамках выставки Computex 2025 представила серверы нового поколения, оснащённые ИИ-ускорителями NVIDIA на архитектуре Blackwell. Кроме того, демонстрируются другие индустриальные и корпоративные продукты, включая материнские платы и системы с процессорами AMD и Intel. В число новинок вошёл сервер ASRock Rack 8U16X-GNR2 типоразмера 8U с воздушным охлаждением. Он выполнен на платформе NVIDIA HGX B300. По заявления разработчика, достигается в семь раз более высокая ИИ-производительность по сравнению с сопоставимыми системами, оборудованными ускорителями NVIDIA на архитектуре Hopper. Суммарный объём памяти HBM3e составляет около 2,3 Тбайт. Задействованы сетевые адаптеры NVIDIA ConnectX-8 SuperNIC. Кроме того, ASRock Rack готовит к выпуску сервер 4U16X-GNR2 на базе NVIDIA HGX B300 с жидкостным охлаждением. Обе модели ориентированы на ресурсоёмкие рабочие ИИ-нагрузки, такие как агентные системы, рассуждающие модели и генеративные сервисы. На стенде ASRock Rack представлено стоечная система XGMRACK на основе NVIDIA GB300 NVL72. Она объединяет 36 чипов NVIDIA Grace и 72 ускорителя NVIDIA Blackwell Ultra. Вычислительные и коммутационные узлы используют на 100 % жидкостное охлаждение. Общий объём памяти HBM3e превышает 20 Тбайт. Применяются решения NVIDIA Quantum-X800 InfiniBand и Spectrum-X Ethernet. ASRock Rack также представила серверы на модульной архитектуре NVIDIA MGX для масштабируемых ИИ-приложений и периферийных вычислений. В число таких машин входит модель 4UXGM-GNR2 типоразмера 4U с поддержкой двух процессоров Intel Xeon 6700P, 6500P (Granite Rapids) или Xeon 6700E (Sierra Forest). Доступны 32 слота для модулей оперативной памяти DDR5-6400, 16 посадочных мест для накопителей E1.S с интерфейсом PCIe 5.0 x4, два коннектора М.2 22110/2280 для SSD (PCIe 5.0 x4 и PCIe5.0 x2), восемь слотов PCIe 5.0 x16 FHFL, пять слотов PCIe 5.0 x16 FHHL и один слот PCIe 5.0 x16 HHHL. Установлены контроллер ASPEED AST2600 и четыре блока питания мощностью 1200 Вт с сертификатом 80 PLUS Titanium.
22.05.2025 [12:36], Руслан Авдеев
На пути к гигаватту: Nebius увеличит капитальные затраты в 2025 году до $2 млрдПровайдер облачных ИИ-сервисов Nebius (ранее Yandex N.V.) увеличил прогнозируемые капитальные затраты в 2025 году на треть. В отчёте за I квартал сообщается, что теперь капзатраты за год составят порядка $2 млрд — ранее речь шла об $1,5 млрд, сообщает Datacenter Dynamics. По словам компании, увеличение связано с переносом затрат с IV квартала предыдущего периода на I квартал нового. Кроме того, виновата и «оппортунистическая» стратегия компании — речь идёт о недавно анонсированном суперкомпьютере в Израиле. Изначально израильского проекта за $140 млн в планах не было, но раз появилась такая возможность, то ей было решено воспользоваться, к тому же часть расходов оплатят израильские власти. Базового уровня мощности в 100 МВт компания рассчитывает добиться уже в 2025 году, но её руководство заявляет, что на деле амбиций гораздо больше — со временем планируется выйти на уровень в 1 ГВт. Сейчас компания располагает возможностью финансировать рост расходов за счёт неосновных активов, долей в сторонних монетизируемых проектах. Так, Nebius косвенно подтвердила, что сейчас идёт раунд сбора средств для Clickhouse, который может довести капитализацию этой компании до $6 млрд, что уже положительно сказалось на оценках самой Nebius. Также Nebius имеет значительные доли в Toloka и Avride. Недавно Toloka получила $72 млн инвестиций от Bezos Expeditions, которой владеет основатель Amazon Джефф Безос (Jeff Bezos).
Источник изображения: Alexander Grey/unsplash.com Также компания намерена получить доступ и к более традиционным источникам средств. В декабре 2024 года Nebius уже привлекала $700 млн в виде акционерного финансирования от Accel, NVIDIA и структур, подконтрольных Orbis Investments. Кроме того, компания завершила квартал с $1,4 млрд на балансе, что подчеркивает её финансовую устойчивость и перспективы для дальнейших инвестиций или роста. Несмотря на прогнозируемый рост капитальных затрат, Nebius отчиталась о квартальной выручке в размере $55,3 млн, на 385 % больше год к году в сравнении с $11,4 млн в 2024 году. Основным источником средств стала ИИ-инфраструктура компании. Скорректированный убыток по EBITDA за квартал составил $62,6 млн, на 12 % меньше год к году, чистый убыток от продолжающейся деятельности — $113,6 млн. Ожидается, что показатель EBITDA станет положительным в 2025 году. Прогноз головой выручки составляет $500–$700 млн, при этом годовой темп выручки оценивается компанией в $0,75—$1 млрд к концу 2025 года. В любом случае предполагается последовательный рост компании.
Источник изображения: Alexander Grey/unsplash.com Предложение ускорителей NVIDIA Blackwell клиентам даст уверенность в том, что показатели компании будут соответствовать собственным прогнозам. Компания уже предлагает доступ к GB200, а в III квартале начнёт развёртывать Blackwell Ultra (GB300). По словам генерального директора компании Аркадия Воложа (Arkady Volozh), текущая клиентская база компании — новые ИИ-бизнесы, появившиеся в последние пару лет. Большинство из них базируется в США, поэтому Nebius сосредоточена на том, чтобы нарастить мощности в этой стране. По словам бизнесмена, пока не привлечены передовые ИИ-лаборатории и действительно крупные клиенты, но в Nebius усердно работают над этим — таким клиентам понадобится больше ЦОД. Nebius также присоединилась к платформе NVIDIA DGX Cloud Lepton, которая упрощает облачный доступ к ускорителям NVIDIA. К Lepton также присоединились CoreWeave, Crusoe, Firmus, Foxconn, GMI Cloud, Lambda, Nscale, SoftBank и Yotta Data Services. Также известно, что компания назначила нового финансового директора — Марию дель Дадо Алонсо Санчес (Maria del Dado Alonso Sanchez), которая уже 1 июня должна сменить на этом посту Рона Джейкобса (Ron Jacobs). Новая CFO имеет за плечами более 25 лет опыта работы на руководящих должностях, в том числе в Amazon, Booking.com, Naspers/OLX и BBG.
21.05.2025 [17:23], Руслан Авдеев
Глава NVIDIA назвал запреты США на экспорт передовых ИИ-чипов в Китай «ошибочными и абсолютно неправильными»Глава NVIDIA Дженсен Хуанг (Jensen Huang) назвал запреты США на экспорт производительных ИИ-ускорителей в Китай «ошибкой» и «абсолютно неправильной политикой», сообщает The Register. Выступая на выставке Computex на Тайване, Хуанг пожаловался на решение новой администрации запретить продажи в КНР ускорителей NVIDIA H20 — ослабленной версии чипов H800, которые сами по себе являются ухудшенным вариантом H100. По словам бизнесмена, это решение негативно скажется на выручке и прибыли NVIDIA, что ухудшит возможности платить в США налоги и нанимать сотрудников. Также предполагается, что такая политика навредит человечеству в целом, поскольку половина учёных в области ИИ находятся в Китае, и они же показывают одни из лучших в мире результатов. Хуанг хотел бы, чтобы те могли пользоваться оборудованием NVIDIA, чтобы результаты их работы мог использовать весь мир. Хуанг подчеркнул, что знаменитые продукты китайской DeepSeek, позволяющие выжать максимум из оборудования, создавались на ускорителях NVIDIA. В своё время появление R1 вызвало панику на бирже и обвал акций самой NVIDIA. При этом китайские бизнесы создают собственные ИИ-ускорители, поэтому политика американских властей «ошибочна», она только ускорит инновации в Китае. NVIDIA, конечно, попытается создать ускорители, соответствующие новым требованиям экспортного контроля США, но пока в NVIDIA «не знают, как ослабить архитектуру Hopper ещё больше», поскольку она и без того максимально ухудшена.
Источник изображения: NVIDIA Заодно Хуанга похвалил новые правила экспорта ускорителей в большинство других стран, которые стали более демократичными. Хуанг уверен, что изменение политики поможет NVIDIA вырасти, а американским технологиям — занять доминирующие позиции в мире. Он не преминул отметить, что правительствам стоит ускорить выдачу разрешений на проекты генерации энергии для ИИ ЦОД. Заодно Хуанг похвалил политику США по наращиванию местного производства, поскольку ИИ-бум обеспечит спрос и возможности для выпуска большего количества продуктов в США. Впрочем, бизнесмен уверен, что всё делать в стране всё равно не получится — системы NVIDIA полагаются на получение более 1 млн типов компонентов со всего мира. Также в ходе выступления Хуанг не преминул прорекламировать технологию NVlink Fusion, позволяющую использовать интерконнекты NVIDIA NVLink с ускорителями разных производителей. Директор компании подчёркивает, что его технология значительно лучше «открытого» стандарта UALink. По словам Хуанга, пока пользователи ждут UALink, на что уйдёт не меньше года), NVLink Fusion наберёт популярность. Также бизнесмен опроверг слухи о планах NVIDIA построить новый исследовательский центр в Китае — новые офисные помещения нужны просто потому, что действующим сотрудникам не хватает места.
21.05.2025 [13:36], Владимир Мироненко
Представлен ПАК Tantor XData 2B — машина баз данных на российском процессоре Baikal-SКомпания «Тантор Лабс» (входит в «Группу Астра») представила первый серийный образец российской машины баз данных (МБД) Tantor XData 2B на процессоре Baikal-S от «Байкал Электроникс». Новинка пополнила семейство высокопроизводительных МБД Tantor XData, ориентированных на заказчиков, чьи потребности в скорости, надёжности и масштабируемости не удовлетворяют возможности традиционных СУБД. МБД Tantor XData 2B представляет собой единый программно-аппаратный комплекс (ПАК), основанный на 2U-серверах с российскими процессорами Baikal-S (48 ядер Arm Cortex-A75 с частотой до 2,5 ГГц). Узлы дополнены RAID- и HBA-контроллерами, двумя БП мощностью 1200 Вт каждый и двумя сетевыми картами — 100GbE и 25GbE. Программный комплекс Tantor XData Software используется для всей линейки МБД Tantor XData, в том числе для архитектуры ARM64, что упрощает обслуживание и эксплуатацию устройств семейства на различных аппаратных платформах. Все ключевые элементы Tantor XData 2B входят в реестры Минпромторга и Минцифры, а сама МБД сейчас проходит регистрацию в Минпромторге. В узлах используется системная плата «Элпитех» ET173-MB формата E-ATX с процессорным разъёмом LGA-3467 для Baikal-S и 12 слотами для UDIMM/RDIMM-модулей DDR4-3200 ECC общим объёмом до 768 Гбайт. Также предусмотрены разъёмы для подключения четырёх вентиляторов, два слота PCIe 4.0 x16, три слота PCIe 4.0 x8, два порта USB 3.0, два 1GbE-порта RJ45, выделенный 1GbE-порт для BMC (OCP RunBMC), видеовыход VGA, два разъёма M.2 Key M 2280 и один разъём M.2 Key M 2260/2280 для NVMe SSD. Есть колодки для двух портов USB 3.0, двух портов USB 2.0 и VGA-выхода, а также датчик вскрытия шасси. Вычислительная подсистема МБД Tantor XData 2B обеспечивает размещение сервисов БД (СУБД Tantor со встроенной платформой управления и мониторинга), изоляцию сервисов БД по ресурсам, отказоустойчивость, а также встроенное трёхкратное потоковое программно-аппаратное сжатие. Коммутационная подсистема обладает пропускной способностью до 100 Гбит/с. Управление ресурсами кластера возложено на подсистему управления и служебного хранения, которая также отвечает за безопасность и резервное копирование. Как сообщает компания, новая версия МБД даже в минимальной конфигурации обеспечивает обработку 60 000 транзакций в секунду и создание резервных копий со скоростью до 35 Тбайт/ч, гарантируя отказоустойчивость с возможностью масштабирования ресурсов без остановки работы. МБД Tantor XData 2B имеет графический интерфейс, CLI и API. Изготовитель предлагает различные готовые к использованию комплектации: от минимальной до конфигурации уровня Enterprise. На днях собственную МБД Postgres Pro Machine представила компания Postgres Professional. Эта система использует узлы Delta Computers. Также на российском рынке присутствует МБД от Скала^р.
21.05.2025 [12:57], Руслан Авдеев
ИИ-платформа Microsoft Discovery создала жидкость для СЖО за 200 часов вместо нескольких месяцев
hpc
microsoft
microsoft azure
software
ии
ии-агент
квантовые вычисления
погружное охлаждение
разработка
сжо
химия
Компания Microsoft запустила для корпоративных пользователей в тестовом режиме ИИ-платформу Microsoft Discovery, использующую ИИ-агентов и HPC для помощи учёным, которым не придётся самостоятельно писать код для своих исследований. Потенциал системы продемонстрировали на примере самой Microsoft — ИИ помог создать новейшую жидкость для погружного охлаждения всего за 200 часов вместо нескольких месяцев или даже лет, сообщает VentureBeat. Microsoft Discovery использовали для поиска охлаждающей жидкости без «вечных» PFAS-химикатов, часто применяемых в иммерсионных СЖО. Регуляторы во всём мире всё чаще запрещают производство и использование этого класса вещества. ИИ Microsoft проверил 367 тыс. веществ-кандидатов, после чего химикат синтезировал один из партнёров компании. Однако сфера применения такого ИИ простирается далеко за пределы создания охлаждающих жидкостей — новые материалы и химикаты требуются в самых разных сферах, но на их поиск часто уходят годы. Microsoft Discovery позволяет взаимодействовать с «невероятными возможностями» ИИ, используя естественный язык, что полностью меняет весь процесс исследований, говорит компания. Обычно учёным приходилось изучать программирование для того, чтобы создавать вычислительные инструменты. Такая демократизация науки сыграет на руку малым исследовательским группам, у которых нет ресурсов на изучение программирования или привлечения сторонних специалистов в этой сфере. Более того, со временем платформа научится работать и с квантовыми компьютерами, написание кода для которых — ещё более сложная задача.
Источник изображения: National Cancer Institute/unsplash.com Работа выполняется с помощью специальных ИИ-агентов, специально обученных для выполнения отдельных научных задач — от написания литературного обзора до создания компьютерной симуляции. По словам Microsoft, ИИ-агенты — это чуть ли не целая команда учёных с докторскими степенями в различных науках. Платформа интегрирует друг с другом базовые модели, занимающиеся общим планированием, и модели, специализирующиеся на физике, химии или, например, биологии. Также Microsoft Discovery позволяет комбинировать закрытые исследовательские данные и результаты уже опубликованных научных исследований по разным дисциплинам, сохраняя прозрачность моделей и контролируя процесс «рассуждений». Для работы с платформой используется интерфейс Copilot, который занимается оркестрацией агентов. Одновременно интерфейс служит и центральным хабом, в котором учёные управляют своей виртуальной ИИ-командой.
Источник изображения: National Cancer Institute/unsplash.com В платформу встроены защитные механизмы — системе заданы «этические координаты». Также применяется модерация контента с проактивным подходом к выявлению злоупотреблений возможностями платформы — маркируются потенциально вредоносные алгоритмы и действия, поскольку все ИИ-инструменты фактически имеют «двойное назначение». С их помощью можно изобретать не только лекарства, но и опасные биологически опасные субстанции. Для своей платформы Microsoft выстраивает экосистему с участием представителей самых разных отраслей, от фармацевтики (GSK) до индустрии красоты (Estée Lauder). NVIDIA интегрирует с Discover микросервисы ALCHEMI и BioNeMo NIM для биотехнологий и фармацевтики. В полупроводниковой сфере Microsoft планирует интеграцию решений Synopsys для ускорения разработки чипов. Адаптацией под конкретные отраслевые задачи, развёртыванием и масштабированием платформы займутся Accenture и Capgemini.
Источник изображения: Microsoft Успех Microsoft Discovery будет зависеть от того, насколько эффективно систему смогут интегрировать в текущие научные процессы — многие учёные скептически относятся к новым методикам, так что компании придётся показать всё, на что способен ИИ. По словам Microsoft, будущее науки именно за сочетанием умственных возможностей человека и масштабного ИИ. Microsoft уже провела предварительную демонстрацию Discovery для ограниченного круга структур. Цены на платформу пока не названы, но доступ к к ней будет организован посредством Azure.
21.05.2025 [10:39], Владимир Мироненко
GPU-маркетплейс NVIDIA DGX Cloud Lepton упростит доступ к дефицитным ИИ-ускорителямNVIDIA анонсировала GPU-маркетплейс NVIDIA DGX Cloud Lepton, которая позволит разработчикам со всего мира, создающим агентские и другие ИИ-приложения использовать NVIDIA Blackwell и другие модели ускорителей в глобальной сети партнёрских облаков (NCP): CoreWeave, Crusoe, Firmus, Foxconn, GMI Cloud, Lambda, Nebius, Nscale, Softbank и Yotta Data Services. Ожидается, что ведущие провайдеры облачных услуг и другие GPU-маркетплейсы также присоединятся к DGX Cloud Lepton. Разработчики смогут использовать вычислительные мощности ускорителй в определённых регионах как для вычислений по требованию, так и на постоянной основе. «NVIDIA DGX Cloud Lepton свяжет нашу сеть глобальных поставщиков облачных GPU с разработчиками в сфере ИИ, — заявил основатель и генеральный директор NVIDIA Дженсен Хуанг (Jensen Huang). — Вместе с нашими NCP мы строим ИИ-фабрику планетарного масштаба». По замыслу NVIDIA, платформа DGX Cloud Lepton поможет решить критическую задачу обеспечения разработчиков надёжными, высокопроизводительными ресурсами ускорителей путём унификации доступа к облачным ИИ-сервисам и мощностям собственных ускорителей. Платформа интегрирована с программным стеком NVIDIA, включая микросервисы NIM и NeMo, Blueprints и Cloud Functions. В числе основных преимуществ новой платформы компания назвала:
А для самих провайдеров, участвующих в DGX Cloud Lepton, предоставляется ПО для управления, которое обеспечивает диагностику состояния ускорителей в реальном времени и автоматизирует анализ первопричин возникших проблем, избавляя от ручной диагностики и сокращая время простоев. NVIDIA также анонсировала инициативу Exemplar Clouds, предназначенную для стандартизации прозрачного сравнительного анализа облачной ИИ-инфраструктуры. Это предложение должно решить серьёзную проблему, с которой сталкиваются разработчики и предприятия, развёртывающие рабочие ИИ-нагрузки — прогнозирование эффективности, надёжности и ценовой эффективности облачной платформы. Exemplar Clouds использует NVIDIA DGX Cloud Benchmarking, комплексный набор инструментов и рекомендаций для оптимизации производительности облачных ИИ-нагрузок и количественной оценки связи между стоимостью и производительностью.
21.05.2025 [10:15], Руслан Авдеев
Малайзия проигнорировала США и развернула первую в регионе суверенную ИИ-платформу на чипах Huawei и LLM DeepSeekМалайзия официально объявила об успешной реализации проекта Strategic AI Infrastructure — теперь это первая в Юго-Восточной Азии страна с полностью суверенным стеком ИИ-технологий. Несмотря на настоятельные рекомендации Министерства торговли США не использовать передовые китайские ускорители вроде Huawei Ascend, новый проект реализован с использованием именно этих продуктов и китайской ИИ-модели семейства DeepSeek — впервые за пределами КНР, сообщает TrendForce. Как свидетельствует агентство со ссылкой на малайзийские СМИ, местные власти приветствовали запуск новой инфраструктуры, назвав событие важной вехой на пути развития ИИ в стране. Представитель министерства связи Малайзии подчеркнул, что локализация ИИ-моделей вроде DeepSeek и размещение ИИ-серверов на территории страны укрепляет цифровой суверенитет государства.
Источник изображения: Wengang Zhai/unsplash.com Предполагается, что теперь Малайзия не зависит от зарубежных облаков или ЦОД — вся инфраструктура, от серверов до ИИ-агентов, разрабатывается и управляется на месте. По имеющимся данным, первая суверенная генеративная ИИ-экосистема, оператором которой выступает малайзийская Skyvast Cloud, работает на основе серверов AlterMatic DT250 с восемью ускорителями Huawei Ascend. Skyvast и китайская компания Leadyo намерены развернуть к 2026 году 3 тыс. высокопроизводительных ускорителей в нескольких зонах в Малайзии. Это будет частью стратегии по масштабированию национальной ИИ-системы за счёт международного и локального сотрудничества. Примечательно, что в стране фактически проигнорировали предупреждение Министерства торговли США, которое недавно заявило о потенциальных рисках применения китайских ускорителей, а также предостерегло от использования американских ИИ-чипов для обучения и дальнейшего обеспечения работы китайских ИИ-моделей. В частности, утверждалось, что при их создании использовалась интеллектуальная собственность американских компаний. Дополнительно на днях сообщалось, что Соединённые Штаты готовят санкции против китайских производителей памяти CXMT, YMTC и других чипмейкеров.
21.05.2025 [09:38], Сергей Карасёв
Представлена российская альтернатива Raspberry Pi — одноплатный компьютер Eltay SC с процессором «Скиф»Новосибирская компания «Элрон» разработала одноплатный компьютер Eltay SC с российским процессором «Скиф». Новинка позиционируется в качестве отечественной альтернативы зарубежным продуктам Raspberry Pi, Orange Pi, Banana Pi, Odroid, Rock Pi, Radxa и др. 28-нм чип «Скиф», положенный в основу Eltay SC, разработан в НПЦ «Элвис». Изделие содержит вычислительный кластер с четырьмя ядрами Arm Cortex-A53 с тактовой частотой до 2 ГГц, а также двухъядерный DSP-кластер и графический блок PowerVR Series8XE. Интегрированный VPU-модуль обеспечивает возможность кодирования/декодирования двух потоков видео 4К (60 Гц). Упомянут приёмник навигационных систем ГЛОНАСС/GPS/BeiDou/Galileo. Одноплатный компьютер Eltay SC несёт на борту 4 Гбайт LPDDR4 и флеш-модуль eMMC вместимостью 32 Гбайт. Дополнительно может быть установлена карта microSD. Имеются адаптеры Wi-Fi 802.11b/g/n и Bluetooth 4.0, сетевой контроллер 10/100MbE с гнездом RJ45, четыре порта USB 3.0 Type-A, коннектор micro-HDMI. Поддерживаются интерфейсы 2 × I2C, 2 × SPI, 1 × UART, 4 × PWM, 2 × GPIO или 28 × GPIO. Габариты — 85 × 86 мм. Питание подаётся через порт USB-C. Заявлена совместимость с российскими операционными системами ALT Linux.
Источник изображения: «Элрон» «Элрон» сообщила, что плата Eltay SC производится полностью в России на предприятии в Новосибирске. Устройство ориентировано прежде всего на промышленную сферу: оно может применяться, в частности, в станкостроении, приборостроении и машиностроении. Преимуществом новинки перед зарубежными аналогами названа импортонезависимость: «Это замена Raspberry Pi. Это российский процессор "Скиф" производства компании "Элвис". Таким образом, обеспечивается большая импортонезависимость».
20.05.2025 [19:00], Владимир Мироненко
MIND Software анонсировала отечественную программно определяемую СХД MIND uStorMIND Software представила распределённую блочную программно определяемую СХД MIND uStor, предназначенную для корпоративного сегмента отечественного рынка. Ключевая функциональность новинки — сервисы оркестрации, мониторинга, информационной безопасности, графический интерфейс, снапшоты, REST API, CLI, доступ по iSCSI и т.п. — была создана компанией с нуля на основе собственных разработок в соответствии с современными требованиями к высокой надёжности, производительности и технологической независимости продукта, говорит MIND Software MIND uStor позволяет построить отказоустойчивое, масштабируемое и производительное хранилище данных с возможностью интеграции с платформами серверной и контейнерной виртуализации, в том числе в гиперконвергентных (HCI) конфигурациях. Платформа совместима с x86-серверами и поддерживает широкий спектр протоколов взаимодействия с виртуальной инфраструктурой. ПО MIND uStor может лицензироваться как для постоянного использования, так и в форме подписки. Доступны лицензии uStor Enterprise HD/AF и Standard. Компания также предлагает комплекс профессиональных услуг для помощи в проектировании и внедрении. Решение отличается универсальностью, позволяя применять его для организаций, чья инфраструктура включает различные облачные платформы и технологии виртуализации. Оно позволяет повысить эффективность использования систем хранения и оптимизировать совокупную стоимость владения инфраструктурой (TCO). По данным MIND Software, её SDS позволяет снизить TCO на 30–60 % по сравнению с традиционными СХД. По словам компании, MIND uStor — логичный и своевременный ответ на растущий спрос на отечественные инфраструктурные решения, способные заменить зарубежные аналоги без потери в надёжности и гибкости. Решение обладает простой архитектурой и минимальными требованиями к ресурсам, легко настраивается и масштабируется под любые задачи. Компания обеспечивает его поддержку на корпоративном уровне в режиме 24/7. Решение может использоваться для хранения томов виртуальных машин, данных контейнеров, а также для построения гиперконвергентных ландшафтов. СХД обладает поддержкой протоколов взаимодействия как собственной разработки, так и отраслевых, например, iSCSI. Подчёркивается, что решение «отлично работает в смешанных инфраструктурах и может применяться в качестве альтернативы или в дополнение к традиционным СХД». Минимальные требования MIND uStor к оборудованию включают наличие трёх узлов (оптимально от пяти узлов). Каждый узел должен иметь хотя бы 32 Гбайт RAM и два восьмиядерных процессора уровня Intel Xeon Skylake-SP с частотой от 2,8 ГГц. Также необходимо наличие двух портов 10/25/40/100GbE (лучше 25 Гбит/с и более) и накопителей NVMe/SATA/SAS SSD или SATA/SAS/NL-SAS HDD — оптимально 8–16 шт. в одном узле. В случае All-Flash конфигураций доступна поддержка RDMA (RoCEv2). Эффективная ёмкость SDS составляет до 80 % от «сырой», но в 2026 году появятся дедупликация и сжатие. Компания планирует запустить в июне программу сертифицированных конфигураций uStor, в рамках которых будет проводиться тестирование оборудования на совместимость и совместно с вендорами аппаратного обеспечения будут разработаны оптимальные конфигурации. На данный момент MIND Software находится на завершающей стадии интеграции с двумя лидирующими на российском рынке платформами виртуализации, официальный релиз совместных решений запланирован на лето 2025. Также на осень запланированы релизы решений по интеграции с платформами контейнеризации. Кроме того, прорабатывается создание ПАК на основе uStor.
20.05.2025 [17:27], Руслан Авдеев
Иначе не справиться: AWS заявила, что Великобритании необходимо больше АЭС для ИИ ЦОДПо словам генерального директора Amazon Web Services (AWS) Мэтта Гармана (Matt Garman), Великобритании нужно больше энергии для того, чтобы обеспечить потребности новых ИИ ЦОД. По его словам, миру придётся потрудиться, чтобы справиться с прогнозируемым растущим спросом на электричество для ИИ, сообщает The Register. Решением на перспективу в 10 лет он назвал атомную энергетику. Ранее AWS планировала инвестировать £8 млрд ($10,6 млрд) в создание инфраструктуры в Великобритании до конца 2028 года чтобы удовлетворить растущие потребности клиентов и партнёров. Впрочем, в Великобритании активно действует не только AWS. В 2024 году Google начала строить кампус ЦОД за $1 млрд недалеко от Лондона, а Microsoft начала возводить объект Park Royal ещё в 2023 году. В прошлом году сообщалось, что ещё один дата-центр компания намерена построить на месте бывшей электростанции в Лидсе (Leeds). Всего же Microsoft намеревалась вложить в инфраструктуру в стране £2,5 млрд ($3,15 млрд) в течение трёх лет. Oracle также вложит $5 млрд в развитие своего ИИ-облака в стране. Ранее в этом году DC01 UK получила разрешение на строительство «крупнейшего в Европе» ИИ ЦОД в Хартфордшире (Hertfordshire), а ещё одному объекту неподалеку недавно было выдано разрешение на планировку.
Источник изображения: Ajay Pal Singh Atwal/unsplash.com Деятельность активизируется благодаря правительственному проекту AI Opportunities Action Plan, упрощающему получение разрешений на строительство ИИ ЦОД. Однако Инфраструктура для ИИ с каждым поколением становится всё более энергоемкой, а расширение ЦОД для обслуживания растущего числа ИИ-сервисов привело к опасениям, что доступной энергии не хватит. Международное энергетическое агентство (IEA) предупредило, что к 2030 году мировое потребление электроэнергии увеличится более чем вдвое, а Национальная сетевая компания Великобритании (National Grid) подсчитала, что в стране оно вырастет на 500 % в следующие десять лет. Правительство даже сформировало совет AI Energy Council, чтобы обеспечить способность страны справиться с энергоснабжением ИИ ЦОД. Основное внимание уделяется модернизации энергосети и обеспечению своевременного обслуживания заявок на подключение, а не просто увеличению выработки электричества. По словам Гармана, атомная энергетика является «отличным решением» для удовлетворения потребностей ЦОД, поскольку обеспечивает стабильные поставки электричества с нулевым углеродным выбросом.
Источник изображения: Jametlene Reskp/unsplash.com При этом атомные проекты вряд ли можно быстро реализовать для удовлетворения спроса в краткосрочной перспективе. По словам экспертов, строительство АЭС занимает не менее пяти лет, а электростанции на природном газе — около двух. Например, строительство АЭС Hinkley Point C в Сомерсете (Somerset), началось в 2017 году, но, как ожидается, она заработает не раньше 2030 года. В Canalys подчёркивают, что, несмотря на важную роль атомной энергетике в мире, крупные инвестиции в соответствующую отрасль не решат проблемы длительного строительства АЭС, тогда как потребность в энергии есть уже сейчас. Некоторые гиперскейлеры вроде Google и AWS инвестируют в малые модульные реакторы (SMR), чтобы либо передавать энергию в общую сеть, либо питать свои дата-центры напрямую. При этом технология в коммерческом варианте вряд ли будет готова до 2030 года. Как предполагают в Omdia, широкое присутствие SMR на рынке будет достигнуто только к 2035 году, если брать в расчёт прагматичные оценки. Microsoft выбрала другой путь — перезапуск уже готовой, но остановленной АЭС Three Mile Island. В Министерстве энергетической безопасности и нулевых выбросов (Department for Energy Security and Net Zero, DESNZ) объявили, что план действий по чистой энергии будет способствовать развитию и росту новых энергоёмких отраслей, включая дата-центры. Ранее на уровне правительства заявлялось, что атомная энергетика поможет стать Великобритании «ИИ-сверхдержавой», но пока не вполне понятно, где брать дополнительное электричество. |
|
