Лента новостей
30.10.2024 [10:00], Сергей Карасёв
«Базис» и Angie создадут российский аналог VMware NSXПоставщик средств виртуализации «Базис» и российский разработчик программных продуктов для высоконагруженных систем Angie (ООО «Веб-сервер») объявили о заключении соглашения по созданию первого в РФ коробочного решения для организации программно-определяемых сетей (SDN). Ожидается, что новая платформа станет альтернативой VMware NSX. Ядром команды, формируемой в рамках новой инициативы, являются специалисты Angie. Проект Angie, напомним, был анонсирован в октябре 2022 года. Его развитием занимается компания «Веб-Сервер», которую учредили в России разработчики Nginx. При этом решение Angie является форком Nginx (принадлежит F5 Networks). Говорится, что отечественное SDN-решение разрабатывается эксклюзивно для «Базиса», все права на него будут принадлежать компании. В общей сложности в создании продукта примут участие около 100 архитекторов, инженеров и разработчиков, некоторые из которых ранее занимали ведущие инженерные позиции в F5 Networks. Бета-версия нового продукта появится к концу 2024 года, а выход полноценной коммерческой платформы намечен на 2025-й. Ожидается, что заказчиками SDN-решения станут крупные компании с обширной IT-инфраструктурой — финансовые организации, телекоммуникационные компании, маркетплейсы и пр. Направление SDN, как отмечается, активно развивается в России: совокупный среднегодовой темп роста составляет 14 %. Прогнозируется, что к 2027 году такие продукты займут треть рынка инфраструктурных сервисов в стране, а объём соответствующего сегмента достигнет примерно 30 млрд. руб. Вместе с тем разработка полноценной SDN-системы — сложный процесс, и для этого требуется команда профессиональных специалистов. Первоочередной задачей в рамках нового проекта станет качественная и стабильная реализация ключевых возможностей SDN с приоритетом на внедрение современных инструментов информационной безопасности. Продукт предоставит заказчикам возможность централизованно управлять корпоративной сетью на программном уровне. Для использования системы не потребуется значительная модернизация имеющегося оборудования. Планируется создание единой точки входа для получения полной технической поддержки. Кроме того, предусмотрены инструменты бесшовного внедрения, в том числе миграции бизнес-процессов с VMWare NSX. «Давно назрела необходимость полноценного отечественного SDN-решения на замену недоступным на российском рынке зарубежным продуктам, таким как VMWare NSX, Juniper Contrail, Cisco ACI, HPE SDE Controller и др. И дело не только в импортозамещении, направление программно-определяемых сетей само по себе является одним из наиболее перспективных в мире. Потому для достижения главной цели «Базиса» — получения статуса национального чемпиона — нам нужно уже сейчас вкладывать значительные ресурсы в разработку полноценного отечественного SDN. Для этого нужна команда профессионалов, обладающая экспертизой в предметной области, и здесь нам повезло объединить наши усилия со специалистами Angie, у которых есть опыт создания мировых лидирующих решений. У такой именитой команды было множество предложений поучаствовать в перспективных проектах, в том числе международных, однако они выбрали «Базис» и ту амбициозную задачу, которая перед нами стоит», — говорит генеральный директор «Базис» Давид Мартиросов. «Разработка полноценного SDN-решения — сложный процесс, выполнение которого под силу лишь профессиональной команде инженеров, сетевых архитекторов и разработчиков. В Angie мы собрали именно такую команду, одну из сильнейших в мире. Качество нашей работы можно увидеть на примере открытого кода нашего веб-сервера, кроме того, нас высоко оценивают другие компании, с которыми мы работали. Сотрудничество с «Базис» обеспечит Angie необходимые ресурсы и обогатит экспертизой в сфере виртуализации, мы уже выстроили обмен опытом на уровне архитектуры решений», — прокомментировал генеральный директор Angie Заур Абасмирзоев.
29.10.2024 [20:28], Сергей Карасёв
Раскрыты подробности архитектуры ИИ-кластера xAI Colossus со 100 тыс. ускорителей NVIDIA H100Портал ServeTheHome рассказал подробности об архитектуре вычислительного кластера xAI Colossus, предназначенного для обучения крупных ИИ-моделей. Эта система использует 100 тыс. NVIDIA H100, а в дальнейшем количество ускорителей планируется увеличить вдвое. Это самый крупный из известных ИИ-кластеров на текущий момент. Оборудование для него поставили компании Dell и Supermicro. Стартап xAI, курируемый Илоном Маском (Elon Musk), объявил о запуске суперкомпьютера Colossus в начале сентября нынешнего года. Утверждается, что на создание системы потребовалось всего 122 дня. Причём с момента установки первой стойки с серверами до начала обучения ИИ-моделей прошло только 19 суток. Впрочем, как отмечают эксперты, поскольку машина является «однозадачной», т.е. в отличие от традиционных суперкомпьютеров предназначенной только для работы с ИИ, ускорить строительство было не так уж сложно, хотя результат всё равно впечатляющий. Как сообщается, в составе Colossus применены серверы на платформе NVIDIA HGX H100, оборудованные системой жидкостного охлаждения. Каждый узел Supermicro серии TNHR2-LCC типоразмера 4U содержит восемь ускорителей NVIDIA H100 и два CPU. Узел разделён на две половинки, одна с CPU и PCIe-коммутаторами и одна с HGX-платой, которые могут извлекаться независимо для простоты обслуживания. CPU, коммутаторы и ускорители охлаждаются посредством СЖО. Вентиляторы в шасси тоже есть. Воздух от них попадает на теплообменники на задней двери, которые уносят остаточное тепло. Холодных и горячих коридоров в ЦОД нет, воздух имеет одинаковую температуру во всём зале. В нижней части стоек располагается ещё один 4U-блок Supermicro для CDU с резервированием и поддержкой горячей заменой насосов. Каждый сервер имеет четыре блока питания с резервированием и возможностью горячей замены, которые подключены к трёхфазным PDU. Одна стойка объединяет восемь узлов NVIDIA HGX H100, между которыми располагаются коллекторы СЖО в формате 1U. Таким образом, каждая стойка насчитывает 64 экземпляра H100. Стойки организованы в группы по восемь штук, которые образуют малые кластеры из 512 ускорителей H100. Они в свою очередь объединены в т.н. «острова» по 25 тыс. ускорителей, каждому из которых полагается собственный машинный зал. Общее количество стоек в составе Colossus превышает 1500. Помимо узлов с ускорителями также есть CPU-узлы и узлы хранения All-Flash (1U). Как отмечает NVIDIA, в кластере Colossus задействована сетевая платформа Spectrum-X Ethernet. Применены коммутаторы Spectrum-X SN5600 и сетевые карты на базе чипа BlueField-3. Компания говорит об использовании трёхуровневой Ethernet-сети с 400GbE-подключением, но точная топология не указана. Судя по всему, выделенной сети для работы с хранилищем не предусмотрено. Каждом ускорителю полагается один 400GbE-адаптер SuperNIC, который и объединяет их в RDMA-сеть. Кроме того, у каждого GPU-узла есть ещё один 400GbE DPU, а также подключение к сервисной сети. Сетевые карты находятся в собственных лотках, благодаря чему их можно заменять без демонтажа шасси. По словам NVIDIA, уровень утилизации сети достигает 95 %. В качестве энергетического буфера между электросетью и суперкомпьютером используются аккумуляторные банки Tesla Megapack ёмкостью 3,9 МВт·ч каждый. Они необходимы для того, чтобы компенсировать всплески потребляемой мощности, когда нагрузка на ускорители резко возрастает в силу выполняемых ИИ-задач. Впрочем, вероятно, есть и ещё одна причина для такого решения — на первом этапе Colossus был лишён подключения к основной энергосети и в вопросе питания во многом полагался на генераторы.
29.10.2024 [18:36], Владимир Мироненко
«Яндекс» увеличил в III квартале выручку более чем на треть, сократив убыткиМКПАО «Яндекс» объявило неаудированные финансовые результаты за III квартал 2024 года, завершившийся 30 сентября. Как и в предыдущем квартале выручка компании выросла год к году более чем на треть (36 %) до 276,8 млрд руб. При этом операционная прибыль выросла на 14 % до 25,4 млрд руб., а чистый убыток сократился на 62 % до 7,6 млрд руб. Скорректированная прибыль выросла более чем вдвое — на 118 % до 25,1 млрд руб. Также значительно увеличился скорректированный показатель EBITDA — на 66 % до 54,7 млрд руб. Компания сохранила свой прогноз по росту общей выручки в 2024 году в диапазоне от 38 до 40 % год к году, а по скорректированному показателю EBITDA — от 170 до 175 млрд руб. В сегменте «Прочих бизнес-юнитов и инициатив», включающем, в то числе, облачные сервисы Yandex Cloud и Яндекс 360, выручка компании увеличилась на 65 % до 29,0 млрд руб. Убыток по скорректированному показателю EBITDA при этом сократился на 4 % до 10,8 млрд руб., а рентабельность скорректированного показателя EBITDA составила –37,3 % (26,9 п.п. год к году).
29.10.2024 [15:46], Руслан Авдеев
Рост ставки ЦБ может замедлить строительство ЦОД в РоссииПовышение ключевой ставки Центробанком РФ может привести к неблагоприятным последствиям для рынка дата-центров в России. «Коммерсантъ» сообщает, что рост ставки до 21 % грозит замедлением строительства ЦОД, в том числе из-за удорожания строительного оборудования, а уже через полтора года вероятен дефицит вычислительных мощностей. Возможным выходом для операторов является IPO — некоторые уже начали готовиться к размещению акций на бирже. Как считают в компании ART Engineering, выпускающей решения для телеком-инфраструктуры, увеличение ключевой ставки Банком России стало причиной роста затрат на обслуживание займов для строительства дата-центров и обновление оборудования в ЦОД старше пяти лет. В iKS-Consulting поддерживают подобную точку зрения, подчёркивая, что ЦОД на 70–80 % строятся на заёмные средства и лишь на 20–30 % — на собственные деньги операторов. При этом капитальные затраты на 1 МВт IT-ёмкости составляют 1,2 млрд руб., поэтому долговая нагрузка при строительстве будет расти, из-за чего будет падать привлекательность инвестиций в этот сектор. Не исключён дефицит мощностей, сопоставимый с кризисом 2022 года. ![]() Источник изображения: Annie Spratt/unsplash.com В ноябре 2023 года, когда ставка поднялась с 13 % до 15 %, многие проекты строительства ЦОД отменили. По словам Президента Ассоциации участников отрасли ЦОД, срок окупаемости проектов велик, поэтому повышением стоимости услуг финансовые проблемы не решить. При этом отдельных льгот для строителей ЦОД не предусмотрено, хотя находящийся на согласовании нацпроект «Экономика данных» пока включает получение строителями субсидий для компенсации высокой ставки по кредитам. Важное значение имеет ключевая ставка для дистрибьюторов и локальных производителей вычислительной техники, поскольку они используют кредитные средства. По словам представителей отрасли, исчезает целесообразность получения средств от банков, из-за чего увеличиваются сроки оплаты и поставки компонентов конечной продукции. По словам главы АНО «Координационный центр по ЦОД и облачным технологиям», дефицит коммерческих ЦОД может начаться приблизительно через полтора года. По мнению некоторых экспертов, средства компании могут привлечь в результате выхода на IPO и продажи акций. Например, в мае «Ростелеком» сообщал о намерении вывести на фондовый рынок дочернюю структуру «РТК-ЦОД». Однако конъюнктура для размещения акций пока неблагоприятная, а в 2025 году при отсутствии драйверов роста не исключена череда слияний и поглощений, отмечают собеседники «Коммерсанта».
29.10.2024 [14:42], Владимир Мироненко
ГК «Солар» приобрела 10 % долю в Luntry, специализирующейся на контейнерной безопасности
kubernetes
software
инвестиции
информационная безопасность
контейнеризация
россия
ртк-солар
сделано в россии
сделка
финансы
Группа компаний «Солар» сообщила о завершении сделки по покупке 10 % доли разработчика решений контейнерной безопасности Luntry (ООО «Клаудран»). Сумма сделки не раскрывается. Как предположил один из опрошенных «Ведомостями» экспертов, стоимость Luntry исходя из публичной отчётности может составлять до 500 млн руб., а сумма сделки — порядка 50 млн руб. В ГК «Солар» отметили, что это была первая сделка в рамках недавно созданного фонда Solar Ventures, который нацелен на стимулирование роста отрасли ИБ. Согласно пресс-релизу, сделка позволит «Солару» «усилить компетенции по защите микросервисных архитектур и контейнеризации и сформировать дополнительный пакет сервисов и услуг для защиты таких инфраструктур». Luntry предлагает решение для комплексной защиты на всём жизненном цикле контейнерных приложений и средств оркестрации на базе Kubernetes. В числе клиентов компании, работающей на российском рынке с 2021 года, крупнейшие банки, страховые и ИТ-компании, ретейлеры федерального значения. Luntry обладает командой квалифицированных специалистов с более чем десятилетним опытом и широкой партнёрская сетью. Решение Luntry cлужит источником данных для SOC о Kubernetes и работающих контейнерах, помогает в расследовании инцидентов, обнаружении первопричин инцидентов и сбоев, обеспечивает высокий уровень защищённости в рамках быстрого цикла разработки, эффективное взаимодействие между командами для принятия решений и осведомленность о всех запретах и ограничениях ИБ. В Luntry отметили, что сделка с ГК «Солар» не изменит общей стратегии развития, но при этом позволит совместными усилиями обеспечивать защиту критичных государственных информационных систем, использующих контейнеризацию. В свою очередь, в ГК «Солар» сообщили, что данная сделка выполнена в рамках реализации инвестиционной стратегии, рассчитанной на период до конца 2025 года. Ранее ГК «Солар» приобрела доли в компаниях Digital Security, «Secure-T», «Элвис-Плюс» и «НТБ» и создала СП Солар-ТЗИ. По оценке ГК «Солар», российский рынок безопасности контейнеров составил в 2023 году 1,1 млрд руб., в том числе за счёт функциональности, реализованной на платформах управления контейнерами. К 2027 году его объём может достичь 2,0–2,5 млрд руб. и Luntry может занять до 20 % рынка.
29.10.2024 [14:36], Руслан Авдеев
Загадочная компания намерена построить в Италии ЦОД за €30 миллиардовМинистр промышленности Италии Адольфо Урсо (Adolfo Urso) объявил о желании неназванной компании реализовать в стране проект строительства ЦОД общей стоимостью €30 млрд ($33 млрд). По информации Reuters, проект предложен неназванной иностранной корпорацией. По словам министра, представитель компании заявил, что выбор пал на Итали потому, что её можно назвать идеальным местом для дата-центров. Страна — участница «большой семёрки», находится в средиземноморском бассейне, на перекрёстке мировых информационных маршрутов. Дополнительные подробности не раскрываются. Как предполагают эксперты, подобная инвестиция способна обеспечить строительство гигаваттных кампусов ЦОД — при этом Италия всегда считалась рынком вторичным рынком дата-центров. Для сравнения, в £10 млрд ($13,3 млрд) обойдётся 1,1-ГВт проект QTS (Blackstone) в Великобритании, отмечает DataCenter Dynamics. ![]() Источник изображения: Jack Ward/unsplash.com Немногие операторы ЦОД вообще имеют доступ к таким финансовым ресурсам. При этом каждый из облачных гиперскейлеров, включая Microsoft, Google, Oracle и AWS (Amazon) уже имеют дата-центры в стране. Так, облачный регион Microsoft расположен в Милане. Компания анонсировала регион Italian Azure в мае 2020 года, а запустила его в 2023 году. Недавно компания анонсировала намерение инвестировать в расширение местной облачной инфраструктуры ещё €4,3 млрд ($4,75 млрд). Это был последний из американских гиперскейлеров, запустивший своё облако в Италии. AWS запустила регион в Милане в 2020 году и намерена инвестировать ещё. Oracle свой первый облачный регион тоже запустила в Милане в конце 2021 года. Ранее в этом году компания анонсировала планы создания второго региона в Турине при сотрудничестве с телеком-оператором Telecom Italia (TIM). Первый облачный регион Google открылся всё в том же Милане в 2022 году, с тех пор второй регион Google Cloud Platform (GCP) запустили в Турине.
29.10.2024 [13:39], Руслан Авдеев
Группа Open Cloud Coalition будет продвигать открытость на облачном рынке — Microsoft уже назвала её «искусственным газоном, созданным Google»На днях была основана новая группа Open Cloud Coalition (OCC), намеренная продвигать «открытость и совместимость» на рынке облачных услуг. По данным Computer Weekly, она будет поддерживать антимонопольные ведомства, надзирающие за бизнес-практиками гиперскейлеров. Новый проект пришёлся по вкусу не всем облачным операторам. OCC основана 10 компаниями, призывающими к большей открытости, совместимости и честной конкуренции на облачном рынке. Участники также обязуются публиковать исследовательские данные и консультировать регуляторов в Европе, исследующих антиконкурентное поведение. Примечательно, что в число основателей входит Google Cloud, недавно подавшая жалобу в Еврокомиссию на неконкурентные практики облачного лицензирования Microsoft. Не так давно ассоциация облачных провайдеров CISPE уже жаловалась европейским властям на Microsoft, но в итоге последняя урегулировала проблему, заплатив небольшим компаниям более $20 млн. Google, по слухам, предлагала в разы больше, чтобы более мелкие игроки не отказывались от претензий, но компанию и AWS оставили один на один с Microsoft, а последняя заявляла, что конкуренты «мутят воду», только притворяясь слабыми. ![]() Источник изображения: jean wimmerlin/unsplash.com Теперь, по данным СМИ, Google фактически запускает собственную версию CISPE, включающую Centerprise International, Civo и Gigas, а также других мелких игроков, в том числе ControlPlane, DTP Group, Prolinx, Pulsant, Clairo и Room 101. Представители коалиции заявляют, что в будущем привлекут новых участников, а соответствующие переговоры уже ведутся. Новость о появлении коалиции обнародована на фоне вестей с мирового облачного рынка, где активно расследуется антиконкурентное поведение как Microsoft, так и Amazon (AWS). В частности, соответствующие расследования ведёт Управление по конкуренции и рынкам (CMA) Великобритании с подачи регулятора Ofcom, в сферу внимания которого попали Microsoft и AWS, не в последнюю очередь с подачи Google. Похожие расследования ведутся в Испании и Дании. В условиях, когда облачная инфраструктура становится незаменимой, многие компании попали в ловушки, связанные ограничительными соглашениями, фактически не дающими возможности реализовать «мультиоблачные» стратегии. Этот тренд и намерена изменить OCC, продвигая более конкурентные практики и открытые стандарты, а также принципы, позволяющие легко менять провайдеров. Впрочем, в Microsoft уже раскритиковали инициативу, назвав организацию «искусственным газоном, созданным Google». Хотя Google формально не является лидером коалиции, предполагается, что именно она является теневым «кукловодом». В Microsoft утверждают, что конкурент добивается двух целей — пытается отвлечь от антимонопольных расследований по всему миру, проводящихся против самой Google, и пытается изменить вектор внимания регуляторов в свою пользу вместо того, чтобы состязаться честно.
29.10.2024 [11:58], Сергей Карасёв
MSI выпустила одноплатный компьютер MS-CF16 формата Pico-ITX на базе Intel Amston LakeКомпания MSI расширила ассортимент одноплатных компьютеров, анонсировав модель MS-CF16 типоразмера Pico-ITX на аппаратной платформе Intel. Новинка предназначена для создания систем промышленной автоматизации, периферийных устройств, медицинского оборудования и пр. В зависимости от модификации изделие комплектуется процессором Alder Lake-N или Amston Lake. В частности, доступны варианты с чипом Intel Processor N97 (4C/4T; до 3,6 ГГц; 12 Вт), Atom x7425E (4C/4T; до 3,4 ГГц; 12 Вт) и Atom x7433RE (4С/4Т; до 3,4 ГГц; 9 Вт). Объём оперативной памяти LPDDR5-4800 может достигать 16 Гбайт. Одноплатный компьютер располагает одним портом SATA-3 для накопителя, разъёмом М.2 E-Key 2230 (PCIe x1 + USB 2.0) для адаптера Wi-Fi и коннектором М.2 B-Key 2242/3042 (PCIe x1/SATA 3.0 + USB 3.2 Gen 2 + USB 2.0). В оснащение входят сетевые контроллеры Realtek RTL8125BG-CG 2.5GbE и Realtek RTL8111K-CG 1GbE, звуковой кодек Realtek ALC897, IO-чип Fintek F81966AB-I и ТРМ-контроллер Infineon SLB 9672VU2.0. ![]() Источник изображения: MSI Возможен вывод изображения одновременно на два дисплея через интерфейсы LVDS/eDP (1920 × 1200 пикселей, 60 Гц) и HDMI (3840 × 2160 точек, 30 Гц). Есть два порта USB 3.2 Type-A и два гнезда RJ45 для сетевых кабелей. Через разъёмы на плате можно задействовать два порта USB 2.0 и последовательный порт RS-232/422/485. Новинка оснащена системой пассивного охлаждения с крупным радиатором на тыльной стороне. Диапазон рабочих температур простирается от -10 до +60 °C у версий с процессором Alder Lake-N и от -40 до +70 °C у модели с чипом Amston Lake. Питание (12 В) подаётся через DC-разъём. Габариты составляют 101 × 73 мм. Заявлена совместимость с Windows 10 IoT Enterprise LTSC 2021, Windows 11 IoT Enterprise LTSC 22H2 и Linux.
29.10.2024 [11:45], Сергей Карасёв
ASRock Rack представила плату TURIN2D48G-2L+, которая поддерживает 24 Тбайт DDR5Компания ASRock Rack анонсировала материнскую плату TURIN2D48G-2L+, предназначенную для построения серверов на платформе AMD. Новинка, выполненная в проприетарном форм-факторе, допускает установку двух процессоров семейства EPYC 9005 (Turin) или EPYC 9004 (Genoa) в исполнении Socket SP5 (LGA 6096) с показателем TDP до 500 Вт. Особенность платы заключается в наличии 48 слотов для модулей DDR5-5200 (24 слота в расчёте на CPU). При использовании изделий RDIMM-3DS ёмкостью 512 Гбайт суммарный объём ОЗУ в системе может достигать 24 Тбайт. Реализованы 12 коннекторов MCIO (PCIe 5.0 / CXL 2.0 x8), четыре разъёма MCIO (PCIe 5.0 / CXL 2.0 x8 или 8 × SATA-3), по два коннектора MCIO (PCIe 5.0 или 8 × SATA-3) и MCIO (PCIe 5.0 x8). Есть также разъём SlimSAS (PCIe 3.0 x2) и два коннектора M.2 для SSD типоразмеров 22110/2280 с интерфейсом PCIe 3.0 x4 или SATA-3. В общей сложности могут быть задействованы до 34 портов SATA-3 для подключения накопителей. В оснащение входят BMC-контроллер ASPEED AST2600, двухпортовый сетевой адаптер Intel i350 стандарта 1GbE и контроллер Realtek RTL8211F, на базе которого выполнен выделенный сетевой порт управления. Интерфейсный блок содержит три гнезда RJ45 для сетевых кабелей, два порта USB 3.2 Gen1 Type-A и аналоговый разъём D-Sub. Через разъёмы на плате можно использовать ещё два порта USB 3.2 Gen1, последовательный порт и пр. Есть шесть гнёзд для подключения вентиляторов охлаждения. Диапазон рабочих температур — от +10 до +35 °C.
28.10.2024 [23:24], Владимир Мироненко
Ускоритель для ускорителя: Fujitsu представила ПО, способное вдвое повысить скорость обработки ИИ-задачFujitsu объявила о доступности ПО (middleware), предназначенного для оптимизации использования ускорителей ИИ. Как указано в пресс-релизе, это решение позволяет повысить эффективность работы ускорителей, что особенно актуально в условиях дефицита вычислительных ресурсов такого типа. ПО различает код, для запуска которого требуется GPU, и тот, что может работать и с использованием одного только CPU, оптимизируя распределение ресурсов и управление памятью на различных платформах и в приложениях ИИ. Кроме того, ПО управляет приоритетностью запуска вычислений, отдавая предпочтение более эффективным процессам. Интересно, что распределение не использует традиционный подход, когда выбор ресурсов основывается на задаче целиком. Компания анонсировала решение (Adaptive GPU Allocator) в ноябре 2023 года. Тогда говорилось о необходимости использования фирменного фреймворка на базе TensorFlow и PyTorch. В нынешнем анонсе про это явно не говорится, но сообщается, что продукт объединяет технологию адаптивного распределения ресурсов каждого отдельного ускорителя с некой оптимизацией на базе ИИ. Более того, новинка позволяет эффективно обрабатывать даже те задачи, которые целиком в памяти ускорителя не помещаются. В ходе тестирования даже удалось наладить обработку 150 Гбайт ИИ-данных на GPU с приблизительно 30 Гбайт свободной RAM. Fujitsu заявила, что решение позволило увеличить в 2,25 раза эффективность ИИ-вычислений в ходе тестирования на реальных задачах компаний AWL, Xtreme-D и Morgenrot. А два крупных заказчика, Tradom и Sakura Internet, уже начали внедрять новый инструмент. «Решая проблемы нехватки ускорителей и энергии, вызванные растущим мировым спросом на ИИ, Fujitsu стремится внести свой вклад в повышение производительности бизнеса и креативности для своих клиентов», — заявила компания. Впрочем, пока решение способно ускорить только работу ускорителей в составе одного сервера, но компания работает над тем, чтобы она могла обслуживать множества GPU, установленных в нескольких серверах. Иными словам она не пока что позволит ускорить целый ИИ-кластер ускориться, но это всё равно удобный способ «выжать больше» из GPU-сервера, отметил ресурс The Register. |
|