Материалы по тегу: ии

13.09.2024 [10:07], Сергей Карасёв

Модульные коммутаторы N3COM CMS9700 предназначены для опорной корпоративной сети

Компания N3COM анонсировала семейство модульных коммутаторов CMS9700, которые предназначены для использования в корпоративных сетях на уровне опорного сегмента и агрегации. Устройства, как утверждается, обладают широкой функциональностью и отказоустойчивостью, а также отвечают строгим требованиям современных виртуализированных инфраструктур.

В серию вошли две модели — на три и на восемь слотов под модули расширения (до 16 × 100G на модуль). В частности, могут применяться модули PoE++ (48 × 1G и 4 × 10G SFP+) с бюджетом мощности PoE до 1500 Вт.

Коммутаторы CMS9700 призваны заменить решения зарубежных поставщиков, которые покинули российский рынок в связи со сформировавшейся геополитической обстановкой. Благодаря высокой плотности портов 1/10/25/40/100G и модульной конструкции устройства новой серии позволяют наращивать ёмкость сети и планировать развитие с учётом будущих потребностей, говорит компания. Это, как отмечается, даёт возможность сэкономить на капитальных затратах.

 Источник изображения: N3COM

Источник изображения: N3COM

Изделия CMS9700, по заявлениям N3COM, позволяют организовать надёжную инфраструктуру. Они имеют распределённую архитектуру и систему охлаждения F2B. Решения предназначены для использования в качестве коммутаторов ядра и агрегации в крупных корпоративных сетях с подключением Wi-Fi 6 или в дата-центрах. Новинки могут интегрироваться с коммутаторами доступа и агрегации серий ACS1700/2700, что позволяет построить полноценную многоуровневую сеть Ethernet под управлением системы мониторинга N3COM N3VIEW.

Постоянный URL: http://servernews.ru/1110907
13.09.2024 [00:17], Владимир Мироненко

Производительность суперкомпьютера «Сергей Годунов» выросла вдвое — до 114,67 Тфлопс

Группа компаний РСК сообщила о завершении плановой модернизации суперкомпьютера «Сергей Годунов» в Институте математики имени С.Л. Соболева Сибирского отделения Российской академии наук (ИМ СО РАН), благодаря чему его суммарная пиковая FP64-производительность теперь составляет 114,67 Тфлопс: 75,87 Тфлопс на CPU и 38,8 Тфлопс на GPU.

 Источник изображений: РСК

Источник изображений: РСК

Работы по запуску машины были завершены РСК в ноябре 2023 года, а её официальное открытие состоялось в феврале этого года. На тот момент производительность суперкомпьютера составляла 54,4 Тфлопс. Директор ИМ СО РАН Андрей Евгеньевич Миронов отметил, что использование нового суперкомпьютера позволило существенно повысить эффективность научных исследований, и выразил уверенность, что он также будет способствовать развитию новых технологий.

Миронов сообщил, что после запуска суперкомпьютера появилась возможность решать мультидисциплинарные задачи, моделировать объёмные процессы и предсказывать поведение сложных математических систем. По его словам, на суперкомпьютере проводятся вычисления по критически важным проблемам и задачам, среди которых:

  • построение барических аксиальных алгебр и алгебры Грайса;
  • оптимизация параметров математических моделей турбулентных течений с сопряжённым теплообменом на основе технологий глубокого обучения и природоподобных алгоритмов;
  • волновая медицинская томография;
  • моделирование эпидемиологических, экологических, экономических и социальных процессов;
  • моделирование и построение сценариев развития системы биосфера-экономика-социум с учётом безуглеродного и устойчивого развития и изменения климата;
  • решение обратных задач геофизики прямым методом на основе подхода Гельфанда-Левитана-Крейна.
 Источник изображений: РСК

Источник изображений: РСК

Суперкомпьютер «Сергей Годунов» является основным инструментом для проведения исследований и прикладных разработок в Академгородке Новосибирска и создания технологической платформы под эгидой Научного совета Отделения математических наук РАН по математическому моделированию распространения эпидемий с учётом социальных, экономических и экологических процессов.

Он был назван в память об известном советском и российском математике с мировым именем Сергее Константиновиче Годунове. Отечественный суперкомпьютер создан на базе высокоплотной и энергоэффективной платформы «РСК Торнадо» с жидкостным охлаждением. Система включает вычислительные узлы с двумя Intel Xeon Ice Lake-SP, узел на базе четырёх ускорителей NVIDIA A100 и сервер визуализации с большим объёмом памяти: Intel Xeon Platinum 8368, 4 Тбайт RAM, пара NVIDIA RTX 5000 Ada с 32 Гбайт GDDR6.

Постоянный URL: http://servernews.ru/1110903
12.09.2024 [21:46], Сергей Карасёв

SiMa.ai представила чипы Modalix для мультимодальных рабочих нагрузок ИИ на периферии

Стартап SiMa.ai анонсировал специализированные изделия Modalix — «системы на чипе» с функциями машинного обучения (MLSoC), спроектированные для обработки ИИ-задач на периферии. Эти решения предназначены для дронов, робототехники, умных камер видеонаблюдения, медицинского диагностического оборудования, edge-серверов и пр.

В семейство Modalix входя четыре модификации — М25, М50, М100 и М200 с ИИ-производительностью 25, 50, 100 и 200 TOPS соответственно (BF16, INT8/16). Изделия наделены процессором общего назначения с восемью ядрами Arm Cortex-A65, работающими на частоте 1,5 ГГц. Кроме того, присутствует процессор обработки сигналов изображения (ISP) на базе Arm Mali-C71 с частотой 1,2 ГГц. В оснащение входят 8 Мбайт набортной памяти. Изделия производятся по 6-нм технологии TSMC и имеют упаковку FCBGA с размерами 25 × 25 мм.

 Источник изображения: SiMa.ai

Источник изображения: SiMa.ai

Чипы Modalix располагают узлом компьютерного зрения Synopsys ARC EV-74 с частотой 1 ГГц. Говорится о возможности декодирования видеоматериалов H.264/265/AV1 в формате 4K со скоростью 60 к/с и кодировании H.264 в формате 4K со скоростью 30 к/с. Реализована поддержка восьми линий PCIe 5.0, четырёх портов 10GbE, четырёх интерфейсов MIPI CSI-2 (по четыре линии 2.5Gb), восьми каналов памяти LPDDR4/4X/5-6400 (до 102 Гбайт/с). Таким образом, по словам SiMa.ai, Modalix покрывает практически весь цикл работы с данными, не ограничиваясь только ускорением ИИ-задач.

 Источник изображения: SiMa.ai

Источник изображения: SiMa.ai

По заявлениям SiMa.ai, чипы Modalix можно применять для работы с большими языковыми моделями (LLM), генеративным ИИ, трансформерами, свёрточными нейронными сетями и мультимодальными приложениями. Среди возможных вариантов использования названы медицинская визуализация и роботизированная хирургия, интеллектуальные приложения для розничной торговли, автономные транспортные средства, беспилотники для инспекции зданий и пр. Есть поддержка популярных фреймворков PyTorch, ONNX, Keras, TensorFlow и т.д. Также предоставляется специализированный набор инструментов под названием Pallet, упрощающий создание ПО для новых процессоров.

Постоянный URL: http://servernews.ru/1110841
12.09.2024 [16:02], Руслан Авдеев

4,75 ГВт для ИИ: Scala Data Centers намерена построить в Бразилии мегакампус ЦОД AI City до, но начнёт с более скромного проекта на 54 МВт

Принадлежащая DigitalBridge компания Scala Data Centers планирует построить огромный кампус ИИ ЦОД Scala AI City в бразильском штате Риу-Гранди-ду-Сул (Rio Grande do Sul). Компания начнёт со скромных 54 МВТ и R$3 млрд ($500 млн) инвестеций, но со временем намерена масштабировать проект до 4,75 ГВт и $90 млрд. Scala уже приобрела около 700 га для AI City в муниципалитете Эльдорадо-ду-Сул (Eldorado do Sul) в 32 км от Порту-Алегри (Porto Alegre).

ЦОД изначально будет рассчитан на поддержку ИИ-нагрузок и предложит 150-кВт стойки с СЖО. Питание будет осуществляться исключительно из возобновляемых источников, PUE не превысит 1,2, а WUE и вовсе будет составлять 0, т.е. ЦОД не будет использовать питьевую воду. Отчасти достичь таких результатов поможет более прохладный климат юга страны. ЦОД будет введён в строй в течение двух лет и станет одним из крупнейших в Бразилии, где общая ёмкость ЦОД составляет 777 МВт.

 Источник изображения: Scala Data Centers

Источник изображения: Scala Data Centers

В комментарии Datacenter Dynamics представитель оператора отметил, что проекты в Латинской Америке во многом отстают в технологическом плане из-за нестабильного курса валют и правовой неопределённости, но теперь ситуация изменилась. Появилась базовая инфраструктура для передачи данных и электроэнергии и огромные возможности генерации «чистой» энергии, равных которым нет во всём мире. В компании напомнили, что в Северной Вирджинии — крупнейшем рынке ЦОД ёмкостью 4 ГВт — вынуждены до семи лет ждать присоединения к энергосети

Тем временем в бразильских сетях имеются 12 ГВт, готовые к использованию, 5 из которых зарезервировала Scala. Предполагается, что в Северной Америке сегодня дата-центрам не хватает 4–6 ГВт. Так что клиенты вполне могут обратиться к бразильским ресурсам, если их не смущает достаточно высокая задержке при передаче данных.

Для сравнения, общая ёмкость дата-центров Microsoft Azure по всему миру оценивается приблизительно в 5 ГВт, хотя компания стремитально наращивает парк ЦОД. Две компании, одна из которых, по слухам, и есть Microsoft, ведут переговоры о строительстве в Северной Дакоте кампусов на 5–10 ГВт. Также на этой неделе Oracle объявила, что построит в США 1-ГВт ЦОД с питанием от малых модульных реакторов (SMR).

UPD 29.09.2024: Scala Data Centers получила $500 млн долгового финансирования, по $250 млн от Coatue Tactical Solutions и Investment Management Corporation of Ontario (IMCO).

Постоянный URL: http://servernews.ru/1110864
11.09.2024 [18:55], Игорь Осколков

Oracle анонсировала зеттафлопсный облачный ИИ-суперкомпьютер из 131 тыс. NVIDIA B200

Oracle и NVIDIA анонсировали самый крупный на сегодняшний день облачный ИИ-кластер, состоящий из 131 072 ускорителей NVIDIA B200 (Blackwell). По словам компаний, это первая в мире система производительностью 2,4 Зфлопс (FP8). Кластер заработает в I половине 2025 года, но заказы на bare-metal инстансы и OCI Superclaster компания готова принять уже сейчас. Заказчики также смогут выбрать тип подключения: RoCEv2 (ConnectX-7/8) или InfiniBand (Quantum-2).

По словам компании, новый ИИ-кластер вшестеро крупнее тех, что могут предложить AWS, Microsoft Azure и Google Cloud. Кроме того, компания предлагает и другие кластеры с ускорителями NVIDIA: 32 768 × A100, 16 384 × H100, 65 536 × H200 и 3840 × L40S. А в следующем году обещаны кластеры на основе GB200 NVL72, объединяющие более 100 тыс. ускорителей GB200. В скором времени также появятся и куда более скромные ВМ GPU.A100.1 и GPU.H100.1 с одним ускорителем A100/H100 (80 Гбайт).

Прямо сейчас для заказы доступны инстансы GPU.H200.8, включающие восемь ускорителей H200 (141 Гбайт), 30,7-Тбайт локальное NVMe-хранилище и 200G-подключение. Семейство инстансов на базе NVIDIA Blackwell пока включает лишь два варианта. GPU.B200.8 предлагает восемь ускорителей B200 (192 Гбайт), 30,7-Тбайт локальное NVMe-хранилище и 400G-подключение. Наконец, GPU.GB200 фактически представляет собой суперускоритель GB200 NVL72 и включает 72 ускорителя B200, 36 Arm-процессоров Grace и локальное NVMe-хранилище ёмкостью 533 Тбайт. Агрегированная скорость сетевого подключения составляет 7,2 Тбит/с.

 Источник изображения: Oracle

Источник изображения: Oracle

Для всех новых инстансов Oracle подготовит управляемое Lustre-хранилище с производительностью до 8 Гбит/с на каждый Тбайт. Кроме того, компания предложит расширенные средства мониторинга и управления, помощь в настройке инфраструктуры для достижения желаемого уровня реальной производительности, а также набор оптимизированного ПО для работы с ИИ, в том числе для Arm.

Постоянный URL: http://servernews.ru/1110816
11.09.2024 [18:07], Сергей Карасёв

SambaNova запустила «самую быструю в мире» облачную платформу для ИИ-инференса

Компания SambaNova Systems объявила о запуске облачного сервиса SambaNova Cloud: утверждается, что на сегодняшний день это самая быстрая в мире платформа для ИИ-инференса. Она ориентирована на работу с большими языковыми моделями Llama 3.1 405B и Llama 3.1 70B, насчитывающими соответственно 405 и 70 млрд параметров.

В основу сервиса положены ИИ-чипы собственной разработки SN40L. Эти изделия состоят из двух крупных чиплетов, оперирующих 520 Мбайт SRAM-кеша, 1,5 Тбайт DDR5 DRAM, а также 64 Гбайт высокоскоростной памяти HBM3. Утверждается, что восьмипроцессорная система на базе SN40L способна запускать и обслуживать ИИ-модели с 5 трлн параметров и глубиной запроса более 256к.

 Источник изображения: SambaNova

Источник изображения: SambaNova

Платформа SambaNova Cloud, по заявлениям разработчиков, демонстрирует производительность до 132 токенов в секунду при работе с Llama 3.1 405B и до 461 токена в секунду при использовании Llama 3.1 70B. Для сравнения, по оценкам Artificial Analysis, даже самые мощные системы на базе GPU могут обслуживать модель Llama 3.1 405B только со скоростью 72 токена в секунду, а большинство из них намного медленнее. Подчёркивается, что SambaNova Cloud демонстрирует рекордную скорость при сохранении полной 16-битной точности. Однако без компромиссов всё же не обошлось: модель работает не в полном контекстном окне в 128k, а при 8k.

Доступ к SambaNova Cloud предоставляется по трём схемам — Free, Developer и Enterprise. Первая предусматривает бесплатное базовое использование через API. Схема для разработчиков Developer (появится к концу 2024 года) позволяет работать с моделями Llama 3.1 8B, 70B и 405B с более высокими лимитами. Наконец, план Enterprise предлагает корпоративным клиентам возможность масштабирования для поддержки ресурсоёмких рабочих нагрузок.

Ранее Cerebras Systems тоже объявила о запуске «самой мощной в мире» ИИ-платформы для инференса, а Groq ещё в прошлом году говорила о преимуществах своих решений и тоже переключилась на создание облачных сервисов. Впрочем, в бенчмарках MLPerf Inference по-прежнему бессменно лидируют решения NVIDIA.

Постоянный URL: http://servernews.ru/1110773
11.09.2024 [16:25], Владимир Мироненко

AWS инвестирует £8 млрд в расширение облачного бизнеса в Великобритании

Amazon Web Services (AWS) объявила о планах инвестировать £8 млрд ($10,45 млрд) в 2024–2028 гг. в расширение своего облачного бизнеса в Великобритании. Компания отметила, что эти инвестиции являются частью её долгосрочных обязательств по поддержке роста и производительности в стране и, по оценкам, добавят £14 млрд в ВВП Великобритании до 2028 года, а также обеспечат в среднем более 14 тыс. рабочих мест на местных предприятиях из цепочки поставок ЦОД AWS.

Amazon запустила свой первый облачный регион AWS в Великобритании в декабре 2016 года. За последние несколько лет компания добавила три зоны доступности (AZ), две зоны WaveLength Zone, две периферийных локации и Regional Edge Cache. За период с 2020 по 2023 год компания инвестировала в страну £3 млрд, обеспечив работой 6 тыс. жителей.

Аналогичные долгосрочные инвестиционные проекты AWS запустила в Германии, Мексике, США, Саудовской Аравии и Сингапуре. AWS, крупнейший в мире поставщик услуг облачных вычислений и хранения данных, стремится с помощью инвестиций укрепить свои позиции на фоне растущей конкуренции со стороны Microsoft, которая наращивает собственную глобальную инфраструктуру.

 Источник изображения: AWS

Источник изображения: AWS

В пресс-релизе AWS отмечено, что инвестиции позволят Великобритании в полной мере воспользоваться растущими преимуществами облачных вычислений и ИИ. Согласно анализу Telecom Advisory Services, общее экономическое влияние облачных вычислений в Великобритании превысило £42 млрд в 2023 году. Это эквивалентно 1,6 % ВВП. И это больше, чем сектор автомобилестроения Великобритании.

Как утверждает компания, облачные вычисления позволили стартапам, малому бизнесу и государственным органам получить доступ к тем же технологиям, которыми пользуются крупнейшие предприятия, и это помогло им быстрее внедрять инновации, сокращать расходы и конкурировать на мировой арене.

 Источник изображений: aboutamazon.co.uk

Источник изображений: aboutamazon.co.uk

Также AWS приводит результаты исследования независимой консалтинговой компании Public First, в рамках котороо она опросила более 2000 руководителей бизнеса и построила новую экономическую модель связей между цифровыми технологиями и производительностью бизнеса. Согласно опросу Public First, 84 % респондентов, являющихся клиентами AWS, заявили, что в результате инвестирования в облачную инфраструктуру они сэкономили средства, при этом в среднем экономия составила 28 % по сравнению с использованием локальной инфраструктуры.

Респонденты также заявили, что использование AWS сокращает время развертывания нового ПО более чем на четверть (27 %). Кроме того, 82% клиентов AWS считают, что облачные вычисления позволили им вывести свой бизнес на глобальный уровень, а 85 % — облегчило конкуренцию с более крупными компаниями.

 Источник изображения: AWS

Источник изображения: AWS

В свою очередь, ресурс The Register отметил, что инвестиции облачного гиганта вовсе не бескорыстны. В прошлом году AWS увеличила доходы в Великобритании на 30,1 % до £3,78 млрд, а также получила на 76 % больше прямых доходов в государственном секторе от правительства Великобритании в течение предыдущего финансового года. В декабре прошлого года стало известно, что AWS получила контракт на услуги облачного хостинга для Министерства внутренних дел Великобритании на сумму почти полмиллиарда фунтов стерлингов (£450 281 369).

Вместе с тем Amazon подверглась критике за недостаточную прозрачность в отношении налоговых выплат, поскольку доходы AWS UK были представлены как часть бюджета Amazon Web Services EMEA SARL. Газета Guardian сообщила в прошлом году, что материнская компания облачного гиганта Amazon второй год подряд не платила корпоративный налог после получения налоговых льгот на свои инвестиции в инфраструктуру. Также известно, что в Великобритании сейчас проводится антимонопольное расследование по поводу возможного применения AWS антимонопольных практик.

Марк Буст (Mark Boost), генеральный директор британского оператора облачных вычислений Civo, подверг критике инвестиции AWS, заявив: «Дорогая инфраструктура ЦОД и оборудование ИИ <…> не производятся и не продаются британскими компаниями». «Британские новаторы в области ЦОД заслуживают справедливого шанса сыграть свою роль в цифровом будущем страны, без чрезмерной зависимости от гиперскейлеров исключительно из-за масштаба, который они могут предложить», — добавил он.

Постоянный URL: http://servernews.ru/1110806
11.09.2024 [14:43], Руслан Авдеев

«Альфа-Банк» присоединился к проекту трансевразийской магистральной линии связи TEA NEXT

Проект ВОЛС TEA NEXT («Транзит Европа—Азия нового поколения») получил нового участника — «Альфа-Банк». При этом, как сообщает «Коммерсантъ», экспертам неизвестно, какие именно цели преследует данная структура — вероятно, речь идёт о финансовом интересе. В прошлом году проект покинул ВЭБ.РФ. При этом в условиях санкций востребованность TEA NEXT за рубежом подвергается сомнению.

«Альфа-Банк» приобрёл 49,99 % ООО «Атлас», которое отвечает за строительство TEA NEXT. Основанная в 2021 году компания создавалась «Ростелекомом» («Ветселком», 100% у «Ростелекома») и ВЭБ.РФ (VEB Ventures), но ВЭБ.РФ покинул проект после введённых против него западных санкций и теперь по 49,99 % находится в собственности дочернего предприятия «Ростелекома» и «Альфа-Банка», а 0,02 % — у гендиректора ООО «Атлас» Александра Ратушного.

Изначально планировалось вложить в строительство $650 млн, а после передачи прав собственности от ВЭБ.РФ «Альфа-Банку» финансовые условия, по данным источников, не изменились. Эксперты предполагают, что «Альфа-Банк» не намерен оказывать технологическое влияние и имеет исключительно финансовый интерес.

 Источник изображения: tea-next.ru

Источник изображения: tea-next.ru

«Ростелеком» готов предоставлять в аренду инфраструктуру TEA NEXT клиентам в России. В начале 2024 года был завершён первый этап строительства, вторая очередь тоже готова к коммерческой эксплуатации, а строительство третьей началось в декабре 2023 года. По имеющимся данным, реализация проекта будет продолжаться до 2026 года, а саму магистраль планируется дотянуть до Южной Кореи. Ранее сообщалось, что проект является одним из ключевых для производства оптоволокна в России — оно значительно сократилось в последнее время, а без TEA NEXT показатели были бы ещё хуже.

Сегодня транзит трафика через Россию составляет 6 Тбит/с (+15 % за год), говорят в «Транстелекоме». В компании считают востребованным транзит данных по маршруту Европа–Китай по российской территории. Но как сообщает «Коммерсантъ» со ссылкой на председателя «Российско-азиатского союза промышленников и предпринимателей» Виталия Манкевича, велика вероятность того, что TEA NEXT попадёт под санкции на одном из этапов, что негативно скажется на транзите зарубежного трафика.

Постоянный URL: http://servernews.ru/1110798
11.09.2024 [14:20], Руслан Авдеев

Google заключила соглашение с Holocene по захвату углекислого газа из воздуха по $100 за тонну

Компания Google выделит $10 млн стартапу Holocene на захват CO2 из атмосферы по технологии Direct Air Capture (DAC) с последующей утилизацией. Сделка является рекордно выгодной в индустрии. За захват каждой тонны углекислого газа Google заплатит всего $100. Министерство энергетики США считает, что именно такой уровень цен позволит стать технологии массовой. Правда, как уточняет Datacenter Dynamics, непосредственная реализация проекта должна стартовать в начале 2030-х годов.

Впрочем, столь низкая цена в любом случае была бы невозможной без вмешательства американских властей. Они предоставляют налоговую льготу 45Q, благодаря которой компании, утилизирующие углекислый газ, могут рассчитывать ещё на $180/т.

 Источник изображения:  Marcin Jozwiak/unsplash.com

Источник изображения: Marcin Jozwiak/unsplash.com

Google оплатит авансом, хотя в этом есть некоторый риск. Отсутствует гарантия, что Holocene вообще добьётся своих целей. Так, Running Tide, которой Microsoft заплатила за удаление из атмосферы 12 тыс. тонн CO2 в 2023 году, в 2024-м прекратила своё существование. В Google заявляют, что немедленная уплата средств позволит добиться амбициозных масштабных целей уже в среднесрочной перспективе.

 Источник изображения: Holocene

Источник изображения: Holocene

Holocene пропускает воздух сквозь специальный «водопад» с добавлением аминокислоты, которая связывает CO2. Полученный состав смешивается с гуанидином для формирования твёрдой кристаллической массы. Потом аминокислота высвобождается и отправляется в начало цикла, а твёрдое вещество слегка нагревается, высвобождая чистый углекислый газ, который можно хранить или использовать по своему усмотрению. Гуанидин также отправляется в начало цикла. В начале 2030-х годов Holocene рассчитывает захватить и хранить 100 тыс. тонн CO2.

Ранее в этом году Google обещала потратить $35 млн на проекты по захвату углекислоты. Кроме того, компания участвует в инициативе Frontier Climate, предусматривающей покупки «кредитов» на захват CO2. Стартап 280earth, выросший из проекта Google X, намерен разрабатывать собственные мощности по захвату углекислого газа в Орегоне, вероятно, с использованием тепла дата-центров самой Google.

Постоянный URL: http://servernews.ru/1110790
11.09.2024 [13:23], Владимир Мироненко

МТС Web Services направит более 1 млрд рублей на развитие ИИ-облака

МТС Web Services планирует направить более 1 млрд руб. до конца 2025 года в развитие облачных сервисов для бизнеса, которые обеспечат работу с ИИ-приложениями, пишет «Коммерсантъ». В МТС сообщили, что эти средства пойдут на закупку оборудования, ПО и расширение команды, отметив, что «запасы GPU были сформированы ещё до 2022 года». Ранее MWS сообщила, что увеличила GPU-мощности для обучения ИИ на 40 %.

О новом направлении — ИИ-облаке — компания объявила на форуме Kazan Digital Week. В его основе будет находиться инфраструктура с ускорителями и соответствующим ПО, а также ряд сервисов для работы с ИИ. По словам МТС Web Services, это позволит заказчикам снизить капитальные вложения и ускорить запуск проектов.

Гендиректор MWS Игорь Зарубинский заявил, что ИИ-облако позволит компаниям получить в одном окне вычислительные мощности и все необходимые инструменты для внедрения ИИ в бизнес. «Мы сделали ИИ-облако максимально персонализированным, чтобы каждая компания могла получить сервис в той конфигурации, которая нужна под ее задачи. Наша цель — сделать так, чтобы клиенты, используя облако MWS, добились цифрового превосходства над конкурентами», — отметил он.

 Источник изображений: MWS

Источник изображений: MWS

По словам участников российского рынка, сейчас наблюдается рост спроса инфраструктуру для разработки ИИ. В Cloud.ru рассказали «Коммерсанту», что в этом году ожидают рост спроса «примерно в два раза». В VK сообщили о росте выручки от их облачных сервисов в I полугодии на 62,2 % год к году. В «Ростелекоме» отметили рост спроса как в сегментах среднего и крупного бизнеса, так и госзаказчиков.

Постоянный URL: http://servernews.ru/1110796