Материалы по тегу: ии
|
13.09.2024 [10:07], Сергей Карасёв
Модульные коммутаторы N3COM CMS9700 предназначены для опорной корпоративной сетиКомпания N3COM анонсировала семейство модульных коммутаторов CMS9700, которые предназначены для использования в корпоративных сетях на уровне опорного сегмента и агрегации. Устройства, как утверждается, обладают широкой функциональностью и отказоустойчивостью, а также отвечают строгим требованиям современных виртуализированных инфраструктур. В серию вошли две модели — на три и на восемь слотов под модули расширения (до 16 × 100G на модуль). В частности, могут применяться модули PoE++ (48 × 1G и 4 × 10G SFP+) с бюджетом мощности PoE до 1500 Вт. Коммутаторы CMS9700 призваны заменить решения зарубежных поставщиков, которые покинули российский рынок в связи со сформировавшейся геополитической обстановкой. Благодаря высокой плотности портов 1/10/25/40/100G и модульной конструкции устройства новой серии позволяют наращивать ёмкость сети и планировать развитие с учётом будущих потребностей, говорит компания. Это, как отмечается, даёт возможность сэкономить на капитальных затратах.
Источник изображения: N3COM Изделия CMS9700, по заявлениям N3COM, позволяют организовать надёжную инфраструктуру. Они имеют распределённую архитектуру и систему охлаждения F2B. Решения предназначены для использования в качестве коммутаторов ядра и агрегации в крупных корпоративных сетях с подключением Wi-Fi 6 или в дата-центрах. Новинки могут интегрироваться с коммутаторами доступа и агрегации серий ACS1700/2700, что позволяет построить полноценную многоуровневую сеть Ethernet под управлением системы мониторинга N3COM N3VIEW.
13.09.2024 [00:17], Владимир Мироненко
Производительность суперкомпьютера «Сергей Годунов» выросла вдвое — до 114,67 Тфлопс
a100
hardware
hpc
ice lake-sp
intel
nvidia
rtx
xeon
новосибирск
россия
рск
сделано в россии
суперкомпьютер
Группа компаний РСК сообщила о завершении плановой модернизации суперкомпьютера «Сергей Годунов» в Институте математики имени С.Л. Соболева Сибирского отделения Российской академии наук (ИМ СО РАН), благодаря чему его суммарная пиковая FP64-производительность теперь составляет 114,67 Тфлопс: 75,87 Тфлопс на CPU и 38,8 Тфлопс на GPU. Работы по запуску машины были завершены РСК в ноябре 2023 года, а её официальное открытие состоялось в феврале этого года. На тот момент производительность суперкомпьютера составляла 54,4 Тфлопс. Директор ИМ СО РАН Андрей Евгеньевич Миронов отметил, что использование нового суперкомпьютера позволило существенно повысить эффективность научных исследований, и выразил уверенность, что он также будет способствовать развитию новых технологий. Миронов сообщил, что после запуска суперкомпьютера появилась возможность решать мультидисциплинарные задачи, моделировать объёмные процессы и предсказывать поведение сложных математических систем. По его словам, на суперкомпьютере проводятся вычисления по критически важным проблемам и задачам, среди которых:
Суперкомпьютер «Сергей Годунов» является основным инструментом для проведения исследований и прикладных разработок в Академгородке Новосибирска и создания технологической платформы под эгидой Научного совета Отделения математических наук РАН по математическому моделированию распространения эпидемий с учётом социальных, экономических и экологических процессов. Он был назван в память об известном советском и российском математике с мировым именем Сергее Константиновиче Годунове. Отечественный суперкомпьютер создан на базе высокоплотной и энергоэффективной платформы «РСК Торнадо» с жидкостным охлаждением. Система включает вычислительные узлы с двумя Intel Xeon Ice Lake-SP, узел на базе четырёх ускорителей NVIDIA A100 и сервер визуализации с большим объёмом памяти: Intel Xeon Platinum 8368, 4 Тбайт RAM, пара NVIDIA RTX 5000 Ada с 32 Гбайт GDDR6.
12.09.2024 [21:46], Сергей Карасёв
SiMa.ai представила чипы Modalix для мультимодальных рабочих нагрузок ИИ на периферииСтартап SiMa.ai анонсировал специализированные изделия Modalix — «системы на чипе» с функциями машинного обучения (MLSoC), спроектированные для обработки ИИ-задач на периферии. Эти решения предназначены для дронов, робототехники, умных камер видеонаблюдения, медицинского диагностического оборудования, edge-серверов и пр. В семейство Modalix входя четыре модификации — М25, М50, М100 и М200 с ИИ-производительностью 25, 50, 100 и 200 TOPS соответственно (BF16, INT8/16). Изделия наделены процессором общего назначения с восемью ядрами Arm Cortex-A65, работающими на частоте 1,5 ГГц. Кроме того, присутствует процессор обработки сигналов изображения (ISP) на базе Arm Mali-C71 с частотой 1,2 ГГц. В оснащение входят 8 Мбайт набортной памяти. Изделия производятся по 6-нм технологии TSMC и имеют упаковку FCBGA с размерами 25 × 25 мм.
Источник изображения: SiMa.ai Чипы Modalix располагают узлом компьютерного зрения Synopsys ARC EV-74 с частотой 1 ГГц. Говорится о возможности декодирования видеоматериалов H.264/265/AV1 в формате 4K со скоростью 60 к/с и кодировании H.264 в формате 4K со скоростью 30 к/с. Реализована поддержка восьми линий PCIe 5.0, четырёх портов 10GbE, четырёх интерфейсов MIPI CSI-2 (по четыре линии 2.5Gb), восьми каналов памяти LPDDR4/4X/5-6400 (до 102 Гбайт/с). Таким образом, по словам SiMa.ai, Modalix покрывает практически весь цикл работы с данными, не ограничиваясь только ускорением ИИ-задач. По заявлениям SiMa.ai, чипы Modalix можно применять для работы с большими языковыми моделями (LLM), генеративным ИИ, трансформерами, свёрточными нейронными сетями и мультимодальными приложениями. Среди возможных вариантов использования названы медицинская визуализация и роботизированная хирургия, интеллектуальные приложения для розничной торговли, автономные транспортные средства, беспилотники для инспекции зданий и пр. Есть поддержка популярных фреймворков PyTorch, ONNX, Keras, TensorFlow и т.д. Также предоставляется специализированный набор инструментов под названием Pallet, упрощающий создание ПО для новых процессоров.
12.09.2024 [16:02], Руслан Авдеев
4,75 ГВт для ИИ: Scala Data Centers намерена построить в Бразилии мегакампус ЦОД AI City до, но начнёт с более скромного проекта на 54 МВтПринадлежащая DigitalBridge компания Scala Data Centers планирует построить огромный кампус ИИ ЦОД Scala AI City в бразильском штате Риу-Гранди-ду-Сул (Rio Grande do Sul). Компания начнёт со скромных 54 МВТ и R$3 млрд ($500 млн) инвестеций, но со временем намерена масштабировать проект до 4,75 ГВт и $90 млрд. Scala уже приобрела около 700 га для AI City в муниципалитете Эльдорадо-ду-Сул (Eldorado do Sul) в 32 км от Порту-Алегри (Porto Alegre). ЦОД изначально будет рассчитан на поддержку ИИ-нагрузок и предложит 150-кВт стойки с СЖО. Питание будет осуществляться исключительно из возобновляемых источников, PUE не превысит 1,2, а WUE и вовсе будет составлять 0, т.е. ЦОД не будет использовать питьевую воду. Отчасти достичь таких результатов поможет более прохладный климат юга страны. ЦОД будет введён в строй в течение двух лет и станет одним из крупнейших в Бразилии, где общая ёмкость ЦОД составляет 777 МВт. В комментарии Datacenter Dynamics представитель оператора отметил, что проекты в Латинской Америке во многом отстают в технологическом плане из-за нестабильного курса валют и правовой неопределённости, но теперь ситуация изменилась. Появилась базовая инфраструктура для передачи данных и электроэнергии и огромные возможности генерации «чистой» энергии, равных которым нет во всём мире. В компании напомнили, что в Северной Вирджинии — крупнейшем рынке ЦОД ёмкостью 4 ГВт — вынуждены до семи лет ждать присоединения к энергосети Тем временем в бразильских сетях имеются 12 ГВт, готовые к использованию, 5 из которых зарезервировала Scala. Предполагается, что в Северной Америке сегодня дата-центрам не хватает 4–6 ГВт. Так что клиенты вполне могут обратиться к бразильским ресурсам, если их не смущает достаточно высокая задержке при передаче данных. Для сравнения, общая ёмкость дата-центров Microsoft Azure по всему миру оценивается приблизительно в 5 ГВт, хотя компания стремитально наращивает парк ЦОД. Две компании, одна из которых, по слухам, и есть Microsoft, ведут переговоры о строительстве в Северной Дакоте кампусов на 5–10 ГВт. Также на этой неделе Oracle объявила, что построит в США 1-ГВт ЦОД с питанием от малых модульных реакторов (SMR). UPD 29.09.2024: Scala Data Centers получила $500 млн долгового финансирования, по $250 млн от Coatue Tactical Solutions и Investment Management Corporation of Ontario (IMCO).
11.09.2024 [18:55], Игорь Осколков
Oracle анонсировала зеттафлопсный облачный ИИ-суперкомпьютер из 131 тыс. NVIDIA B200Oracle и NVIDIA анонсировали самый крупный на сегодняшний день облачный ИИ-кластер, состоящий из 131 072 ускорителей NVIDIA B200 (Blackwell). По словам компаний, это первая в мире система производительностью 2,4 Зфлопс (FP8). Кластер заработает в I половине 2025 года, но заказы на bare-metal инстансы и OCI Superclaster компания готова принять уже сейчас. Заказчики также смогут выбрать тип подключения: RoCEv2 (ConnectX-7/8) или InfiniBand (Quantum-2). По словам компании, новый ИИ-кластер вшестеро крупнее тех, что могут предложить AWS, Microsoft Azure и Google Cloud. Кроме того, компания предлагает и другие кластеры с ускорителями NVIDIA: 32 768 × A100, 16 384 × H100, 65 536 × H200 и 3840 × L40S. А в следующем году обещаны кластеры на основе GB200 NVL72, объединяющие более 100 тыс. ускорителей GB200. В скором времени также появятся и куда более скромные ВМ GPU.A100.1 и GPU.H100.1 с одним ускорителем A100/H100 (80 Гбайт). Прямо сейчас для заказы доступны инстансы GPU.H200.8, включающие восемь ускорителей H200 (141 Гбайт), 30,7-Тбайт локальное NVMe-хранилище и 200G-подключение. Семейство инстансов на базе NVIDIA Blackwell пока включает лишь два варианта. GPU.B200.8 предлагает восемь ускорителей B200 (192 Гбайт), 30,7-Тбайт локальное NVMe-хранилище и 400G-подключение. Наконец, GPU.GB200 фактически представляет собой суперускоритель GB200 NVL72 и включает 72 ускорителя B200, 36 Arm-процессоров Grace и локальное NVMe-хранилище ёмкостью 533 Тбайт. Агрегированная скорость сетевого подключения составляет 7,2 Тбит/с. Для всех новых инстансов Oracle подготовит управляемое Lustre-хранилище с производительностью до 8 Гбит/с на каждый Тбайт. Кроме того, компания предложит расширенные средства мониторинга и управления, помощь в настройке инфраструктуры для достижения желаемого уровня реальной производительности, а также набор оптимизированного ПО для работы с ИИ, в том числе для Arm.
11.09.2024 [18:07], Сергей Карасёв
SambaNova запустила «самую быструю в мире» облачную платформу для ИИ-инференсаКомпания SambaNova Systems объявила о запуске облачного сервиса SambaNova Cloud: утверждается, что на сегодняшний день это самая быстрая в мире платформа для ИИ-инференса. Она ориентирована на работу с большими языковыми моделями Llama 3.1 405B и Llama 3.1 70B, насчитывающими соответственно 405 и 70 млрд параметров. В основу сервиса положены ИИ-чипы собственной разработки SN40L. Эти изделия состоят из двух крупных чиплетов, оперирующих 520 Мбайт SRAM-кеша, 1,5 Тбайт DDR5 DRAM, а также 64 Гбайт высокоскоростной памяти HBM3. Утверждается, что восьмипроцессорная система на базе SN40L способна запускать и обслуживать ИИ-модели с 5 трлн параметров и глубиной запроса более 256к. Платформа SambaNova Cloud, по заявлениям разработчиков, демонстрирует производительность до 132 токенов в секунду при работе с Llama 3.1 405B и до 461 токена в секунду при использовании Llama 3.1 70B. Для сравнения, по оценкам Artificial Analysis, даже самые мощные системы на базе GPU могут обслуживать модель Llama 3.1 405B только со скоростью 72 токена в секунду, а большинство из них намного медленнее. Подчёркивается, что SambaNova Cloud демонстрирует рекордную скорость при сохранении полной 16-битной точности. Однако без компромиссов всё же не обошлось: модель работает не в полном контекстном окне в 128k, а при 8k. Доступ к SambaNova Cloud предоставляется по трём схемам — Free, Developer и Enterprise. Первая предусматривает бесплатное базовое использование через API. Схема для разработчиков Developer (появится к концу 2024 года) позволяет работать с моделями Llama 3.1 8B, 70B и 405B с более высокими лимитами. Наконец, план Enterprise предлагает корпоративным клиентам возможность масштабирования для поддержки ресурсоёмких рабочих нагрузок. Ранее Cerebras Systems тоже объявила о запуске «самой мощной в мире» ИИ-платформы для инференса, а Groq ещё в прошлом году говорила о преимуществах своих решений и тоже переключилась на создание облачных сервисов. Впрочем, в бенчмарках MLPerf Inference по-прежнему бессменно лидируют решения NVIDIA.
11.09.2024 [16:25], Владимир Мироненко
AWS инвестирует £8 млрд в расширение облачного бизнеса в ВеликобританииAmazon Web Services (AWS) объявила о планах инвестировать £8 млрд ($10,45 млрд) в 2024–2028 гг. в расширение своего облачного бизнеса в Великобритании. Компания отметила, что эти инвестиции являются частью её долгосрочных обязательств по поддержке роста и производительности в стране и, по оценкам, добавят £14 млрд в ВВП Великобритании до 2028 года, а также обеспечат в среднем более 14 тыс. рабочих мест на местных предприятиях из цепочки поставок ЦОД AWS. Amazon запустила свой первый облачный регион AWS в Великобритании в декабре 2016 года. За последние несколько лет компания добавила три зоны доступности (AZ), две зоны WaveLength Zone, две периферийных локации и Regional Edge Cache. За период с 2020 по 2023 год компания инвестировала в страну £3 млрд, обеспечив работой 6 тыс. жителей. Аналогичные долгосрочные инвестиционные проекты AWS запустила в Германии, Мексике, США, Саудовской Аравии и Сингапуре. AWS, крупнейший в мире поставщик услуг облачных вычислений и хранения данных, стремится с помощью инвестиций укрепить свои позиции на фоне растущей конкуренции со стороны Microsoft, которая наращивает собственную глобальную инфраструктуру. В пресс-релизе AWS отмечено, что инвестиции позволят Великобритании в полной мере воспользоваться растущими преимуществами облачных вычислений и ИИ. Согласно анализу Telecom Advisory Services, общее экономическое влияние облачных вычислений в Великобритании превысило £42 млрд в 2023 году. Это эквивалентно 1,6 % ВВП. И это больше, чем сектор автомобилестроения Великобритании. Как утверждает компания, облачные вычисления позволили стартапам, малому бизнесу и государственным органам получить доступ к тем же технологиям, которыми пользуются крупнейшие предприятия, и это помогло им быстрее внедрять инновации, сокращать расходы и конкурировать на мировой арене. Также AWS приводит результаты исследования независимой консалтинговой компании Public First, в рамках котороо она опросила более 2000 руководителей бизнеса и построила новую экономическую модель связей между цифровыми технологиями и производительностью бизнеса. Согласно опросу Public First, 84 % респондентов, являющихся клиентами AWS, заявили, что в результате инвестирования в облачную инфраструктуру они сэкономили средства, при этом в среднем экономия составила 28 % по сравнению с использованием локальной инфраструктуры. Респонденты также заявили, что использование AWS сокращает время развертывания нового ПО более чем на четверть (27 %). Кроме того, 82% клиентов AWS считают, что облачные вычисления позволили им вывести свой бизнес на глобальный уровень, а 85 % — облегчило конкуренцию с более крупными компаниями. В свою очередь, ресурс The Register отметил, что инвестиции облачного гиганта вовсе не бескорыстны. В прошлом году AWS увеличила доходы в Великобритании на 30,1 % до £3,78 млрд, а также получила на 76 % больше прямых доходов в государственном секторе от правительства Великобритании в течение предыдущего финансового года. В декабре прошлого года стало известно, что AWS получила контракт на услуги облачного хостинга для Министерства внутренних дел Великобритании на сумму почти полмиллиарда фунтов стерлингов (£450 281 369). Вместе с тем Amazon подверглась критике за недостаточную прозрачность в отношении налоговых выплат, поскольку доходы AWS UK были представлены как часть бюджета Amazon Web Services EMEA SARL. Газета Guardian сообщила в прошлом году, что материнская компания облачного гиганта Amazon второй год подряд не платила корпоративный налог после получения налоговых льгот на свои инвестиции в инфраструктуру. Также известно, что в Великобритании сейчас проводится антимонопольное расследование по поводу возможного применения AWS антимонопольных практик. Марк Буст (Mark Boost), генеральный директор британского оператора облачных вычислений Civo, подверг критике инвестиции AWS, заявив: «Дорогая инфраструктура ЦОД и оборудование ИИ <…> не производятся и не продаются британскими компаниями». «Британские новаторы в области ЦОД заслуживают справедливого шанса сыграть свою роль в цифровом будущем страны, без чрезмерной зависимости от гиперскейлеров исключительно из-за масштаба, который они могут предложить», — добавил он.
11.09.2024 [14:43], Руслан Авдеев
«Альфа-Банк» присоединился к проекту трансевразийской магистральной линии связи TEA NEXTПроект ВОЛС TEA NEXT («Транзит Европа—Азия нового поколения») получил нового участника — «Альфа-Банк». При этом, как сообщает «Коммерсантъ», экспертам неизвестно, какие именно цели преследует данная структура — вероятно, речь идёт о финансовом интересе. В прошлом году проект покинул ВЭБ.РФ. При этом в условиях санкций востребованность TEA NEXT за рубежом подвергается сомнению. «Альфа-Банк» приобрёл 49,99 % ООО «Атлас», которое отвечает за строительство TEA NEXT. Основанная в 2021 году компания создавалась «Ростелекомом» («Ветселком», 100% у «Ростелекома») и ВЭБ.РФ (VEB Ventures), но ВЭБ.РФ покинул проект после введённых против него западных санкций и теперь по 49,99 % находится в собственности дочернего предприятия «Ростелекома» и «Альфа-Банка», а 0,02 % — у гендиректора ООО «Атлас» Александра Ратушного. Изначально планировалось вложить в строительство $650 млн, а после передачи прав собственности от ВЭБ.РФ «Альфа-Банку» финансовые условия, по данным источников, не изменились. Эксперты предполагают, что «Альфа-Банк» не намерен оказывать технологическое влияние и имеет исключительно финансовый интерес. «Ростелеком» готов предоставлять в аренду инфраструктуру TEA NEXT клиентам в России. В начале 2024 года был завершён первый этап строительства, вторая очередь тоже готова к коммерческой эксплуатации, а строительство третьей началось в декабре 2023 года. По имеющимся данным, реализация проекта будет продолжаться до 2026 года, а саму магистраль планируется дотянуть до Южной Кореи. Ранее сообщалось, что проект является одним из ключевых для производства оптоволокна в России — оно значительно сократилось в последнее время, а без TEA NEXT показатели были бы ещё хуже. Сегодня транзит трафика через Россию составляет 6 Тбит/с (+15 % за год), говорят в «Транстелекоме». В компании считают востребованным транзит данных по маршруту Европа–Китай по российской территории. Но как сообщает «Коммерсантъ» со ссылкой на председателя «Российско-азиатского союза промышленников и предпринимателей» Виталия Манкевича, велика вероятность того, что TEA NEXT попадёт под санкции на одном из этапов, что негативно скажется на транзите зарубежного трафика.
11.09.2024 [14:20], Руслан Авдеев
Google заключила соглашение с Holocene по захвату углекислого газа из воздуха по $100 за тоннуКомпания Google выделит $10 млн стартапу Holocene на захват CO2 из атмосферы по технологии Direct Air Capture (DAC) с последующей утилизацией. Сделка является рекордно выгодной в индустрии. За захват каждой тонны углекислого газа Google заплатит всего $100. Министерство энергетики США считает, что именно такой уровень цен позволит стать технологии массовой. Правда, как уточняет Datacenter Dynamics, непосредственная реализация проекта должна стартовать в начале 2030-х годов. Впрочем, столь низкая цена в любом случае была бы невозможной без вмешательства американских властей. Они предоставляют налоговую льготу 45Q, благодаря которой компании, утилизирующие углекислый газ, могут рассчитывать ещё на $180/т.
Источник изображения: Marcin Jozwiak/unsplash.com Google оплатит авансом, хотя в этом есть некоторый риск. Отсутствует гарантия, что Holocene вообще добьётся своих целей. Так, Running Tide, которой Microsoft заплатила за удаление из атмосферы 12 тыс. тонн CO2 в 2023 году, в 2024-м прекратила своё существование. В Google заявляют, что немедленная уплата средств позволит добиться амбициозных масштабных целей уже в среднесрочной перспективе. Holocene пропускает воздух сквозь специальный «водопад» с добавлением аминокислоты, которая связывает CO2. Полученный состав смешивается с гуанидином для формирования твёрдой кристаллической массы. Потом аминокислота высвобождается и отправляется в начало цикла, а твёрдое вещество слегка нагревается, высвобождая чистый углекислый газ, который можно хранить или использовать по своему усмотрению. Гуанидин также отправляется в начало цикла. В начале 2030-х годов Holocene рассчитывает захватить и хранить 100 тыс. тонн CO2. Ранее в этом году Google обещала потратить $35 млн на проекты по захвату углекислоты. Кроме того, компания участвует в инициативе Frontier Climate, предусматривающей покупки «кредитов» на захват CO2. Стартап 280earth, выросший из проекта Google X, намерен разрабатывать собственные мощности по захвату углекислого газа в Орегоне, вероятно, с использованием тепла дата-центров самой Google.
11.09.2024 [13:23], Владимир Мироненко
МТС Web Services направит более 1 млрд рублей на развитие ИИ-облакаМТС Web Services планирует направить более 1 млрд руб. до конца 2025 года в развитие облачных сервисов для бизнеса, которые обеспечат работу с ИИ-приложениями, пишет «Коммерсантъ». В МТС сообщили, что эти средства пойдут на закупку оборудования, ПО и расширение команды, отметив, что «запасы GPU были сформированы ещё до 2022 года». Ранее MWS сообщила, что увеличила GPU-мощности для обучения ИИ на 40 %. О новом направлении — ИИ-облаке — компания объявила на форуме Kazan Digital Week. В его основе будет находиться инфраструктура с ускорителями и соответствующим ПО, а также ряд сервисов для работы с ИИ. По словам МТС Web Services, это позволит заказчикам снизить капитальные вложения и ускорить запуск проектов. Гендиректор MWS Игорь Зарубинский заявил, что ИИ-облако позволит компаниям получить в одном окне вычислительные мощности и все необходимые инструменты для внедрения ИИ в бизнес. «Мы сделали ИИ-облако максимально персонализированным, чтобы каждая компания могла получить сервис в той конфигурации, которая нужна под ее задачи. Наша цель — сделать так, чтобы клиенты, используя облако MWS, добились цифрового превосходства над конкурентами», — отметил он. По словам участников российского рынка, сейчас наблюдается рост спроса инфраструктуру для разработки ИИ. В Cloud.ru рассказали «Коммерсанту», что в этом году ожидают рост спроса «примерно в два раза». В VK сообщили о росте выручки от их облачных сервисов в I полугодии на 62,2 % год к году. В «Ростелекоме» отметили рост спроса как в сегментах среднего и крупного бизнеса, так и госзаказчиков. |
|
