Материалы по тегу: ии

13.09.2024 [16:34], Владимир Мироненко

До конца года «Сбер» полностью откажется от зарубежных СУБД в значимых объектах критической инфраструктуры

«Сбер» объявил, что к концу 2024 года полностью завершит в рамках импортозамещения перевод своих автоматизированных систем в значимых объектах критической информационной инфраструктуры (КИИ) с иностранных СУБД на собственное решение Platform V Pangolin — реляционную СУБД корпоративного класса на базе PostgreSQL. С 2020 года Platform V Pangolin является целевой СУБД в «Сбере».

Реляционная СУБД Platform V Pangolin входит в состав цифровой облачной платформы «СберТеха» Platform V «СберТеха». Platform V Pangolin основана на доработанной СУБД с открытым кодом PostgreSQL. Доработки повышают безопасность хранимых данных, доступность, надёжность и производительность системы. Также улучшено масштабирование.

 Источник изображения: «Сбер»

Источник изображения: «Сбер»

По словам старшего вице-президента и руководителя блока «Технологии» Сбербанка, продукты собственной платформы нисколько не уступают по функциональности решениям западных вендоров, и более того, по ряду параметров превосходят их, и уже успешно заместили в «Сбере» многие из них. В частности, СУБД Platform V Pangolin полностью соответствует повышенным требованиям «Сбера» к производительности и безопасности: «Решение гарантирует надёжное хранение и быструю обработку больших объёмов данных в высоконагруженных системах компании».

Platform V Pangolin входит в реестр российского ПО и полностью подходит для задач импортозамещения. Решение используют в крупных российских компаниях и с 2021 года оно доступно для внешнего рынка. В настоящее время больше 80 тыс. инсталляций Platform V Pangolin успешно используется в составе сервисов и приложений разного уровня масштаба и критичности.

Постоянный URL: http://servernews.ru/1110939
13.09.2024 [14:05], Руслан Авдеев

Cerebras и Aramco займутся развитием ИИ-инноваций в Саудовской Аравии

Американская компания Cerebras Systems объявила о подписании меморандума о взаимопонимании с саудовской нефтяной компанией Aramco. В рамках соглашения компании предоставят промышленности, университетам и коммерческим организациям Саудовской Аравии современные ИИ-решения. По данным HPC Wire, Aramco намерена создавать, обучать и внедрять большие языковые модели (LLM) мирового класса с использованием систем Cerebras CS-3. Ранее Aramco заключила похожее соглашение с другим американским производителем ИИ-ускорителей — Groq.

Новая высокопроизводительная инфраструктура Aramco будет концентрировать усилия на обеспечении местных коммерческих, научных и иных структур доступом к ИИ-системам CS-3. Предполагается, что организации будут использовать передовые аппаратные решения Cerebras для разработки современных LLM, масштабируя и настраивая их для получения оптимальной для того или иного сектора производительности.

 Источник изображения: Aramco Digital

Источник изображения: Aramco Digital

Как объявили в Cerebras, вместе компании планируют расширить возможности ИИ-систем, создав благоприятные условия для развития креативности, раскрытия ценности технологий и продвижения концепции экоустойчивости. В свою очередь, представитель Aramco заявил, что сотрудничество ускорит создание цифровой инновационной экономики в Саудовской Аравии, драйвером которой станет ИИ. Этого можно будет добиться, интегрируя передовые ИИ-решения и учитывая региональные особенности. Aramco рассчитывает оснастить свой облачный бизнес новыми системами CS-3.

В основе систем Cerebras CS-3 лежат суперускорители WSE-3 размером с целую кремниевую пластину. Уже сегодня продукцией Cerebras пользуются крупные корпорации, исследовательские институты и даже государственные органы для разработки собственных моделей. Также они применяются для обучения open source LLM. Решения Cerebras доступны как «во плоти», так и в облаке. В конце августа 2024 года Cerebras Systems запустила «самую мощную в мире» ИИ-платформу для инференса.

В целом Cerebras активно осваивает рынок ЦОД в регионе. Так, холдинг G42 (Core42) из ОАЭ финансово поддержал создание целой серии ИИ-суперкомпьютеров Condor Galaxy, одних из крупнейших в мире. Сейчас Cerebras готовится к IPO и намерена составить конкуренцию NVIDIA. При этом США, как выяснилось, разрешили NVIDIA поставлять современные ускорители G42.

Постоянный URL: http://servernews.ru/1110919
13.09.2024 [13:00], Руслан Авдеев

Великобритания причислила ЦОД к критической национальной инфраструктуре (CNI) с государственной поддержкой

Великобритания отнесла дата-центры к элементам критически важной национальной инфраструктуры (CNI). По данным The Register, в результате сектор будет обеспечен господдержкой, направленной на предотвращение негативных последствий сбоев в работе IT, примером которых может служить инцидент с CrowdStrike, а также на защиту от кибератак и природных катаклизмов.

ЦОД стали четырнадцатым дополнением к списку CNI-объектов Великобритании. Также в список входят гражданская атомная промышленность, энергетика, финансы, здравоохранение и др. Это первое обновление списка почти за 10 лет после добавления в него в 2015 году космической и оборонной сфер. Новость появилась через год после того, как NCSC предупредил о растущем уровне угрозы CNI-объектам Великобритании. В ноябре 2023 года было объявлено, что готовность справляться с киберугрозами в стране оставляет желать лучшего.

За поддержку отвечает специальная команда из высокопоставленных правительственных чиновников, которая будет отслеживать ландшафт угроз и прогнозировать возможные риски. Кроме того, та же команда будет отвечать за реагирование на чрезвычайные ситуации. Национальный центр кибербезопасности Великобритании (NCSC), а также другие спецслужбы будут получать приоритетный доступ к ЦОД, если те подвергнутся той или иной угрозе. Пока власти не комментируют, что подразумевается под «приоритетным доступом».

 Источник изображения: Stanley Dai/unsplash.com

Источник изображения: Stanley Dai/unsplash.com

Как заявляют представители властей, уже само присвоение дата-центрам статуса CNI будет сдерживать киберпреступников от атак. СМИ усомнились в таких выводах, предположив, что это сделает объекты более привлекательной целью для злоумышленников. Также ожидается, что присвоение дата-центрам нового статуса повысит уверенность в будущих инвестициях в сектор.

Параллельно правительство Великобритании приветствовало инвестиции в объёме £3,75 млрд ($4,89 млрд) в крупнейший в Европе дата-центр, строительство которого запланировано компанией DC01UK в Хартфордшире, что недалеко от Лондона. После победы на выборах лейбористское правительство отозвали решения, блокировавшие строительство ЦОД в Хартфордшире и Бакингемшире, граничащими с «Большим Лондоном».

Впрочем, некоторые эксперты подчёркивают, что сегодня хранение и обработка данных обычно не ограничивается одной страной, так что любые новые правила стоит прорабатывать и принимать на международном уровне. При этом многие ЦОД обслуживают по несколько или даже много клиентов одновременно, поэтому ограничения затронут всех пользователей, даже тех, чей бизнес не относится к критической инфраструктуре. Это может замедлить инновации и повысить расходы. Возможно, операторам ЦОД придётся создать специальные кластеры только для критической инфраструктуры, что дополнительно усложнит решение вопросов и повысит затраты — необходимо будет найти баланс между безопасностью и небольшими затратами.

Постоянный URL: http://servernews.ru/1110928
13.09.2024 [11:07], Сергей Карасёв

AWS вложит $1,8 млрд в расширение инфраструктуры ЦОД в Бразилии

Облачная платформа Amazon Web Services (AWS), по сообщению Reuters, намерена инвестировать R$10,1 млрд (около $1,8 млрд) в развитие своей инфраструктуры ЦОД в Бразилии. Масштабная инициатива рассчитана на десять лет — до 2034 года. Средства, как отмечается, пойдут на «расширение, строительство, подключение, эксплуатацию и обслуживание дата-центров».

В 2011–2023 гг. AWS уже вложила в создание экосистемы ЦОД в этой стране около R$19,2 млрд ($3,39 млрд). У AWS есть облачный регион в Сан-Паулу с тремя зонами доступности, который был запущен в 2011 году. Кроме того, развёрнуты edge-площадки в Рио-де-Жанейро, Сан-Паулу и Форталезе. В 2020 году компания объявила, что в течение следующих двух лет инвестирует $240 млн в свою бразильскую облачную инфраструктуру, хотя подробности о том, на что будут потрачены эти деньги, не разглашались.

 Источник изображения: Eduardo Soares / Unsplash

Источник изображения: Eduardo Soares / Unsplash

Другие ведущие облачные провайдеры также развивают инфраструктуру в Бразилии. В частности, Microsoft запустила регион São Paulo Azure (Brazil South) в Кампинасе (Campinas) в 2014 году. В 2021-м он был расширен до трёх зон доступности. В текущем году компания начала работу над дополнительными ЦОД в штате Сан-Паулу. В свою очередь, Google запустила бразильский облачный регион, также расположенный в Сан-Паулу, в 2017 году. А на днях принадлежащая DigitalBridge компания Scala Data Centers объявила о намерении построить огромный кампус ИИ ЦОД Scala AI City в бразильском штате Риу-Гранди-ду-Сул (Rio Grande do Sul).

Постоянный URL: http://servernews.ru/1110914
13.09.2024 [10:07], Сергей Карасёв

Модульные коммутаторы N3COM CMS9700 предназначены для опорной корпоративной сети

Компания N3COM анонсировала семейство модульных коммутаторов CMS9700, которые предназначены для использования в корпоративных сетях на уровне опорного сегмента и агрегации. Устройства, как утверждается, обладают широкой функциональностью и отказоустойчивостью, а также отвечают строгим требованиям современных виртуализированных инфраструктур.

В серию вошли две модели — на три и на восемь слотов под модули расширения (до 16 × 100G на модуль). В частности, могут применяться модули PoE++ (48 × 1G и 4 × 10G SFP+) с бюджетом мощности PoE до 1500 Вт.

Коммутаторы CMS9700 призваны заменить решения зарубежных поставщиков, которые покинули российский рынок в связи со сформировавшейся геополитической обстановкой. Благодаря высокой плотности портов 1/10/25/40/100G и модульной конструкции устройства новой серии позволяют наращивать ёмкость сети и планировать развитие с учётом будущих потребностей, говорит компания. Это, как отмечается, даёт возможность сэкономить на капитальных затратах.

 Источник изображения: N3COM

Источник изображения: N3COM

Изделия CMS9700, по заявлениям N3COM, позволяют организовать надёжную инфраструктуру. Они имеют распределённую архитектуру и систему охлаждения F2B. Решения предназначены для использования в качестве коммутаторов ядра и агрегации в крупных корпоративных сетях с подключением Wi-Fi 6 или в дата-центрах. Новинки могут интегрироваться с коммутаторами доступа и агрегации серий ACS1700/2700, что позволяет построить полноценную многоуровневую сеть Ethernet под управлением системы мониторинга N3COM N3VIEW.

Постоянный URL: http://servernews.ru/1110907
13.09.2024 [00:17], Владимир Мироненко

Производительность суперкомпьютера «Сергей Годунов» выросла вдвое — до 114,67 Тфлопс

Группа компаний РСК сообщила о завершении плановой модернизации суперкомпьютера «Сергей Годунов» в Институте математики имени С.Л. Соболева Сибирского отделения Российской академии наук (ИМ СО РАН), благодаря чему его суммарная пиковая FP64-производительность теперь составляет 114,67 Тфлопс: 75,87 Тфлопс на CPU и 38,8 Тфлопс на GPU.

 Источник изображений: РСК

Источник изображений: РСК

Работы по запуску машины были завершены РСК в ноябре 2023 года, а её официальное открытие состоялось в феврале этого года. На тот момент производительность суперкомпьютера составляла 54,4 Тфлопс. Директор ИМ СО РАН Андрей Евгеньевич Миронов отметил, что использование нового суперкомпьютера позволило существенно повысить эффективность научных исследований, и выразил уверенность, что он также будет способствовать развитию новых технологий.

Миронов сообщил, что после запуска суперкомпьютера появилась возможность решать мультидисциплинарные задачи, моделировать объёмные процессы и предсказывать поведение сложных математических систем. По его словам, на суперкомпьютере проводятся вычисления по критически важным проблемам и задачам, среди которых:

  • построение барических аксиальных алгебр и алгебры Грайса;
  • оптимизация параметров математических моделей турбулентных течений с сопряжённым теплообменом на основе технологий глубокого обучения и природоподобных алгоритмов;
  • волновая медицинская томография;
  • моделирование эпидемиологических, экологических, экономических и социальных процессов;
  • моделирование и построение сценариев развития системы биосфера-экономика-социум с учётом безуглеродного и устойчивого развития и изменения климата;
  • решение обратных задач геофизики прямым методом на основе подхода Гельфанда-Левитана-Крейна.
 Источник изображений: РСК

Источник изображений: РСК

Суперкомпьютер «Сергей Годунов» является основным инструментом для проведения исследований и прикладных разработок в Академгородке Новосибирска и создания технологической платформы под эгидой Научного совета Отделения математических наук РАН по математическому моделированию распространения эпидемий с учётом социальных, экономических и экологических процессов.

Он был назван в память об известном советском и российском математике с мировым именем Сергее Константиновиче Годунове. Отечественный суперкомпьютер создан на базе высокоплотной и энергоэффективной платформы «РСК Торнадо» с жидкостным охлаждением. Система включает вычислительные узлы с двумя Intel Xeon Ice Lake-SP, узел на базе четырёх ускорителей NVIDIA A100 и сервер визуализации с большим объёмом памяти: Intel Xeon Platinum 8368, 4 Тбайт RAM, пара NVIDIA RTX 5000 Ada с 32 Гбайт GDDR6.

Постоянный URL: http://servernews.ru/1110903
12.09.2024 [21:46], Сергей Карасёв

SiMa.ai представила чипы Modalix для мультимодальных рабочих нагрузок ИИ на периферии

Стартап SiMa.ai анонсировал специализированные изделия Modalix — «системы на чипе» с функциями машинного обучения (MLSoC), спроектированные для обработки ИИ-задач на периферии. Эти решения предназначены для дронов, робототехники, умных камер видеонаблюдения, медицинского диагностического оборудования, edge-серверов и пр.

В семейство Modalix входя четыре модификации — М25, М50, М100 и М200 с ИИ-производительностью 25, 50, 100 и 200 TOPS соответственно (BF16, INT8/16). Изделия наделены процессором общего назначения с восемью ядрами Arm Cortex-A65, работающими на частоте 1,5 ГГц. Кроме того, присутствует процессор обработки сигналов изображения (ISP) на базе Arm Mali-C71 с частотой 1,2 ГГц. В оснащение входят 8 Мбайт набортной памяти. Изделия производятся по 6-нм технологии TSMC и имеют упаковку FCBGA с размерами 25 × 25 мм.

 Источник изображения: SiMa.ai

Источник изображения: SiMa.ai

Чипы Modalix располагают узлом компьютерного зрения Synopsys ARC EV-74 с частотой 1 ГГц. Говорится о возможности декодирования видеоматериалов H.264/265/AV1 в формате 4K со скоростью 60 к/с и кодировании H.264 в формате 4K со скоростью 30 к/с. Реализована поддержка восьми линий PCIe 5.0, четырёх портов 10GbE, четырёх интерфейсов MIPI CSI-2 (по четыре линии 2.5Gb), восьми каналов памяти LPDDR4/4X/5-6400 (до 102 Гбайт/с). Таким образом, по словам SiMa.ai, Modalix покрывает практически весь цикл работы с данными, не ограничиваясь только ускорением ИИ-задач.

 Источник изображения: SiMa.ai

Источник изображения: SiMa.ai

По заявлениям SiMa.ai, чипы Modalix можно применять для работы с большими языковыми моделями (LLM), генеративным ИИ, трансформерами, свёрточными нейронными сетями и мультимодальными приложениями. Среди возможных вариантов использования названы медицинская визуализация и роботизированная хирургия, интеллектуальные приложения для розничной торговли, автономные транспортные средства, беспилотники для инспекции зданий и пр. Есть поддержка популярных фреймворков PyTorch, ONNX, Keras, TensorFlow и т.д. Также предоставляется специализированный набор инструментов под названием Pallet, упрощающий создание ПО для новых процессоров.

Постоянный URL: http://servernews.ru/1110841
12.09.2024 [16:02], Руслан Авдеев

4,75 ГВт для ИИ: Scala Data Centers намерена построить в Бразилии мегакампус ЦОД AI City до, но начнёт с более скромного проекта на 54 МВт

Принадлежащая DigitalBridge компания Scala Data Centers планирует построить огромный кампус ИИ ЦОД Scala AI City в бразильском штате Риу-Гранди-ду-Сул (Rio Grande do Sul). Компания начнёт со скромных 54 МВТ и R$3 млрд ($500 млн) инвестеций, но со временем намерена масштабировать проект до 4,75 ГВт и $90 млрд. Scala уже приобрела около 700 га для AI City в муниципалитете Эльдорадо-ду-Сул (Eldorado do Sul) в 32 км от Порту-Алегри (Porto Alegre).

ЦОД изначально будет рассчитан на поддержку ИИ-нагрузок и предложит 150-кВт стойки с СЖО. Питание будет осуществляться исключительно из возобновляемых источников, PUE не превысит 1,2, а WUE и вовсе будет составлять 0, т.е. ЦОД не будет использовать питьевую воду. Отчасти достичь таких результатов поможет более прохладный климат юга страны. ЦОД будет введён в строй в течение двух лет и станет одним из крупнейших в Бразилии, где общая ёмкость ЦОД составляет 777 МВт.

 Источник изображения: Scala Data Centers

Источник изображения: Scala Data Centers

В комментарии Datacenter Dynamics представитель оператора отметил, что проекты в Латинской Америке во многом отстают в технологическом плане из-за нестабильного курса валют и правовой неопределённости, но теперь ситуация изменилась. Появилась базовая инфраструктура для передачи данных и электроэнергии и огромные возможности генерации «чистой» энергии, равных которым нет во всём мире. В компании напомнили, что в Северной Вирджинии — крупнейшем рынке ЦОД ёмкостью 4 ГВт — вынуждены до семи лет ждать присоединения к энергосети

Тем временем в бразильских сетях имеются 12 ГВт, готовые к использованию, 5 из которых зарезервировала Scala. Предполагается, что в Северной Америке сегодня дата-центрам не хватает 4–6 ГВт. Так что клиенты вполне могут обратиться к бразильским ресурсам, если их не смущает достаточно высокая задержке при передаче данных.

Для сравнения, общая ёмкость дата-центров Microsoft Azure по всему миру оценивается приблизительно в 5 ГВт, хотя компания стремитально наращивает парк ЦОД. Две компании, одна из которых, по слухам, и есть Microsoft, ведут переговоры о строительстве в Северной Дакоте кампусов на 5–10 ГВт. Также на этой неделе Oracle объявила, что построит в США 1-ГВт ЦОД с питанием от малых модульных реакторов (SMR).

UPD 29.09.2024: Scala Data Centers получила $500 млн долгового финансирования, по $250 млн от Coatue Tactical Solutions и Investment Management Corporation of Ontario (IMCO).

Постоянный URL: http://servernews.ru/1110864
11.09.2024 [18:55], Игорь Осколков

Oracle анонсировала зеттафлопсный облачный ИИ-суперкомпьютер из 131 тыс. NVIDIA B200

Oracle и NVIDIA анонсировали самый крупный на сегодняшний день облачный ИИ-кластер, состоящий из 131 072 ускорителей NVIDIA B200 (Blackwell). По словам компаний, это первая в мире система производительностью 2,4 Зфлопс (FP8). Кластер заработает в I половине 2025 года, но заказы на bare-metal инстансы и OCI Superclaster компания готова принять уже сейчас. Заказчики также смогут выбрать тип подключения: RoCEv2 (ConnectX-7/8) или InfiniBand (Quantum-2).

По словам компании, новый ИИ-кластер вшестеро крупнее тех, что могут предложить AWS, Microsoft Azure и Google Cloud. Кроме того, компания предлагает и другие кластеры с ускорителями NVIDIA: 32 768 × A100, 16 384 × H100, 65 536 × H200 и 3840 × L40S. А в следующем году обещаны кластеры на основе GB200 NVL72, объединяющие более 100 тыс. ускорителей GB200. В скором времени также появятся и куда более скромные ВМ GPU.A100.1 и GPU.H100.1 с одним ускорителем A100/H100 (80 Гбайт).

Прямо сейчас для заказы доступны инстансы GPU.H200.8, включающие восемь ускорителей H200 (141 Гбайт), 30,7-Тбайт локальное NVMe-хранилище и 200G-подключение. Семейство инстансов на базе NVIDIA Blackwell пока включает лишь два варианта. GPU.B200.8 предлагает восемь ускорителей B200 (192 Гбайт), 30,7-Тбайт локальное NVMe-хранилище и 400G-подключение. Наконец, GPU.GB200 фактически представляет собой суперускоритель GB200 NVL72 и включает 72 ускорителя B200, 36 Arm-процессоров Grace и локальное NVMe-хранилище ёмкостью 533 Тбайт. Агрегированная скорость сетевого подключения составляет 7,2 Тбит/с.

 Источник изображения: Oracle

Источник изображения: Oracle

Для всех новых инстансов Oracle подготовит управляемое Lustre-хранилище с производительностью до 8 Гбит/с на каждый Тбайт. Кроме того, компания предложит расширенные средства мониторинга и управления, помощь в настройке инфраструктуры для достижения желаемого уровня реальной производительности, а также набор оптимизированного ПО для работы с ИИ, в том числе для Arm.

Постоянный URL: http://servernews.ru/1110816
11.09.2024 [18:07], Сергей Карасёв

SambaNova запустила «самую быструю в мире» облачную платформу для ИИ-инференса

Компания SambaNova Systems объявила о запуске облачного сервиса SambaNova Cloud: утверждается, что на сегодняшний день это самая быстрая в мире платформа для ИИ-инференса. Она ориентирована на работу с большими языковыми моделями Llama 3.1 405B и Llama 3.1 70B, насчитывающими соответственно 405 и 70 млрд параметров.

В основу сервиса положены ИИ-чипы собственной разработки SN40L. Эти изделия состоят из двух крупных чиплетов, оперирующих 520 Мбайт SRAM-кеша, 1,5 Тбайт DDR5 DRAM, а также 64 Гбайт высокоскоростной памяти HBM3. Утверждается, что восьмипроцессорная система на базе SN40L способна запускать и обслуживать ИИ-модели с 5 трлн параметров и глубиной запроса более 256к.

 Источник изображения: SambaNova

Источник изображения: SambaNova

Платформа SambaNova Cloud, по заявлениям разработчиков, демонстрирует производительность до 132 токенов в секунду при работе с Llama 3.1 405B и до 461 токена в секунду при использовании Llama 3.1 70B. Для сравнения, по оценкам Artificial Analysis, даже самые мощные системы на базе GPU могут обслуживать модель Llama 3.1 405B только со скоростью 72 токена в секунду, а большинство из них намного медленнее. Подчёркивается, что SambaNova Cloud демонстрирует рекордную скорость при сохранении полной 16-битной точности. Однако без компромиссов всё же не обошлось: модель работает не в полном контекстном окне в 128k, а при 8k.

Доступ к SambaNova Cloud предоставляется по трём схемам — Free, Developer и Enterprise. Первая предусматривает бесплатное базовое использование через API. Схема для разработчиков Developer (появится к концу 2024 года) позволяет работать с моделями Llama 3.1 8B, 70B и 405B с более высокими лимитами. Наконец, план Enterprise предлагает корпоративным клиентам возможность масштабирования для поддержки ресурсоёмких рабочих нагрузок.

Ранее Cerebras Systems тоже объявила о запуске «самой мощной в мире» ИИ-платформы для инференса, а Groq ещё в прошлом году говорила о преимуществах своих решений и тоже переключилась на создание облачных сервисов. Впрочем, в бенчмарках MLPerf Inference по-прежнему бессменно лидируют решения NVIDIA.

Постоянный URL: http://servernews.ru/1110773
Система Orphus