Материалы по тегу: c

17.12.2024 [08:38], Руслан Авдеев

В 2025 году в Европе появится сразу семь ИИ-фабрик EuroHPC

Консорциум EuroHPC выбрал площадки для первых европейских ИИ-фабрик (AI Factory), которые появятся В 2025 году в Финляндии, Германии, Греции, Италии, Люксембурге, Испании и Швеции. Всего в проекте участвуют 17 стран.

В Финляндии, Германии, Италии, Люксембурге и Швеции будут установлены новые ИИ-суперкомпьютеры. В Испании фабрика будет создана путём модернизации суперкомпьютера MareNostrum 5. В Греции фабрика будет связана с суперкомпьютером DAEDALUS, внедрение которого происходит сейчас. В Испании и Финляндии AI Factory будут включать в себя экспериментальную платформу, которая послужит передовой инфраструктурой для разработки и тестирования инновационных ИИ-моделей и приложений.

Первые семь фабрик объединят как ресурсы отдельных стран, так и ресурсы ЕС в целом. Инициатива EuroHPC AI Factories призвана создать надёжную и взаимосвязанную сеть ИИ-хабов, которые предоставят ИИ-стартапам, малому и среднему бизнесу и исследователям комплексную поддержку, включая доступ к оптимизированным для ИИ и HPC ресурсам, обучению и техническому опыту.

Финская ИИ-фабрика предложит передовую вычислительную платформу LUMI-AI и доступ к новым источникам данных, а также сервисному центру и кадровому резерву. Систему разместят в IT-центре CSC, расположенном в Каяани рядом с действующим суперкомпьютером LUMI. В консорциуме LUMI AI Factory помимо Финляндии участвуют Чехия, Дания, Эстония, Норвегия и Польша.

В Германии на базе HammerHAI (Hybrid and Advanced Machine Learning Platform for Manufacturing, Engineering, And Research @ HLRS) будет создан единый центр для промышленности и академических кругов. Особое внимание будет уделяться барьерам, в настоящее время мешающим использовать ИИ стартапам и бизнеса. Новая облачная ИИ-платформа разместится в HPC-центре Штутгарта (HLRS) и будет создана при участии GWDG, BADW-LRZ, KIT и SICOS. HammerHAI обеспечит комплексную поддержку на протяжении всего цикла разработки ИИ, от обучения модели до инференса, а также поддержку пользователей и профессиональное образование. Также будут подготовлены базовые модели и наборы данных.

 Источник изображения: EuroHPC JU

Источник изображения: EuroHPC JU

Греческая ИИ-фабрика Pharos будет использовать суперкомпьютер DAEDALUS для решения задач Греции и ЕС в области здравоохранения, культуры и языка, а также устойчивого развития (энергетика, окружающая среда, климат). Предполагается комплексная поддержка пользователей, включая повышение квалификации, предоставление датасетов и обучение ИИ-моделей, а также поддержка бизнес-инноваций. Платформа будет управляться Национальной инфраструктурой исследований и технологий GRNET S.A. в Афинах, действующей под патронажем Министерства цифрового управления Греции. Особое внимание будет уделяться созданию ИИ-решений, соответствующих требованиям ЕС и отдельных индустрий.

ИИ-фабрика IT4LIA, совместно создаваемая Италией, Австрией и Словенией, предоставит инфраструктуру ИИ и экосистему, которая объединит исследователей, разработчиков, стартапы и малый и средний бизнес. Это упростит доступ к ИИ-ресурсам государственным органам, студентам, учёным и бизнесу. Новая система будет сформирована в CINECA Consorzio Interuniversitario в Болонье как дополнение к суперкомпьютеру LEONARDO. ИИ-кластер производительностью более 40 Эфлопс (смешанная точность вычислений) будет в основном использоваться для внедрения ИИ в агросекторе, кибербезопасности, землепользовании и производстве.

 Источник изображения: CINECA

Источник изображения: CINECA

Люксембургу достанется L-AI Factory на базе ИИ-суперкомпьютера MeluXina-AI, который будет соседствовать с действующим суперкомпьютером MeluXina. Местная AI Factory призвана укрепить позиции страны в качестве европейского лидера в сфере ИИ. AI Factory обеспечит быструю адаптацию и персонализированную поддержку для всех предприятий, особенно стартапов и малого и среднего бизнеса.

BSC AI Factory — совместная инициатива Испании, Португалии, Турции и Румынии, представленных Барселонским суперкомпьютерным центром (BSC-CNS), Фондом науки и технологий (FCT) и Советом научных и технологических исследований Турции (TÜBİTAK), и Национальным институтом исследований и разработок в области информатики (ICI, Бухарест). Система обеспечит внедрение ИИ в промышленности, стартапах, малом и среднем бизнесе и государственных организациях.

 Источник изображения: BSC

Источник изображения: BSC

Фабрика ориентирована на услуги для государственного управления, здравоохранения, фармацевтики и биотехнологий, финансов и права, сельского хозяйства и климата, государственного сектора, энергетики, связи и средств массовой информации. В числе прочего предусмотрена модернизация суперкомпьютера MareNostrum 5 — BSC AI Factory станет частью Суперкомпьютерного центра Барселоны (BSC-CNS).

Наконец, AI Factory MIMER будет организована Национальной академической суперкомпьютерной инфраструктурой (NAISS) Швеции в Университете Линчепинга в сотрудничестве с исследовательскими институтами Швеции (RISE). MIMER получит специализированный ИИ-суперкомпьютер среднего уровня, причём приоритет отдаётся облачному доступу и предоставление масштабного хранилища конфиденциальных данных.

MIMER будет наращивать опыт использования ИИ в области естественных наук и здравоохранения, материаловедения, автономных систем и игровой индустрии. Проект будет сосредоточен на генеративных моделях в структурной биологии и разработке лекарств, персонализированной медицине и работе с международными партнёрами над разработкой базовых моделей следующего поколения, которые будут настроены для конкретных целей.

Постоянный URL: http://servernews.ru/1115273
15.12.2024 [13:00], Сергей Карасёв

Vultr запустил облачный ИИ-кластер на базе AMD Instinct MI300X

Крупнейший в мире частный облачный провайдер Vultr объявил о заключении соглашения о четырёхстороннем стратегическом сотрудничестве с целью развёртывания нового суперкомпьютерного кластера. В проекте принимают участие AMD, Broadcom и Juniper Networks. Применяются ускорители AMD Instinct MI300X и открытый программный стек ROCm. Данные о количестве ускорителей и общей производительности платформы пока не раскрываются.

Кластер размещён в дата-центре Vultr Centersquare в Лайле (юго-западный пригород Чикаго; Иллинойс; США). Новая НРС-система построена с использованием Ethernet-коммутаторов Broadcom и оптимизированных для ИИ-задач сетевых Ethernet-решений Juniper Networks. Благодаря этим компонентам, как утверждается, возможно построение безопасной высокопроизводительной инфраструктуры. Кластер ориентирован прежде всего на обучение ИИ-моделей и ресурсоёмкие нагрузки инференса.

«Сотрудничество с AMD, Broadcom и Juniper Networks позволяет предприятиям и специалистам в области ИИ использовать весь потенциал ускоренных вычислений при одновременном обеспечении гибкости, масштабируемости и безопасности», — говорит Джей Джей Кардвелл (J.J. Kardwell), генеральный директор Vultr.

 Источник изображения: AMD

Источник изображения: AMD

О доступности Instinct MI300X в своей облачной инфраструктуре компания Vultr сообщила в сентябре нынешнего года. Ускорители AMD интегрируются с Vultr Kubernetes Engine for Cloud GPU для формирования кластеров Kubernetes, использующих ускорители. Предложение ориентировано на задачи ИИ и НРС.

Vultr ставит своей целью сделать высокопроизводительные облачные вычисления простыми в использовании и доступными для предприятий и разработчиков по всему миру. На сегодняшний день экосистема Vultr включает 32 облачные зоны, в том числе площадки в Северной Америке, Южной Америке, Европе, Азии, Австралии и Африке.

Постоянный URL: http://servernews.ru/1115459
14.12.2024 [15:25], Сергей Карасёв

HPE создаст HPC-систему Blue Lion для Суперкомпьютерного центра имени Лейбница

Суперкомпьютерный центр имени Лейбница (LRZ) в Германии, управляемый Баварской академией наук в Мюнхене (BADW), объявил о подписании соглашения с HPE на строительство HPC-комплекса нового поколения. Проект получил название Blue Lion.

LRZ, входящий в состав Суперкомпьютерный центр имени Гаусса (GCS), намерен запустить систему Blue Lion в 2027 году. Предполагается, что комплекс не только ускорит выполнение задач в области классического моделирования, но и откроет новые возможности для достижений в сфере ИИ.

В основу Blue Lion ляжет платформа HPE Cray нового поколения с ускорителями NVIDIA. Говорится о применении интерконнекта HPE Slingshot с пропускной способностью до 400 Гбит/с. По производительности Blue Lion примерно в 30 раз превзойдёт предшественника — систему SuperMUC-NG, которая обеспечивает теоретическое пиковое быстродействие в 26,9 Пфлопс.

 Источник изображения: GCS

Источник изображения: GCS

Blue Lion будет использовать на 100 % прямое жидкостное охлаждение тёплой водой температурой до +40 °C, протекающей по медным трубкам. Нагретую воду планируется повторно использовать для отопления помещений самого LRZ, а также соседних учреждений в Гархинге. Утверждается, что такая СЖО расходует примерно на 94 % меньше энергии в процессе работы, чем сопоставимая по классу система воздушного охлаждения. Blue Lion также потребует значительно меньше места для размещения благодаря более высокой плотности монтажа.

Проект Blue Lion в равных долях финансируется Министерством науки и искусства Баварии (StMWK) и Федеральным министерством образования и исследований (BMBF). Затраты на создание суперкомпьютера оцениваются в €250 млн с учётом эксплуатационных расходов до 2032 года.

Постоянный URL: http://servernews.ru/1115439
13.12.2024 [10:52], Сергей Карасёв

Квартальный объём мирового рынка корпоративного WLAN-оборудования достиг $2,5 млрд

Компания International Data Corporation (IDC) обнародовала результаты исследования глобального рынка корпоративного оборудования для беспроводных локальных сетей (WLAN) по итогам III квартала 2024 года. Аналитики отмечают, что отрасль стабилизируется после потрясений, вызванных пандемией COVID-19, когда нарушилась работа производств и цепочек поставок.

Продажи WLAN-оборудования с июля по сентябрь включительно составили примерно $2,5 млрд. Это на 5,8 % больше по сравнению со II четвертью текущего года, однако на 1,7 % меньше по отношению к III кварталу 2023-го. Падение продаж за первые три квартала 2024-го составило в годовом исчислении около 17,5 %.

 Источник изображения: IDC

Источник изображения: IDC

На точки доступа Dependent Access Point стандарта Wi-Fi 6E пришлось 31,7 % в общем объёме выручки против 20,4 % годом ранее. Ещё 4,9 % продаж в денежном выражении обеспечили решения Wi-Fi 7. Основная масса прочих точек доступа Dependent Access Point основана на технологии Wi-Fi 6.

В США сегмент корпоративного WLAN-оборудования в III четверти 2024-го сократился на 3,2 % в годовом исчислении, но вырос на 10,7 % в квартальном. В Западной Европе рынок показал рост на 0,2 % в годовом исчислении и на 4,2 % в квартальном. В Центральной и Восточной Европе прибавка составила соответственно 0,5 % и 7,8 %. В Азиатско-Тихоокеанском регионе, за исключением Японии и Китая, сектор сократился на 4,4 % в годовом исчислении и на 3,5 % в квартальном. В КНР зафиксировано падение на 10,2 % в годовом исчислении, тогда как в квартальном выражении отмечен рост на 2,2 %.

В список ведущих поставщиков WLAN-продуктов на корпоративном рынке входят Cisco (41,6 % в денежном выражении), HPE Aruba Networking (15,1 %), Ubiquiti (8,3 %), Huawei (7,2 %) и Juniper Networks (5,3 %).

Постоянный URL: http://servernews.ru/1115385
12.12.2024 [17:36], Сергей Карасёв

FPGA + EPYC: AWS представила AMD-инстансы EC2 F2 с процессорами Milan и ПЛИС Virtex UltraScale+

Облачная платформа AWS анонсировала инстансы второго поколения с FPGA на борту. Экземпляры EC2 F2 ориентированы на решение задач в области геномики, обработки мультимедийных материалов, больших данных, спутниковой связи, компьютерных сетей, моделирования кремниевых чипов и видеотрансляций в реальном времени.

В новых инстансах применяются FPGA AMD Virtex UltraScale+ HBM VU47P. Эти изделия содержат 2,852 млн логических ячеек и 9024 DSP. Заявленная ИИ-производительность достигает 28 TOPS при вычислениях INT8. Кроме того, в состав EC2 F2 входят процессоры AMD EPYC поколения Milan.

Новые инстансы доступны в вариантах f2.12xlarge и f2.48xlarge — с 48 и 192 vCPU и 2 и 8 FPGA соответственно. Каждая ПЛИС оперирует 16 ГиБ памяти HBM и 64 ГиБ памяти DDR4. Таким образом, в случае f2.12xlarge используется в сумме 32 ГиБ HBM и 128 ГиБ DDR4, а в случае f2.48xlarge — 128 ГиБ и 512 ГиБ соответственно.

 Источник изображения: AWS

Источник изображения: AWS

Конфигурация f2.12xlarge включает 512 ГиБ системной памяти и два накопителям NVMe SSD суммарной вместимостью 1900 ГиБ. Пропускная способность сетевого подключения составляет 25 Гбит/с, пропускная способность EBS-томов — 15 Гбит/с. У экземпляра f2.48xlarge объём памяти составляет 2048 ГиБ, общая вместимость NVMe SSD — 7600 ГиБ. Пропускная способность сетевого подключения и EBS-томов достигает 100 Гбит/с и 60 Гбит/с соответственно. Для этого экземпляра предусмотрена поддержка AWS Cloud Digital Interface (CDI) для надёжной передачи несжатого видео (задержка между инстансами заявлена на уровне 8 мс).

Постоянный URL: http://servernews.ru/1115320
11.12.2024 [23:47], Владимир Мироненко

BadRAM: для обхода защиты виртуальных машин в процессорах AMD EPYC достаточно оборудования стоимостью всего $10

Исследователи Лёвенского католического университета (Бельгия), Любекского университета (Германия) и Бирмингемского университета (Великобритания) обнаружили, что система защиты виртуальных машин от атак с использованием вредоносного гипервизора AMD SEV-SNP (Secure Nested Paging), не так безопасна, как утверждает разработчик, пишет The Register.

Технологии Secure Encrypted Virtualization (SEV) предоставляют доверенную среду исполнения (TEE), призванную обеспечить защиту виртуальных машин от незаконных попыток вмешательства со стороны тех, кто имеет доступ к оборудованию ЦОД. Механизм SEV-SNP реализован в процессорах AMD EPYC, начиная с 7003 (Milan). Аналогичные механизмы есть и у конкурентов: Intel Software Guard Extensions (SGX) и Trusted Domain Extensions (TDX), а также Arm Confidential Compute Architecture (CCA). Все эти технологии отвечают за шифрование памяти и изоляцию ресурсов.

Исследователи разработали способ обхода SEV-SNP, который они назвали BadRAM (CVE-2024-21944 и AMD-SB-3015). Для атаки требуется оборудование стоимостью около $10, включая Raspberry Pi Pico, разъём DDR и батарею на 9 В. Атака BadRAM требует наличие физического доступа к оборудованию. Она основана на манипуляциях с чипом SPD (Serial Presence Detect), который передаёт данные о модуле DDR4/DDR5 во время загрузки системы. Манипулируя SPD, злоумышленники создают адреса-фантомы для физической памяти, благодаря которым можно незаметно получить доступ к данным в виртуальной машине.

 Источник изображения: badram.eu

Источник изображения: badram.eu

«Мы удваиваем видимый в системе объём DIMM, чтобы обмануть контроллер памяти CPU и заставить его использовать дополнительные «фантомные» биты адресации, — объясняют авторы исследования. — Два разных физических адреса теперь ссылаются на одно и то же местоположение DRAM». С помощью таких фантомов злоумышленники могут обойти защиту памяти, раскрывая конфиденциальные данные или вызывя сбои. BadRAM позволяет подделать критически важные отчёты удалённой аттестации и вставлять необнаруживаемые бэкдоры в любую виртуальную машину, защищённую SEV-SNP.

Атака может быть реализована и без физического доступа к оборудованию, поскольку некоторые поставщики DRAM оставляют чип SPD разблокированным, что противоречит спецификациям JEDEC. Авторы исследования обнаружили по крайней мере два DDR4-модуля Corsair без должной защиты SPD. Память DDR3 тоже может быть взломана путём замены чипа SPD.

 Источник изображения: badram.eu

Источник изображения: badram.eu

«BadRAM полностью подрывает доверие к технологии защищённой зашифрованной виртуализации AMD (SEV-SNP), которая широко используется крупными поставщиками облачных услуг, включая Amazon AWS, Google Cloud и Microsoft Azure», — сообщил The Register Джо Ван Балк (Jo Van Bulck), профессор лаборатории DistriNet на кафедре компьютерных наук KU Leuven.

Исследователи отметили, что решения SGX и TDX Intel не имеют такой уязвимости, поскольку в них реализованы контрмеры против создания псевдонимов (alias) памяти. Arm CCA, судя по спецификации, тоже не имеет проблем, но для проверки этого у исследователей не было коммерческих чипов. Полный доклад об атаке исследователи планируют представить в мае 2025 года на конференции IEEE Symposium on Security and Privacy.

 Источник изображения: AMD

Источник изображения: AMD

Исследователи уведомили AMD о найденных проблемах в феврале 2024 года. «AMD рекомендует использовать модули памяти, которые блокируют SPD, а также следовать передовым практикам в области физической безопасности систем. AMD также выпустила обновления прошивок защиты от уязвимости», — сообщили в AMD ресурсу The Register в ответ на просьбу прокомментировать публикацию исследователей.

Постоянный URL: http://servernews.ru/1115278
11.12.2024 [11:37], Сергей Карасёв

OnLogic представила индустриальный мини-компьютер ML100G-42 на базе AMD Ryzen 8040

Компания OnLogic анонсировала компактный компьютер ML100G-42, ориентированный на коммерческое и промышленное применение. Устройство может использоваться на производствах, в системах индустриальной автоматизации, в секторе логистики и поставок продукции и пр.

В основу новинки положена аппаратная платформа AMD: задействован процессор Ryzen 7 8840U (8 ядер; 16 потоков; до 5,1 ГГц) с графическим контроллером AMD Radeon 780M (RDNA3) и NPU XDNA. Чип довольствуется пассивным охлаждением, а ребристая поверхность алюминиевого корпуса компьютера выполняет функции радиатора для отвода тепла. Объём оперативной памяти DDR5-5600 может достигать 96 Гбайт (2 × 48 Гбайт).

 Источник изображения: OnLogic

Источник изображения: OnLogic

Новинка способна нести на борту два SSD формата M.2 с интерфейсом PCIe 4.0 (NVMe) вместимость до 2 Тбайт каждый. При необходимости может быть добавлен ИИ-ускоритель Hailo в виде модуля М.2. Кроме того, предусмотрен дополнительный слот M.2 2230 E-key (PCIe x1 / USB 2.0) для адаптера Wi-Fi. В оснащение входят сетевые контроллеры 2.5 GbE и 1GbE.

Во фронтальной части расположены порт USB 3.2 Gen2 Type-A, два разъёма USB4 Type-C (с поддержкой DP1.4a), стандартное аудиогнездо на 3,5 мм. Сзади сосредоточены два интерфейса HDMI, два гнезда RJ-45 для сетевых кабелей, два порта USB 2.0 и DC-гнездо для подачи питания. Опционально могут быть добавлены два последовательных порта RS-232.

Габариты составляют 142 × 61,5 × 107 мм. Возможен монтаж на стену и DIN-рейку, а также установка при помощи крепления VESA. Диапазон рабочих температур — от 0 до +50 °C. Гарантирована совместимость с Red Hat Linux и Ubuntu. Цена начинается примерно с $1300.

Постоянный URL: http://servernews.ru/1115254
10.12.2024 [12:19], Руслан Авдеев

Запас карман не тянет: Huawei получила более 2,5 дециллионов IPv6-адресов

Компания Huawei получила в своё распоряжение 2 596 148 429 267 413 814 265 248 164 610 048 адресов IPv6 — более 2,5 дециллионов (один дециллион — 1033). Столько выделил китайскому техногиганту азиатский интернет-регистратор Asia Pacific Network Information Center (APNIC), сообщает The Register.

Это своего рода рекорд для APNIC. Для удовлетворения потребностей Huawei регистратор обратился к организации Internet Assigned Numbers Authority (IANA), контролирующей распределение адресов по всему миру. Для удовлетворения запроса APNIC запросила второй блок /12. Он состоит из более 83 дециллионов адресов. Впрочем, на долю Huawei приходится лишь подмножество — блок /17. Всего пространство IPv6 вмещает более 340 ундециллионов адресов (340∙1036), но многие зарезервированы или не могут использоваться по разным причинам.

Хотя выделенное Huawei количество адресов выглядит невероятно большим, но в общем объёме адресного пространства оно практически теряется. Конечно, у компании вряд ли когда-нибудь будет такое количество устройств для подключения. Впрочем, даже если из общего числа будут использоваться далеко не все, можно предположить, что у компании большие планы. По данным APNIC, в Huawei намерены использовать выделенные IPv6 для «глобального внедрения облачных сервисов и CDN».

 Истчоник изображения: engin akyurt/unsplash.com

Истчоник изображения: engin akyurt/unsplash.com

Сейчас Китай активно продвигает использование устройств Интернета вещей. Пара миллиардов из них уже функционирует, а в ближайшие годы их число должно вырасти до 30 млрд. Huawei Cloud управляет 33 облачными регионами, поэтому в его распоряжении имеется немало физических устройств и виртуальных машин. Впрочем, имеющихся в запасе компании адресных ресурсов теперь с лихвой хватит на покрытие её потребностей. Фактически даже если бы каждое интернет-устройство на Земле получило бы адрес IPv6, Huawei не смогла бы потратить и малой доли своих невообразимых ресурсов.

Примечательно, что буквально в ноябре главный научный сотрудник APNIC (Asia Pacific Network Information Centre) Джефф Хьюстон (Geoff Huston) заявил, что перспективы перехода на протокол IPv6 не особенно привлекательны из-за меняющейся структуры сети. По словам эксперта, переход от IPv4 к IPv6 не обеспечит принципиально новых функциональных возможностей. Однако некоторые всё равно запасаются адресами. Так, в октябре прошлого года американский регистратор ARIN выделил банку Capital One блок 2630::/16. Банк получил вдвое больше адресов, чем Huawei, отмечает The Register.

Постоянный URL: http://servernews.ru/1115210
09.12.2024 [23:27], Руслан Авдеев

От изобилия до кризиса: Schneider Electric опубликовала прогнозы влияния ИИ на энергопотребление

Компания Schneider Electric опубликовала два доклада подведомственного Sustainability Research Institute (SRI), связанные с воздействием искусственного интеллекта (ИИ) на обеспечение экоустойчивости, в частности, на потребление электроэнергии, сообщает Inside HPC.

Первый материал, Artificial Intelligence and Electricity: A System Dynamics Approach, изучает четыре возможных сценария развития потребления энергии в связи с ИИ в следующие десять лет. С учётом растущей обеспокоенности экспертов растущим потреблением ИИ-систем, представители SRI и Университета Твенте (Нидерланды) построили динамическую модель системы, предсказывающую различные сценарии спроса на электричество в связи с ИИ — это позволит разрабатывать стратегии устойчивого развития ИИ и схемы минимизации воздействия на окружающую среду в связи с его прогрессом.

Эти сценарии не являются «предсказаниями» — скорее инструментами для понимания комплексных факторов, формирующих наше будущее: от действительно устойчивого развития ИИ до более радикальных вариантов будущего вплоть до энергетических кризисов вследствие эволюции ИИ-систем в начале 2030-х годов. Доклад также содержит рекомендации для законотворцев и лиц, принимающих решения, по выбору пути, сочетающем прогресс в области ИИ с экологической и энергетической устойчивостью.

 Источник: Schneider Electric

Источник: Schneider Electric

Второй доклад, AI-Powered HVAC in Educational Buildings: A Net Digital Impact Use Case, подготовленный SRI и Королевским мельбурнским технологическим институтом (RMIT), демонстрирует, каким образом управляемые ИИ системы отопления, вентиляции и кондиционирования воздуха (HVAC) могут повысить энергоэффективность зданий и способствовать охране окружающей среды.

В докладе отмечается, что на HVAC приходится 35–65 % всего энергопотребления зданий. В ходе исследования изучались более 87 образовательных объектов в Стокгольме. С 2019 по 2023 годы было зафиксировало сокращение углеродных выбросов в CO2-эквиваленте на 64,8 тонн в год. Это примерно в 60 раз больше, чем углеродный след внедрённых в систему управления зданиями ИИ и IoT. Более того, точно такая же система в Бостоне (США) позволит снизить углеродные выбросы в семь раз в сравнении со Стокгольмом. Это показывает важность внедрения ИИ в окружениях, требующих усиленного отопления, охлаждения или кондиционирования воздуха.

В ноябре сообщалось, что ИИ вообще и генеративный ИИ в частности привели к стремительному росту энергопотребления ЦОД — по прогнозам агентства Gartner, в следующие два года рост составит 160 %. В результате ожидается, что 40 % существующих ИИ ЦОД будут ограничены в энергоресурсах к 2027 году.

Постоянный URL: http://servernews.ru/1115164
09.12.2024 [20:17], Руслан Авдеев

Канада потратит $2 млрд на ИИ ЦОД и суперкомпьютеры

Министр инноваций, науки и промышленности Канады Франсуа-Филипп Шампань (François-Philippe Champagne) официально заявил о старте реализации Канадской стратегии суверенных ИИ-вычислений (Canadian Sovereign AI Compute Strategy). Она предусматривает выделение до $2 млрд, сообщает HPC Wire.

Предполагается, что стратегия будет способствовать достижению трёх ключевых целей:

  • до $700 млн будет выделено на развитие местных лидеров ИИ-отрасли с привлечением инвестиций на создание новых и расширение имеющихся ЦОД в рамках инициативы AI Compute Challenge;
  • до $1 млрд потратят на создание публичной суперкомпьютерной инфраструктуры;
  • до $300 млн потратят на обеспечения доступа к вычислительным мощностям малым и средним предприятиям в рамках инициативы AI Compute Access Fund.

Публичные консультации, посвящённые стратегии, проводились летом 2024 года. Были получены отзывы от более чем 1 тыс. заинтересованных сторон, в том числе от представителей науки, промышленности, общественности и др. Кроме того, власти страны приняли ряд мер по ответственному созданию и внедрению ИИ в экономику Канады, сформировав Канадский институт безопасности ИИ, подготовив Закон об искусственном интеллекте и данных (законопроект C-27) и предложив Добровольный кодекс ответственной разработки и управления передовыми системами генеративного ИИ.

 Источник изображения: Marc-Olivier Jodoin/unsplash.com

Источник изображения: Marc-Olivier Jodoin/unsplash.com

Все $2 млрд выделят из государственного бюджета 2024 года в рамках стратегии, удовлетворяющей кратко-, средне- и долгосрочные потребностям исследователей и разработчиков в ИИ-вычислениях. До $700 млн получат представители промышленности, академических кругов и бизнеса, занимающиеся созданием канадских ИИ ЦОД. Среди заявок на финансирование приоритет будет отдаваться высокомаржинальным проектам. До $1 млрд выделят на создание суверенной суперкомпьютерной инфраструктуры, а также безопасного ЦОД. До $300 млн выделят в Фонд доступа к ИИ-вычислениям, более подробная информация котором появится после официального старта программы весной 2025 года.

В 2022–2023 гг. количество специалистов в стране выросло на 29 %, достигнув 140 тыс., причём по скорости прироста Канада занимает первое место среди стран «Большой семёрки» (G7). В Канаде работают 10 % ведущих мировых исследователей систем искусственного интеллекта. С 2019 года она также занимет первое место среди стран G7 по количеству посвящённых ИИ научных статей на душу населения. А количество поданных канадскими изобретателями патентов в области ИИ в 2022–2023 гг. увеличилось на 57 %.

Постоянный URL: http://servernews.ru/1115169
Система Orphus