Материалы по тегу: ии

06.11.2023 [23:56], Владимир Мироненко

NVIDIA определилась, куда поставлять предназначавшиеся для Китая ускорители A800

В связи с введением новых экспортных ограничений США на поставку в Китай современых технологий компания NVIDIA начала перераспределять в другие регионы поставки ускорителей A800, изначально созданных для Поднебесной взамен NVIDIA А100 (40 Гбайт) с учётом предыдущих ограничений по производительности и пропускной способности интерконнекта, установленных в октябре 2022 года.

Как сообщает ресурс CRN, на прошлой неделе американский производитель электроники PNY Technologies и системный интегратор Colfax International начали продвигать на рынке ускоритель NVIDIA A800 Active PCIe 40GB, который чип-мейкер охарактеризовал на своём сайте как «идеальную платформу для рабочих станций для ИИ, анализа данных и высокопроизводительных вычислений».

 Источник изображения: Acro

Источник изображения: Acro

Представитель PNY сообщил CRN, что компания с прошлого понедельника начала продажи нового ускорителя через партнёров в Северной Америке, Латинской Америке, Европе, Африке и Индии. Исключение составляют подсанкционные государства: Китай, Россия и большинство стран Ближнего Востока. В числе партнёров NVIDIA, которые также занимаются продвижением NVIDIA A800 Active PCIe 40GB, есть японские компании ASK Corp. и Elsa, а также индийская Acro.

 Источник изображения: NVIDIA

Источник изображения: NVIDIA

Введение ограничений власти США объясняют намерением помешать Китаю получить доступ к новейшим технологиям для укрепления своих вооружённых сил. Ограничения коснулись и недавно выпущенного ускорителя NVIDIA L40S, который в ряде задач является неплохой альтернативой A100, а также чипов Intel и AMD. Ранее газета The Wall Street Journal сообщила, что из-за санкций NVIDIA пришлось отменить заказы на поставку ускорителей китайским фирмам в следующем году на сумму более $5 млрд.

 Источник: NVIDIA

Источник: NVIDIA

Следует уточнить, что NVIDIA A800 40 GB Active представляет собой двухслотовую PCIe-карту с активным охлаждением, но ускоритель A800 также предлагался в форм-факторе SXM. Ускоритель имеет 40 Гбайт памяти HBM2 с ПСП на уровне 1,5 Тбайт/с, а также поддерживает объединение двух карт посредством мостика NVLink, пропускная способность которого в угоду санкциям была урезана с 600 до 400 Гбайт/с. TDP составляет 240 Вт.

Постоянный URL: http://servernews.ru/1095550
06.11.2023 [23:07], Руслан Авдеев

Прожорливый ИИ: Siemens потратит сотни миллионов долларов на развитие в США производства электротехнического оборудования для ЦОД

Немецкий техногигант Siemens AG намерен вложить $510 млн в строительство новых производственных мощностей в США, в том числе на возведение завода для выпуска электрооборудования в Техасе. По данным Bloomberg, инвестиции предназначены для развития сферы ЦОД, а также организации выпуска полупроводников и аккумуляторов. Всего план предусматривает создание 1,7 тыс. рабочих мест.

Из общего бюджета на техасский завод в Форт-Уэрте (Fort Worth) намереваются потратить $150 млн. На предприятии будут выпускать оборудование для электроснабжения промышленных объектов и дата-центов — 700 человек из общего числа «новичков» будут работать именно там. Дополнительно компания инвестирует в два завода по выпуску электротехнической продукции в Техасе и в Калифорнии. Наконец, как сообщает пресс-служба Siemens, ещё $220 млн выделили на создание производства в сфере ж/д в Северной Каролине, строительство этого объекта уже идёт.

Триггером для дополнительных вложений в промышленность США стал бум спроса на инфраструктурные решения, связанные с ИИ-системами, а также принятие в США значимых стимулирующих мер для переманивания туда техногигантов со всего мира. По данным Siemens, основной целью инвестиций является поддержка индустрии ЦОД вообще и площадок для больших языковых моделей (LLM) в частности.

 Источник изображения: Siemens

Источник изображения: Siemens

В США производители буквально выстроились в очередь за субсидиями, выделение которых предусмотрено принятым в прошлом году Законом о чипах. Принятый тогда же Закон о снижении инфляции тоже предусматривает субсидирование локализации в США цепочек поставок, связанных с выпуском электромобилей и проектами устойчивой энергетики.

Siemens выделила средства на развитие бизнеса в США в рамках более масштабного плана по расширению высокотехнологичного производства по всему миру, который предусматривает инвестиции в объёме €2 млрд. Так, новый завод будет построен в Сингапуре, а в Китае — модернизирован уже имеющийся. Но больше всего средств компания потратит дома, в Германии — на расширение производства и кампуса в Баварии уйдёт €1 млрд.

Постоянный URL: http://servernews.ru/1095541
03.11.2023 [22:48], Владимир Мироненко

Llama 2 в хорошие руки: Dell и Meta✴ предложили готовый программно-аппаратный комплекс для локального развёртывания ИИ

Dell и Meta предложили совместную разработку для повышения эффективности работы компаний в области генеративного ИИ, основанную на использовании большой языковой модели Meta Llama 2 и инфраструктуры Dell.

Запуск таких приложений генеративного ИИ, как чат-боты, виртуальные помощники, в том числе для написания кода, предполагает обучение моделей на собственных данных компаний. Однако решения в публичных облаках хотя и удобны, часто имеют определённые ограничения, включая риски безопасности, связанные с суверенитетом данных, а также непредсказуемые затраты и проблемы с соблюдением регуляторных требований.

 Источник изображения: Dell

Источник изображения: Dell

Локальное развёртывания открытых больших языковых моделей (LLM) вроде Llama 2 обеспечивает клиентам предсказуемые затраты и полный контроль над своими данными, снижая риск для безопасности и утечки интеллектуальной собственности, а также обеспечивая соответствие нормативным требованиям, говорит Dell. Решения Dell Generative AI Solutions вместе с Dell Validated Design for Generative AI предлагают клиентам готовый, предварительно протестированный программно-аппаратный, специально созданный для работы с генеративным ИИ.

 Источник изображения: Dell

Источник изображения: Dell

Теперь же Dell в сотрудничестве с Meta расширила свой портфель предложений для работы с генеративным ИИ — клиентам доступно упрощённое развёртывание и тюнинг ИИ-моделей Meta Llama 2 от Meta в локальной среде. Решение Dell Validated Design for Generative AI вместе с Llama 2 предоставляет компаниям готовую инфраструктуру, ПО и сервисы Dell для оптимизации развёртывания и управления локальными ИИ-проектами. Llama 2 протестирована и проверена Dell, в том числе при работе с (SFT), LoRA и p-tuning на моделях с 7, 13 и 70 млрд параметров

Благодаря руководству по развёртыванию и настройке компании смогут быстро запустить свою ИИ-инфраструктуру и использовать Llama 2 с большей предсказуемостью. В частности, доступны анализ использования памяти, задержек и эффективности LLM. «Наша цель — стать предпочтительным поставщиком локальной инфраструктуры для клиентов, развёртывающих Llama 2, и предоставить нашим клиентам лучшие в своём классе генеративные решения ИИ», — сообщила компания. Аппаратная основа включает серверы PowerEdge XE9680, а также PowerEdge R760xaNVIDIA L40S).

Постоянный URL: http://servernews.ru/1095453
03.11.2023 [01:01], Владимир Мироненко

В Великобритании появится ИИ-суперкомпьютер Dawn, разработанный Dell, Intel и Кембриджским университетом

Dell Technologies, Intel и Кембриджский университет объявили о создании в Великобритании разработанного совместными усилиями суперкомпьютера Dawn. Запуск будет осуществляться в два этапа. Первый будет выполнен в течение двух месяцев, то есть до конца года. На втором этапе, который буде завершён в 2024 году, производительность Dawn будет увеличена в десять раз, будет завершена в следующем году. Подробные характеристики Dawn будут объявлены на SC23 в этом месяце.

Суперкомпьютер Dawn установлен в лаборатории Cambridge Open Zettascale Lab. Как сообщает Dell, это будет самое мощное суперкомпьютерное ИИ-облако на базе OpenStack, разработанное совместно с британской SME StackHPC. Машина использует серверы Dell PowerEdge XE9640 с процессорами Sapphire Rapids и ускорителями Max. Всего задействовано более 1 тыс. ускорителей.

Платформа Scientific OpenStack с открытым исходным кодом обеспечит полностью оптимизированную для ИИ и моделирования облачную HPC-среду. Отмечена и поддержка Intel oneAPI для гетерогенных вычислений. Предполагается, что суперкомпьютер будет использоваться для выполнения сложных вычислительных задач в области академических и промышленных исследований, здравоохранения, инжиниринга и моделирования климата.

 Изображение: Intel

Изображение: Intel

В следующем году в Великобритании также будет построен суперкомпьютер Isambard-AI, который вместе с Dawn будет включён в проект AI Research Resource (AIRR), созданный британским правительством для оказания помощи национальным разработчикам ИИ. Isambard-AI и Isambard-3 будут построены HPE с использованием Arm-чипов NVIDIA Grace и Grace Hopper. При этом и Dell, и HPE одновременно заявили, что именно их детища будут самыми быстрыми ИИ-суперкомпьютерами в стране.

Постоянный URL: http://servernews.ru/1095415
02.11.2023 [23:02], Андрей Крупин

Вышла новая версия защитного комплекса «Сакура» с поддержкой VPN Check Point

Компания «ИТ-Экспертиза» сообщила о выпуске новой версии программного комплекса информационной безопасности «Сакура» 2.32.

«Сакура» обеспечивает контроль доступа к корпоративным ресурсам, мониторинг состояния защищённости рабочих мест на основе политик, а также защиту используемых сотрудниками устройств как в периметре организации, так и при удалённом подключении к IT-инфраструктуре предприятия. В числе особенностей платформы — наличие инструментов поведенческого анализа пользователей с помощью алгоритмов машинного обучения и преднастроенных профилей безопасности рабочих мест с учётом требований российского законодательства. Продукт совместим с операционными системами Windows, macOS, Linux (включая отечественные Astra Linux, «Ред ОС» и Alter OS) и поддерживает интеграцию с VPN-провайдерами.

 Архитектура программного комплекса «Сакура» (источник изображения: it-expertise.ru)

Архитектура программного комплекса «Сакура» (источник изображения: it-expertise.ru)

Обновлённый комплекс «Сакура» 2.32 дополнился поддержкой VPN Check Point, новым механизмом исполнения скриптов на стороне сервера и средствами управления подключением по SSH к защищаемым устройствам (аналогично подключениям по RDP). Доработкам также подверглись механизм сбора данных о работе пользователя на рабочем месте, модуль генерации отчётов, API платформы, пользовательский интерфейс и различные компоненты системы.

Платформа «Сакура» включена в единый реестр российских программ для электронных вычислительных машин и баз данных Минцифры России и может использоваться в проектах по импортозамещению ПО.

Постоянный URL: http://servernews.ru/1095412
02.11.2023 [21:49], Руслан Авдеев

Британия получит 200-Пфлопс ИИ-суперкомпьютер Isambard-AI на гибридных Arm-чипах NVIDIA GH200

Правительство Великобритании о выделении £225 млн ($273 млн) на строительство самого мощного в стране суперкомпьютера Isambard производительностью более 200 Пфлопс в FP64-вычислениях и более 21 Эфлопс в ИИ-задачах. Как сообщает The Register, новая машина на базе тысяч гибридных Arm-суперчипов NVIDIA Grace Hopper (GH200) разместится в Бристольском университете и будет построена HPE.

Ожидается, что машина будет введена в эксплуатацию в следующем году и поможет в выполнении самых разных задач, от автоматизированной разработки лекарств до анализа климатических изменений, от изучения и внедрения нейросетей в робототехнике до задач, связанных с обеспечением национальной безопасности и обработкой больших данных. Isambard-AI войдёт в десятку самых быстрых суперкомпьютеров мира. Пока что самый быстрый суперкомпьютер Великобритании — это 20-Пфлопс система Archer2, занимающая 30-ю позицию в рейтинге TOP500 и введённая в строй всего пару лет назад.

Isambard-AI получит 5448 гибридных чипов NVIDIA GH200 GraceHopper с 96/144 Гбайт HBM-памяти. Используется платформа HPE Cray EX с интерконнектом Slingshot 11 и СЖО. 25-Пбайт хранилище использует СХД Cray ClusterStor E1000. Система будет размещена в ЦОД с автономным охлаждением, а система утилизации избыточного тепла позволит обогревать близлежащие здания. Первыми выгодоприобретателями проекта Isambard-AI станут команды Frontier AI Task Force и AI Safety Institute, намеренные смягчить угрозу со стороны ИИ национальной безопасности Великобритании.

 Изображение: HPE

Изображение: HPE

Компанию Isambard-AI составит ранее анонсированный Arm-суперкомпьютер Isambard-3, который также построит HPE. Эту машину введут в эксплуатацию следующей весной, она обеспечит британским учёным ранний доступ к вычислительным мощностям на первом этапе реализации проекта Isambard-AI. Isambard-3 получит 384 суперчипа NVIDIA Grace, а его пиковое быстродействие в FP64-вычислениях составит 2,7 Пфлопс.

Всего в различные ИИ-проекты британские власти вложат порядка £900 млн ($1,1 млрд). В частности, вместе с Isambard-AI был объявлен и суперкомпьютер Dawn, который разместится в Кембридже. Хотя ранее NVIDIA описывала Isambard-AI как самый быстрый в стране, создатели Dawn утверждают, что быстрейшим будет именно он. Система будет полагаться на серверы Dell PowerEdge XE9640 с процессорами Sapphire Rapids и ускорителями Max.

Постоянный URL: http://servernews.ru/1095397
02.11.2023 [17:15], Владимир Мироненко

Слушай мою команду: Nokia представила технологию Natural-Language Networks для голосового управления сетями

Nokia Bell Labs представила технологию Natural-Language Networks («Сети на естественном языке»), которая позволит управлять сетями с помощью простой речи или текстовых подсказок. Как утверждает компания, благодаря использованию новой технологии сети будут «понимать» намерения пользователей и обладать достаточным интеллектом, чтобы автономно действовать в соответствии с этими намерениями.

Компания сообщила, что Natural-Language Networks упростит управление сетями, а также позволит гораздо лучше реагировать на потребности конечных пользователей. Используя ИИ, технология позволит поставщикам услуг предоставлять и поддерживать идеальную конфигурацию сети для любого клиента в любой момент, когда ему это потребуется.

 Источник изображения: Nokia

Источник изображения: Nokia

Кроме того, Natural-Language Networks постоянно совершенствуется, обучаясь на выполняемых операциях и всё глубже оптимизируя сеть с каждым последующим запросом. По мере накопления знаний Natural-Language Networks начинает предвидеть потребности в услугах и приложениях и самостоятельно адаптируется к ним без какого-либо вмешательства человека.

Чаба Вулкан (Csaba Vulkan), руководитель исследований в области автоматизации сетевых систем в Nokia Bell Labs, отметил, что операторам не нужно будет изучать технические каталоги или сложные описания API при настройке сетей. Для этого будет достаточно команды «Оптимизировать сеть в местоположении X для услуги Y». С помощью голосового управления можно будет оптимизировать беспроводную сеть, например, на заводе для автоматизации роботов или для согласования потока загрузок в социальные сети.

Решение Natural-Language Networks является компонентом новой исследовательской инициативы Nokia Bell Labs под названием UNEXT, которая направлена на изменение стека сетевого ПО и систем. Ожидается, что UNEXT сделает процесс безопасной интеграции компонентов с сетью простой задачей, превратив саму сеть в операционную систему.

Постоянный URL: http://servernews.ru/1095359
02.11.2023 [01:35], Владимир Мироненко

Бронь на ИИ: AWS предложила клиентам заранее заказывать кластеры с ускорителями NVIDIA H100

Облачный провайдер Amazon Web Services (AWS) объявил о запуске новой модели потребления EC2 Capacity Blocks for ML, предназначенной для предприятий, желающих зарезервировать доступ к ускорителям вычислений для обработки кратковременных рабочих нагрузок ИИ.

Решение Amazon EC2 Capacity Blocks for ML позволяет клиентам зарезервировать доступ к «сотням» ускорителей NVIDIA H100 в кластерах EC2 UltraClusters, которые предназначены для высокопроизводительных рабочих нагрузок машинного обучения. Клиенты просто указывают желаемый размер кластера, дату начала и окончания доступа. Таким образом повышается предсказуемость доступности ИИ-ресурсов и в то же время нет необходимости оплачивать доступ к мощностям, когда они не используются. AWS тоже в выигрыше, поскольку такой подход позволяет более полно использовать имеющиеся ресурсы.

 Источник изображения: AWS

Источник изображения: AWS

В рамках EC2 Capacity Blocks предлагаются кластеры, включающие от 1 до 64 инстансов EC2 P5 с подключением на базе Elastic Fabric Adapter (EFA) второго поколения. Кластеры можно зарезервировать на срок от 1 до 14 дней, но не позднее чем за восемь недель до начала использования. Это делает их идеальными для обучения и тюнинга ИИ-моделей, краткосрочных экспериментов или для обработки пикового потока запросов, например, при запуске нового продукта, сообщила AWS.

Хольгер Мюллер (Holger Mueller), аналитик компании Constellation Research Inc., отметил, что креативный подход AWS позволяет максимизировать эффективность имеющихся ресурсов ускорителей, которые сейчас пользуются пиковым спросом, а доступ к ним обходится дорого. По его словам, подход заимствован из эпохи мейнфреймов, и впервые был использован ещё в 1970-х годах, когда доступ распределялся по времени между сотнями пользователей с различными рабочими нагрузками.

Клиенты могут использовать консоль AWS, CLI или SDK, чтобы найти и зарезервировать доступные кластеры. При использовании EC2 Capacity Blocks клиенты платят только за то время, которое они зарезервировали. Решение доступно в регионе AWS Восток США (Огайо). В дальнейшем число регионов и локальных зон AWS с доступностью этого решения будет расширено.

Постоянный URL: http://servernews.ru/1095352
01.11.2023 [13:43], Руслан Авдеев

Из-за нехватки ИИ-ускорителей NVIDIA южнокорейский IT-гигант Naver Corporation вынужден перейти на CPU Intel

Спрос на ИИ-ускорители NVIDIA так высок, что производитель чипов не может удовлетворить его в полной мере. В результате, как сообщает The Korean Economic Daily, создатель ведущего поискового портала Южной Кореи — компания Naver Corporation — для ряда ИИ-нагрузок перешла с использования ускорителей NVIDIA на Intel Xeon Sapphire Rapids, как из-за дефицита, так и по причине роста цен на продукцию.

По данным СМИ, Naver Corp. начала использовать решения Intel для ИИ-серверов картографического сервиса Naver Place. Корейский IT-гигант использует ИИ-модель для распознавания ложных данных в случаях, когда пользователи ведут поиск по ключевым запросам вроде «ближайшие рестораны» в приложении Naver Map. Ранее именно продукты NVIDIA применялись для обработки таких данных. Впрочем, речь идёт в первую очередь об инференсе, а для обучения моделей компания всё равно вынуждена использовать ИИ-ускорители.

Приобрести ИИ-ускорители NVIDIA, включая H100, стало очень сложно, а цены на последние с начала года выросли в Южной Корее вдвое. Но даже если у вас есть средства, время с момента размещения заказа на ускорители до их получения уже увеличилось до 52 недель, так что быстро обновить парк серверов не выйдет. При этом ускорители способны справляться с ИИ-задачами на порядок быстрее CPU.

 Источник изображения: Naver

Источник изображения: Naver

Как утверждают отраслевые эксперты, Intel усовершенствовала технологии работы с ИИ-системами, желая угодить клиентам, ищущим альтернативы ускорителям NVIDIA. Например, Naver в течение месяца тестировала ИИ-сервер на основе процессоров компании перед его вводом в эксплуатацию. Вероятно, южнокорейский IT-гигант продолжит использовать CPU Intel новых поколений.

По мнению экспертов, сотрудничество Naver и Intel может привести к ослаблению позиций NVIDIA на рынке чипов для ИИ-вычислений. По некоторым данным, Microsoft объединила усилия с AMD, чтобы помочь последней в экспансии на рынке ИИ-процессоров. Компании сотрудничают для конкуренции с NVIDIA, контролирующей около 80 % мирового рынка ИИ-чипов.

Постоянный URL: http://servernews.ru/1095308
31.10.2023 [20:58], Руслан Авдеев

Voltage Park закупила 25 тыс. ускорителей NVIDIA H100, чтобы сбалансировать спрос и предложение на дефицитные ресурсы для ИИ

Провайдер ИИ-инфраструктуры Voltage Park объявил о приобретении 24 тыс. ускорителей NVIDIA H100. Как сообщает The Register, компания намерена сдавать их в аренду корпоративным клиентам, небольшим стартапам и исследовательским структурам уже в следующем году. Первые счастливчики в лице Imbue уже получили доступ, а формирование кластеров для Character.ai и Atomic AI находится на финальной стадии.

В компании подчеркнули, что мало кто понимает, насколько недостаток вычислительных мощностей вредит инновациям — для реализации многих проектов в сфере ИИ и машинного обучения требуется или ждать месяцы своей очереди для доступа к ускорителям, или, если позволяет бюджет, платить доступ здесь и сейчас заоблачные суммы. Компания рассчитывает сбалансировать спрос и предложение.

 Источник изображения: NVIDIA

Источник изображения: NVIDIA

Voltage Park привлекла $500 млн. Ускорители купят у некоммерческой организации, поддерживаемой миллиардером Джедом Маккалебом (Jed MacCaleb), сколотившим состояние на крипторынке, а теперь заинтересовавшимся космическими проектами. Внедрение нового оборудования намечено в Техасе, Вирджинии и Вашингтоне. Компания намерена расширить портфолио долгосрочных и краткосрочных тарифов, а в начале следующего года появится возможность даже почасовой аренды мощностей отдельных ускорителей.

Доступ к одному ускорителю у Voltage Park будет стоить от $1,89/час, но полные условия, в том числе особенности инфраструктуры, не раскрываются. Для сравнения — инстанcы AWS EC2 P5 с восемью NVIDIA H100 обойдутся в $98,32/час при доступе по запросу или же в $43,16/час при заключении контракта на три года. Voltage Park по запросу будет предоставлять мощности от 1 до 8 ускорителей, для доступа к 8–248 H100 придётся подписать краткосрочный договор аренды. Наконец, годовой контракт даёт доступ к 4088 ускорителям ($67,7 млн/год).

Это далеко не единственная компания, выросшая на фоне высокого спроса на продукцию NVIDIA и AMD. Например, CoreWeave при сотрудничестве с NVIDIA построила собственный кластер, включающий более 22 тыс. ускорителей H100.

Постоянный URL: http://servernews.ru/1095275

Входит в перечень общественных объединений и религиозных организаций, в отношении которых судом принято вступившее в законную силу решение о ликвидации или запрете деятельности по основаниям, предусмотренным Федеральным законом от 25.07.2002 № 114-ФЗ «О противодействии экстремистской деятельности»;

Система Orphus