Материалы по тегу: облако

21.05.2025 [10:39], Владимир Мироненко

GPU-маркетплейс NVIDIA DGX Cloud Lepton упростит доступ к дефицитным ИИ-ускорителям

NVIDIA анонсировала GPU-маркетплейс NVIDIA DGX Cloud Lepton, которая позволит разработчикам со всего мира, создающим агентские и другие ИИ-приложения использовать NVIDIA Blackwell и другие модели ускорителей в глобальной сети партнёрских облаков (NCP): CoreWeave, Crusoe, Firmus, Foxconn, GMI Cloud, Lambda, Nebius, Nscale, Softbank и Yotta Data Services. Ожидается, что ведущие провайдеры облачных услуг и другие GPU-маркетплейсы также присоединятся к DGX Cloud Lepton.

Разработчики смогут использовать вычислительные мощности ускорителй в определённых регионах как для вычислений по требованию, так и на постоянной основе. «NVIDIA DGX Cloud Lepton свяжет нашу сеть глобальных поставщиков облачных GPU с разработчиками в сфере ИИ, — заявил основатель и генеральный директор NVIDIA Дженсен Хуанг (Jensen Huang). — Вместе с нашими NCP мы строим ИИ-фабрику планетарного масштаба».

По замыслу NVIDIA, платформа DGX Cloud Lepton поможет решить критическую задачу обеспечения разработчиков надёжными, высокопроизводительными ресурсами ускорителей путём унификации доступа к облачным ИИ-сервисам и мощностям собственных ускорителей. Платформа интегрирована с программным стеком NVIDIA, включая микросервисы NIM и NeMo, Blueprints и Cloud Functions.

 Источник изображений: NVIDIA

Источник изображений: NVIDIA

В числе основных преимуществ новой платформы компания назвала:

  • Повышенную производительность и гибкость: маркетплейс предлагает единый опыт разработки, обучения и инференса. Разработчики смогут приобретать здесь мощности ускорителей напрямую у участвующих провайдеров облачных услуг или использовать собственные вычислительные кластеры, что обеспечивает им большую гибкость и контроль.
  • Беспроблемное развёртывание: платформа позволяет развёртывать ИИ-приложения в мультиоблачных и гибридных средах с минимальной эксплуатационной нагрузкой, используя интегрированные сервисы для инференса, тестирования и обучения.
  • Гибкость и суверенитет: платформа предоставляет разработчикам быстрый доступ к ресурсам ускорителей в определённых регионах, что позволяет соблюдать требования суверенитета данных и требования к низкой задержке для чувствительных рабочих нагрузок.
  • Предсказуемую производительность: маркетплейс обеспечивает производительность, надёжность и безопасность корпоративного уровня, гарантируя единообразный пользовательский опыт.

А для самих провайдеров, участвующих в DGX Cloud Lepton, предоставляется ПО для управления, которое обеспечивает диагностику состояния ускорителей в реальном времени и автоматизирует анализ первопричин возникших проблем, избавляя от ручной диагностики и сокращая время простоев.

NVIDIA также анонсировала инициативу Exemplar Clouds, предназначенную для стандартизации прозрачного сравнительного анализа облачной ИИ-инфраструктуры. Это предложение должно решить серьёзную проблему, с которой сталкиваются разработчики и предприятия, развёртывающие рабочие ИИ-нагрузки — прогнозирование эффективности, надёжности и ценовой эффективности облачной платформы. Exemplar Clouds использует NVIDIA DGX Cloud Benchmarking, комплексный набор инструментов и рекомендаций для оптимизации производительности облачных ИИ-нагрузок и количественной оценки связи между стоимостью и производительностью.

Постоянный URL: http://servernews.ru/1123191
19.05.2025 [19:36], Руслан Авдеев

Microsoft «провалила» облачную реформу в Европе

Несмотря на свои обещания, Microsoft всё ещё не создала продукта, удовлетворяющего требованиям соглашения с ассоциацией европейских облачных провайдеров CISPE. В рамках действующей под эгидой CISPE инициативы European Cloud Competition Observatory (ECCO) было решено, что относительно действий компании всё ещё «существуют опасения, хотя предложены меры для исправления», сообщает Datacenter Dynamics.

В июле 2024 года Microsoft заключила антимонопольное соглашение с CISPE, утверждавшей, что условия контрактов, предлагаемых компанией, вредят европейскому облачному бизнесу. Чтобы замять скандал, Microsoft заплатила €20 млн ($21,7 млн), а также согласилась разработать специальную версию платформы Azure Stack HCI (Azure Local) для европейских облачных провайдеров, которая позволит участникам CISPE запускать ПО Microsoft на их собственных облачных мощностях по ценам, эквивалентным предлагаемым для Microsoft Azure. Попытки Google «перекупить» мнение участников альянса не увенчались успехом.

Дополнительно компания согласилась компенсировать членам CISPE упущенную за последние два года выручку, связанную со стоимостью лицензирования её ПО. Инициативу ECCO учредили для того, чтобы отслеживать динамику выполнения обязательств. В первом отчёте ECCO, опубликованном в феврале 2025 года, компания также получила «янтарный» статус — по мнению альянса, Microsoft «отклонилась от курса», а Azure Local всё ещё не отвечает оговоренным требованиям.

 Источник изображения: Towfiqu barbhuiya/unsplash.com

Источник изображения: Towfiqu barbhuiya/unsplash.com

Новейший доклад констатирует, что и Microsoft, и CISPE согласны с тем, что Azure Local не обеспечит полного выполнения соглашения. В связи с этим стороны завершили «первую фазу» работ, чтобы приступить к поиску альтернативного решения. До 10 июля Microsoft должна представить новое предложение. Стоит отметить, что недавно Microsoft и сама вступила в CISPE, желая активнее влиять на европейский облачный рынок, а AWS, отчасти в ответ на это, покинула организацию. Кроме того, Microsoft и AWS попали в поле зрения британского регулятора CMA.

В группе Open Cloud Coalition (OCC), фактически созданной Google и призванной обеспечить конкуренцию на облачном рынке, заявили, что Microsoft неоднократно ловили за несоблюдением обещаний. В OCC считают, что текущая ситуация ничем не отличается от прошлых, а инициатива ECCO никоим образом не заменит официальное антимонопольное расследование. У заинтересованных компаний и сформированной ими структуры не хватает полномочий, чтобы призвать кого-либо к ответственности, поэтому облачный рынок остро нуждается во вмешательстве регуляторов, поскольку использование ПО Microsoft в сторонних облаках кратно дороже, чем в Azure.

Постоянный URL: http://servernews.ru/1123060
19.05.2025 [14:48], Владимир Мироненко

HPE предложила клиентам VMware новые решения с Morpheus VM Essentials

Компания Hewlett Packard Enterprise (HPE) объявила о новых предложениях, направленных на упрощение модернизации гибридных ИТ-решений, а также повышение киберустойчивости, доступности данных и энергоэффективности для клиентов, использующих хранилища.

В августе прошлого года HPE завершила приобретение создателя облачной платформы управления Morpheus Data, который поставлял ПО, используемое в подписных предложениях HPE GreenLake. Компания объединила функции Morpheus со своим собственным предложением виртуализации на основе KVM для создания VM Essentials в стремлении привлечь клиентов VMware, недовольных политикой Broadcom. Решение может работать автономно или на собственных системах HPE и позволяет управлять не только виртуальными машинами HPE, но и традиционными (VMware) ВМ.

 Источник изображений: HPE

Источник изображений: HPE

Следующим шагом стало объявление об интеграции HPE Morpheus VM Essentials с HPE Private Cloud Business Edition, что позволяет снизить до 90 % стоимость лицензий на ВМ с поддержкой нескольких гипервизоров и самостоятельным потреблением облачных ресурсов. Эта экономия добавляется к предполагаемому снижению совокупной стоимости владения (TCO) в 2,5 раза, обеспечиваемому дезагрегированной гиперконвергентной инфраструктурой (dHCI). HPE Private Cloud Business Edition, доступная в формате dHCI или HCI, предоставляет организациям гибкость в выборе оптимальной архитектуры для рабочих нагрузок ВМ как на периферии, так и в ЦОД, говорит HPE.

Семейство ПО HPE Morpheus, включающее решения HPE Morpheus VM Essentials для виртуализированных рабочих нагрузок и HPE Morpheus Enterprise Software для унифицированного управления облаками, теперь находится в открытом доступе. Обе версии включают гипервизор HVM от HPE и лицензируются по сокетам для снижения совокупной стоимости владения. Клиенты VM Essentials также смогут перейти на полную версию HPE Morpheus Enterprise.

Как сообщает компания, решение VM Essentials разработано для глобального развёртывания и поддерживается комплексными корпоративными службами, охватывающими всё, от инфраструктуры до рабочих нагрузок. При этом используется ИИ на всех этапах — от настройки до эксплуатации. С его помощью HPE автоматизирует настройку инфраструктуры и управление жизненным циклом платформы Business Edition. Возможности AIOps позволяют прогнозировать и предотвращать до 86 % операционных проблем, высвобождая ИТ-ресурсы, а также повышая производительность и надежность.

Ресурс Blocks & Files отметил, что софт Morpheus Enterprise позволяет ИТ-отделу клиента стать внутренним поставщиком ИТ-услуг. Он имеет графический интерфейс и API, поддерживает подход инфраструктура-как-код или подключаемые модули ITSM, и позволяет управлять как собственными средами KVM и Kubernetes HPE, так и другими приложениями на физическом, локальном и публичном облачных ресурсах.

Продукт не зависит от гипервизора, оборудования и облака и интегрируется с окружающими наборами инструментов, такими как ServiceNow, DNS, системами резервного копирования и инструментами оркестрации задач для сквозного управления зависимостями приложений (end-to-end). HPE утверждает, что он ускоряет подготовку нагрузок до 150 раз, сокращает расходы на облако до 30 % и снижает риски за счёт детального управления доступом на основе ролей (RBAC). Commvault станет первым партнером экосистемы VM Essentials, который будет поддерживать резервное копирование и восстановление виртуальных машин на основе образов с предстоящим релизом в мае.

Morpheus Enterprise и VM Essentials недавно были протестированы для работы на серверах Dell PowerEdge и массивах NetApp AFF, а также на серверах HPE ProLiant Compute Gen11 и Gen12. По данным HPE, комбинация VM Essentials и HPE Aruba Networking CX 10000 снижает совокупную стоимость владения до 48 %, увеличивает производительность до 10 раз, обеспечивает микросегментацию, ускорение благодаря DPU и повышенную безопасность. VM Essentials также обеспечивает простое, детализированное управление хранилищем HPE Alletra Storage MP B10000.

HPE Advisory and Professional Services также теперь предлагает услуги модернизации виртуализации с аналитикой затрат, инструментами миграции, схемами оркестрации и интеграцией конвейера DevOps. HPE Services предоставляет специализированную оценку, комплексный процесс для создания надёжных зон посадки, а также услуги по перенастройке рабочих нагрузок, модернизации инфраструктуры, миграции данных, обучению членов команды и управлению инфраструктурой для снижения накладных расходов.

ПО Morpheus Enterprise уже доступно как отдельное ПО и в составе HPE Private Cloud Business Edition с Morpheus VM Essentials. Новые системы Business Edition с HPE SimpliVity будут доступны в III квартале. Интеграция ПО Morpheus для Alletra Storage MP B10000 доступна уже сейчас, для HPE Aruba Networking CX 10000 — в июне.

Постоянный URL: http://servernews.ru/1123046
19.05.2025 [11:29], Сергей Карасёв

ИИ-облако TensorWave с ускорителями AMD получило ещё $100 млн, в том числе от самой AMD

Компания TensorWave, создающая облачную ИИ-платформу на ускорителях AMD, объявила о проведении раунда финансирования Series A, в ходе которого получено $100 млн. Инвестиционную программу возглавили Magnetar и AMD Ventures при участии Maverick Silicon, Nexus Venture Partners и Prosperity7.

В апреле 2024 года TensorWave начала развёртывание облачной ИИ-системы с ускорителями Instinct MI300X. Кроме того, внедряются решения Instinct MI325X. Платформа TensorWave предполагает применение прямого жидкостного охлаждения (DLC) и высокопроизводительного хранилища. Утверждается, что при решении определённых задач, таких как запуск крупных ИИ-моделей в FP16-формате, ускорители AMD обеспечивают преимущества перед изделиями NVIDIA благодаря большему объёму памяти. В результате, ускоряется внедрение сервисов и снижается стоимость услуг для заказчиков.

В конце прошлого года стартап TensorWave привлёк $43 млн на закупку ускорителей AMD. В раунде финансирования приняли участие Maverick Capital, Translink Capital, Javelin Venture Partners, Granite Partners и AMD Ventures. Новое финансирование в размере $100 млн по срокам совпало с развёртыванием 8192 ускорителей Instinct MI325X для ИИ-кластера в дата-центре в Тусоне (Аризона, США).

 Источник изображения: TensorWave

Источник изображения: TensorWave

Полученные средства, как ожидается, будут способствовать развитию бизнеса TensorWave, расширению штата и ускорению создания облачной платформы на базе Instinct MI325X. Рынок инфраструктуры ИИ переживает беспрецедентный рост: по оценкам, к 2027 году затраты в данном секторе превысят $400 млрд. Аналитическая фирма Fortune Business Insights подсчитала, что объём мирового рынка ИИ в целом в 2024 году достиг $233 млрд. Прогнозируется, что показатель увеличится примерно до $1,7 трлн долларов к 2032 году.

«Финансирование в размере $100 млн поддерживает миссию TensorWave по демократизации доступа к передовым вычислительным ресурсам. Кластер из 8192 ускорителей Instinct MI325X — это только начало», — сказал Даррик Хортон (Darrick Horton), генеральный директор TensorWave.

Постоянный URL: http://servernews.ru/1123042
16.05.2025 [13:10], Сергей Карасёв

Synology выпустила NAS BeeStation Plus для создания персонального облачного хранилища

Компания Synology анонсировала «настольное» устройство BeeStation Plus, на базе которого может быть сформировано персональное облачное хранилище для небольших рабочих групп. Новинка представляет собой альтернативу публичным облакам, не требуя регулярной оплаты подписки, говорит компания.

В основу BeeStation Plus положен процессор Intel Celeron J4125 поколения Gemini Lake Refresh (4C/4T; 2,0–2,7 ГГц). Объём оперативной памяти DDR4 составляет 4 Гбайт без возможности расширения. В оснащение изначально включён жёсткий диск Synology HAT3310 формата LFF вместимостью 8 Тбайт со скоростью вращения шпинделя 7200 об/мин.

Устройство располагает сетевым портом 1GbE RJ45, интерфейсами USB Type-A 3.2 Gen1 и USB Type-C 3.2 Gen1. BeeStation не имеет адаптера Wi-Fi. При этом USB-порты предназначены исключительно для подсоединения внешних накопителей. Габариты составляют 148,0 × 62,6 × 196,3 мм, масса — 1,2 кг. Задействована система активного охлаждения с вентилятором и уровнем шума примерно 21 дБА при обычной нагрузке. Диапазон рабочих температур — от 0 до +40 °C. Энергопотребление — 14,75 Вт.

 Источник изображения: Synology

Источник изображения: Synology

Платформа BeeStation Plus, как отмечает Synology, объединяет облачные сервисы, такие как Google Drive, Dropbox и OneDrive, а также внешние накопители и файлы компьютера в одном интеллектуальном рабочем пространстве. Устройство автоматически выполняет резервное копирование и синхронизацию данных со смартфона и ПК. Дополнительно можно воспользоваться сервисом BeeProtect, который позволяет выполнять резервное копирование библиотеки BeeStation Plus в облако. Осуществлять настройку системы можно через браузер на компьютере или смартфоне.

Постоянный URL: http://servernews.ru/1122927
15.05.2025 [12:02], Руслан Авдеев

Oracle выделит $14 млрд на развитие ИИ и облака в Саудовской Аравии

Компания Oracle намерена инвестировать в расширение облачных ИИ-сервисов в Саудовской Аравии $14 млрд в течение следующих 10 лет, сообщает Datacenter Dynamics. Как заявила генеральный директор Oracle Сафра Кац (Safra Catz), Oracle поставляет Саудовской Аравии передовые облачные и ИИ-технологии «благодаря решительным действиям и сильному руководству президента и его администрации».

По мнению Кац, партнёрство со страной создаст новые возможности для её экономики, обеспечит прогресс в области здравоохранения и укрепит союз с Соединёнными штатами — это, как ожидается, создаст «волновой эффект мира и процветания» на Ближнем Востоке и в мире в целом, сообщает пресс-служба компании.

Подробности инвестиций не называются. У Oracle уже есть в Саудовской Аравии два облачных региона: Saudi Arabia West расположен в Джидде (Jeddah), Saudi Arabia Central — в Эр-Рияде (Riyadh) в ЦОД Center3. Первый из них запустили ещё в 2020 году, а второй, размещённый — в 2024-м. С октября 2021 года Oracle планирует создать третий регион в высокотехнологичном городе Неом (Neom), но пока на сайте Oracle регион остаётся в статусе «скоро».

 Источник изображения: Rabah Al Shammary/unsplash.com

Источник изображения: Rabah Al Shammary/unsplash.com

Новое обязательство компания приняла вскоре после того, как Oracle пообещала пятикратно увеличить инвестиции в Абу-Даби (Abu Dhabi, ОАЭ). Всего Oracle распоряжается пятью действующими облачными регионами на Ближнем Востоке и в соседней Северной Африке, ещё четыре находятся в стадии строительства. Совсем недавно США отменили спорные ограничения на экспорт ИИ-ускорителей в другие страны, поэтому сотрудничество с Ближним Востоком обещает стать намного более плодотворным.

Постоянный URL: http://servernews.ru/1122855
14.05.2025 [23:27], Руслан Авдеев

США отменили спорные ограничения на экспорт ИИ-ускорителей в другие страны, но запретили им покупать ускорители Huawei

Вызвавшие немало споров «Правила распространения ИИ» (AI Diffusion rules), которые должны были ограничить продажу американских ускорителей уже на этой неделе, официально отменены президентом США Дональдом Трампом (Donald Trump), сообщает The Register.

Министерство торговли США выполнило данное ранее обещание отменить экспортный контроль для большинства стран на том основании, что он «подавлял бы американские инновации и обременял бы компании новыми нормативными требованиями». В заявлении министерства также подчёркивалось, что новые правила подорвали бы дипломатические отношения Соединённых Штатов с десятками стран.

Рамочную программу опубликовали в последние дни правления администрации Байдена — она была направлена на ограничение продаж ИИ-чипов буквально большинству стран мира, за исключением нескольких избранных союзников — в число счастливчиков не вошли даже многие страны НАТО. Предполагалось, что новые ограничения заставят «пострадавшие» страны серьёзно относиться к контролю возможного реэкспорта или контрабанды ИИ-чипов и оборудования в недружественные страны.

 Источник изображения: Greg Bulla / Unsplash

Источник изображения: Greg Bulla / Unsplash

Хотя некоторые приветствовали ограничения, многие американские технологические компании выступили резко против новых правил, заявив, что страны, не получив ИИ-инфраструктуру от США, смогут получить её от Китая. В администрации Трампа разрабатывают собственный подход. Политики обещают защитить национальные интересы США, но подробностей пока очень мало.

Ранее Министерство торговли также выпустило документ, в котором предупредило об опасностях IaaS — многие компании закрывают глаза на то, что китайские разработчики ИИ-моделей работают со своими проектами в их облаках. Хотя покупать передовые чипы структурам из КНР давно запрещено, им никто не мешает арендовать ИИ-инфраструктуру, в том числе в США.

Во вторник Бюро промышленности и безопасности (BIS) Министерства торговли США также выпустило разъяснение к Правилам экспортного контроля (EAR), в котором предупредило, что производители чипов могут подпадать под экспортные ограничения при продажах иностранным облачным провайдерам. В этих правилах уже предусмотрен запрет гражданам США, а также поставщикам облачных услуг и операторам ЦОД без разрешения и сознательно предоставлять сервисы или заключать контракты, которые будут способствовать разработке ИИ-решений недружественным странами для целей военной разведки или создания оружия.

 Источник изображения: Dario Daniel Silva / Unsplash

Источник изображения: Dario Daniel Silva / Unsplash

В частности, в разъяснении указывается, что производителям также потребуется разрешение США на продажу чипов иностранным IaaS-провайдерам, если известно, что ускорители могут использоваться противниками США. Фактически поставщикам напомнили, что если таких провайдеров поймают на помощи в обучении моделей для китайских военных, за этим последует суровое наказание. Более того, США ужесточают контроль не только над новыми чипами для ИИ, но и над теми, что уже есть у иностранных компаний, если они могут быть использованы для разработки «враждебного» ИИ.

Наконец, в BIS зашли настолько далеко, что ограничили использование в любой точке мира ускорителей Huawei — наиболее производительной альтернативы чипам NVIDIA в Китае, поскольку, якобы, есть высокая вероятность того, что такие чипы сделаны с использованием американских технологий, но без лицензии.

Постоянный URL: http://servernews.ru/1122795
14.05.2025 [10:18], Руслан Авдеев

Окно в облака: Microsoft подготовила виртуальный тур по дата-центру компании

Microsoft создала специальный сайт, на котором любой желающий может принять участие в виртуальном туре по ЦОД, сообщает пресс-служба компании. Посетители смогут узнать особенности устройства дата-центров: от собственно зданий до серверов, сетей, ИИ-инфраструктуры и т.п. Virtual Datacenter Tour знакомит с дизайном, стоящим за более чем 300 ЦОД компании по всему миру.

Инфраструктура ЦОД касается едва ли не каждой сферы современной жизни, от онлайн-банкинга до удалённой работы, видеозвонков, социальных сетей и многого другого. ЦОД стоят за облаками, позволяя клиентам обходиться, полностью или частично, без собственных программно-аппаратных комплексов. Облака объединяют миллионы серверов и виртуальных машин, хранят данные и приложения, а также обеспечивают пользователей контентом и сервисами.

 Источник изображения: Microsoft

Источник изображения: Microsoft

ЦОД Microsoft вмещают тысячи серверов, включая резервные системы, и присутствие компании на рынке расширяется. Поскольку реальные экскурсии по ЦОД для большинства граждан запрещены по соображениям безопасности (за некоторыми забавными исключениями), в Microsoft организовали виртуальную 3D-копию дата-центра. При этом пользователи смогут воспользоваться ИИ-ботов, чтобы получить дополнительную информацию.

 Источник изображения: Microsoft

Источник изображения: Microsoft

Экскурсия доступна как владельцам компьютеров, так и мобильных устройств. Сайт регулярно пополняется новыми «помещениями» и контентом. Виртуальный ассистент, предоставляемый сервисом Azure Open AI, специально создан для ответов на многие вопросы по теме: об экоустойчивости Microsoft Cloud, технологиях охлаждения, системах безопасности, обеспечения надёжности работы и т. п.

Можно посетить виртуальную серверную и ознакомиться с новейшим оборудованием и комплектующими, вроде разработанных дома CPU Azure Cobalt или кастомных ИИ-ускорителей Azure Maia. Впрочем, в Azure доступны и решения других компаний-партнёров. Любознательные посетители смогут ознакомиться с электрооборудованием, включая аккумуляторы и резервные генераторы, и т.п.

Постоянный URL: http://servernews.ru/1122730
12.05.2025 [17:27], Владимир Мироненко

Облако.ру предлагает ИИ-системы, которые позволят запускать даже мощные ИИ-модели

Ведущий российский поставщик решений для облачной инфраструктуры Облако.ру предлагает различные специализированные интегрированные решения для обработки ресурсоёмких нагрузок, включая обучение и запуск ИИ-моделей. GPU-серверы, доступные в Облако.ру, отлично справляются со сложными задачами с использованием больших объёмов данных и вычислений. Использование услуг по аренде вычислительных мощностей позволяет избежать существенных капитальных затрат.

Главное отличие GPU от CPU заключается в его способности параллельно выполнять множество операций, распределяя задачи между своими ядрами, что предоставляет ему возможность выполнения громадных объёмов вычислений, лежащих в основе ИИ, в гораздо более короткие сроки и обеспечивает значительное преимущество в таких областях, как обработка изображений и видео, научное моделирование, машинное обучение, где используются большие наборы данных и сложные алгоритмы.

Изначально созданные для обработки изображений GPU стали крайне важными для ИИ-индустрии, позволяя обучать и развёртывать продвинутые ИИ модели, обеспечивающие широкие возможности в сфере ИИ — от распознавания изображений до обработки естественного языка. Благодаря ускорению процессов обучения и инференса использование серверных GPU позволяет разрабатывать и развёртывать модели ИИ быстрее и эффективнее, чего невозможно добиться, используя только классические CPU. А по мере роста сложности ИИ-моделей потребность в GPU будет только расти.

 Источник изображения: Облако.ру

Источник изображения: Облако.ру

Так, для локального запуска компактной версии популярной ИИ-модели DeepSeek R1 8B, разработанной посредством дистилляции нейросеть Llama 3.2 и демонстрирующей высокую эффективность в задачах текстовой генерации, обработки естественного языка, создания программного кода и анализа данных, потребуется система с 4 Гбайт VRAM (видеопамяти) для инференса с низкой и целочисленной точностью вычислений (FP8/INT8), 8 Гбайт VRAM для инференса с половинной точностью (FP16) и 16 Гбайт VRAM для инференса с полной точностью (FP32). Точность вычислений влияет на качество и скорость ответов ИИ-модели.

Если же использовать DeepSeek R1 8B в качестве основы для собственных моделей, ориентированных на конкретные бизнес-задачи, то при обучении с низкой и целочисленной точностью (FP8/INT8) потребуется система с 8 Гбайт VRAM, при обучении с половинной точностью (FP16) — с 16 Гбайт VRAM, а и при обучении с полной точностью (FP32) — с 32 Гбайт VRAM. С увеличением количества параметров модели, определяющих её «эрудицию» и знания о мире или предметной области, одновременно растут и требования к доступной памяти и вычислительной мощности GPU. Кроме того, т.н. размышляющие модели, к которым относится и семейство DeepSeek R1, тем лучше и оперативнее отвечают на запросы, чем больше им доступно ресурсов.

Предлагаемые Облако.ру системы позволяют запускать не только базовые модели уровня DeepSeek R1 8B, которым требуется 8–12 Гбайт VRAM, но и более мощные ИИ-модели, такие как DeepSeek R1 14B, которая подходит для большинства профессиональных рабочих процессов. DeepSeek R1 14B, содержащая 14 млрд параметров и созданая с помощью метода дистилляции модели Qwen 2.5, предназначена для решения сложных задач, требующих высокой точности и производительности, таких, как написание сложных текстов, анализ больших объёмов данных, написание кода уровня Senior и т.д. Для инференса с использованием DeepSeek R1 14B с низкой и целочисленной точностью (FP8/INT8) потребуется система с 7 Гбайт VRAM, с полной точностью (FP32) — с 28 Гбайт VRAM. Для обучения с низкой и целочисленной точностью (FP8/INT8) требуется система с 14 Гбайт VRAM, с половинной точностью (FP16) — с 28 Гбайт VRAM, с полной точностью (FP32) — с 56 Гбайт VRAM.

Облако.ру предлагает различные системы с серверными GPU, которые способны удовлетворить нужды практически любого заказчика. Доступны системы с самыми простыми ускорителями NVIDIA T4, с ускорителями среднего класса 3 × RTX6000 (суммарно 72 Гбайт) и с ускорителями топового уровня. К последним относятся конфигурации сразу с восемью PCIe-ускорителями с суммарным объёмом памяти 640 Гбайт, 1 Тбайт системной памяти и парой 24-ядерных AMD EPYC 9224. А для самых требовательных заказчиков предлагается платформа с восемью ускорителями, объединёнными быстрой шиной (900 Гбайт/с) и 1128 Гбайт VRAM, которые работают как единое целое. Компанию им составляют два 48-ядерных Intel Xeon Platinum 8558 и 2 Тбайт RAM. При этом во всех случаях речь идёт именно о физических серверах, что гарантирует полную доступность всех вычислительных ресурсов.

Постоянный URL: http://servernews.ru/1119103
09.05.2025 [12:31], Руслан Авдеев

AWS вложит $4 млрд в создание облачного региона в Чили

Amazon Web Services (AWS) намерена инвестировать в создание облачного региона в Чили $4 млрд до конца 2026 года. Вложения поддержат строительство, подключение к коммуникациям, а также непосредственно работу и обслуживание ЦОД в стране, сообщает Datacenter Dynamics. На момент запуска регион будет иметь три зоны доступности. Сейчас у компании есть 114 зон в 36 регионах мира.

AWS объявила, что дата-центры в Чили в основном будут использовать гибридный фрикулинг, вода будет применяться в системах охлаждения лишь пару недель в году. Кластер AWS South America (Chile) Region поможет удовлетворить растущий спрос на облачные сервисы в Латинской Америке. С новым регионом организации смогут использовать передовые технологии AWS, в том числе ИИ и машинное обучение. Инвестируя в местные кадры и образовательные программы, компания будет способствовать росту экономики страны и её цифровой трансформации, говорится в сообщении AWS.

 Источник изображения: Caio Silva/unsplash.com

Источник изображения: Caio Silva/unsplash.com

По словам представителя чилийских властей, расширение инфраструктуры AWS в Чили — очевидный образец приверженности компании к развитию передовых технологий и инноваций. Кроме того, это показывает, какая работа проделана для того, чтобы создать в латиноамериканском государстве среду, в которой могут процветать технологические компании, в частности, в рамках реализации проекта National Data Center Plan.

Как сообщает пресс-служба компании, впервые AWS заявила о себе в Чили, реализовав в стране периферийную платформу CloudFront Edge в 2019 году. Позже компания запустила сервис AWS Ground Station в Пунта-Аренасе (Punta Arenas), а также предложила локальные частные облака AWS Outposts в 2021 году. В 2023 году она организовала в стране шлюз AWS Direct Connect, а также запустила локальную зону (Local Zone) в Сантьяго.

Компания рассматривала строительство дата-центров в Чили как минимум с 2017 года. В январе 2024 года она получила «зелёный свет» на реализацию в Сантьяго проекта ЦОД стоимостью $205 млн. В июле того же года она получила разрешение на строительство второго дата-центра в городе, на который должно быть выделено ещё $205 млн. В прошлом году из-за засухи у строителей ЦОД в стране возникли проблемы. Так, местное правительство пересмотрело разрешение на строительство в Сантьяго ЦОД за $200 млн.

Постоянный URL: http://servernews.ru/1122559
Система Orphus