Материалы по тегу: ускоритель
19.12.2024 [22:55], Владимир Мироненко
Новое руководство Intel рассматривает Falcon Shores как тестовый продукт, который может не оправдать ожиданий
clearwater forest
diamond rapids
falcon shores
gpu
hardware
intel
jaguar shores
xeon
ии
реструктуризация
ускоритель
цод
После отставки Пэта Гелсингера (Pat Gelsinger) обязанности гендиректора Intel временно исполняют Дэвид Цинснер (David Zinsner) и Мишель Джонстон Холтхаус (Michelle (MJ) Johnston Holthaus). Несмотря на временный статус, их видение путей выхода из кризиса имеет важное значение для компании. Дэвид Цинснер и Мишель Холтхаус сходятся во мнении, что за GPU — будущее, а технологии ИИ всё ещё находится в зачаточном состоянии, пишет ресурс HPCwire. Их точка зрения в корне отличается от позиции Гелсингера, сделавшего ставку на CPU. Сейчас врио гендиректора занимаются ревизией планов компании, а также имеющегося портфеля решений для ЦОД. По их мнению, у Intel всего три перспективных продукта для ЦОД и ИИ: чипы Xeon Diamond Rapids и Clearwater Forest, а также ускорители Falcon Shores. Холтхаус выступила на ежегодной глобальной технологической конференции Barclays, где, отвечая на вопрос о том, чем её стратегия будет отличаться от планов Гелсингера, заявила, что не следует ожидать полной смены стратегии, будет лишь «возобновление внимания» к повышению конкурентоспособности продуктов Intel, пишет ресурс EE Times. Холтхаус также заявила, что сейчас пришло время подумать, как можно использовать имеющийся портфель интеллектуальной собственности во всём портфеле продуктов компании. Она признала, что на рынке решений для ЦОД компания сталкивается с большими проблемами. Ожидалось, что Granite Rapids укрепят позиции Intel на рынке серверов, но теперь она возлагает надежды на Diamond Rapids, которые будут выпускаться по техпроцессу Intel 18A (1,8 нм). ![]() Источник изображения: Intel «Для нас 2025 год — это год… стабилизации потери доли этого сегмента рынка [и] действительно лазерной фокусировки на создании правильных продуктов для восстановления доли. Нам предстоит много работы в этом направлении», — сообщила Холтхаус. Она отметила, что рынок решений для ЦОД сильно изменился, имея в виду стремление провайдеров облачных услуг создавать собственные кастомные процессоры и ускорители ИИ. Intel намерена улучшить работу на рынке процессоров для ЦОД с помощью недавно анонсированной консультативной группы по экосистеме x86, которая позволит заказчкикам влиять на будущие архитектурные особенности. Попутно компания отказалась от инициативы X86S по созданию облегчённого варианта ISA. Холтхаус заявила, что она чувствует уверенность по поводу будущего Intel Xeon, вместе с тем отметив, что AMD в последние годы лучше показала себя в работе с клиентами. Со-гендиректор сообщила, что рассматривает Falcon Shores как тестовый продукт. «Это будет замечательно? Нет, — сказала она. — Но это хороший первый шаг в создании платформы, извлечении уроков, понимании того, как всё это ПО будет работать и как будет реагировать экосистема, чтобы мы могли очень быстро исправиться». Ранее стало известно, что на смену Falcon Shores придёт ИИ-ускоритель Jaguar Shores. Холтхаус подчеркнула, что видит большие возможности в инференсе ИИ, предъявляющем другие требования к оборудованию, чем обучение. В целом Холтхаус отметила, что Intel недостаточно инвестировала в свою продукцию и действовала недостаточно быстро, а также признала, что в краткосрочной перспективе компанию ожидают проблемы с предложением продуктов. Также она признала, что Intel нужен универсальный GPU для долгосрочной конкурентоспособности на только зарождающемся рынке ИИ. Топ-менеджер заявила, что компания не будет тратить время и деньги на создание ускорителей ИИ для ЦОД с нуля. Вместо этого малотиражные продукты позволит Intel учиться и совершенствоваться, сказала она. «Я смотрю на Gaudi как на первый шаг. В Gaudi есть несколько действительно хороших вещей, которые мы изучаем, особенно на уровне ПО и платформы, — сказала Холтхаус. — Но Gaudi не позволит нам выйти в массы, это не тот GPU, который [мог бы быть] легко развёрнут в системах по всему миру». Также компания сообщила, что завершила этап сокращений персонала и пока не собирается их возобновлять. «Мы закончили с большим сокращением персонала, которое нам пришлось осуществить, оно в основном завершено, — сказал Цинснер. — Однако мы будем постоянно проверять, куда мы тратим деньги, чтобы убедиться, что получаем соответствующую отдачу».
18.12.2024 [15:45], Руслан Авдеев
Microsoft купила как минимум вдвое больше ускорителей NVIDIA, чем любой из конкурентовПо оценкам аналитиков Omdia, Microsoft приобрела вдвое больше флагманских ускорителей NVIDIA в сравнении с любым из своих конкурентов. В Omdia подсчитали, что в 2024 году IT-гигант приобрёл 485 тыс. ускорителей NVIDIA Hopper, следующий по масштабу покупатель из США — компания Meta✴ купила всего 224 тыс. ускорителей. Заметно отстают и AWS с Google, сообщает The Financial Times В последние пару лет спрос на передовые ускорители превышает предложение. В этом году техногиганты потратили на ЦОД на основе новейших чипов NVIDIA Blackwell десятки миллиардов долларов, а венчурные инвесторы вкладывают огромные средства в ИИ-технологии несмотря на пока низкую отдачу. Облачная инфраструктура Microsoft активно используется не только самой корпорацией, но и OpenAI, в том числе для обучения новейшей модели o1. Идёт непрекращающееся соревнование с Google, стартапами вроде Anthropic и xAI, не говоря уж о китайских конкурентах. Так, по оценкам Omdia китайские ByteDance и Tencent заказали по 230 тыс. ускорителей NVIDIA только в этом году, включая ослабленную модель H20. Amazon и Google, наряду с Meta✴ работающие над внедрением собственных ускорителей, пока приобрели 196 тыс. и 169 тыс. Hopper соответственно. Microsoft, инвестировавшая $13 млрд в OpenAI, является наиболее агрессивно среди других американским IT-гигантов наращивает инфраструктуру ИИ ЦОД. Кроме того, она предлагает и собственные ИИ-сервисы вроде Copilot. В этом году компания заказала втрое больше чипов NVIDIA того же поколения, чем в 2023-м. Во второй половине октября сообщалось, что компания стремительно наращивает закупки суперускорителей NVIDIA GB200 NVL. Про данным Omdia, на серверы технологические компании мира потратят в 2024 году $229 млрд. Впереди Microsoft с $31 млрд капитальных расходов и Amazon c $26 млрд. 10 ведущих покупателей инфраструктуры ЦОД, включая xAI и CoreWeave, обеспечивают 60 % вложений в вычислительные мощности. На NVIDIA приходится 43 % трат на серверы. Хотя NVIDIA всё ещё доминирует на рынке ИИ-чипов, AMD активно пытается составить ей конкуренцию. В этом году Meta✴ приобрела 173 тыс. ускорителей MI300, а Microsoft — 96 тыс. Также крупные компании используют и чипы собственной разработки. Google уже десять лет разрабатывает TPU, а у Meta✴ есть два поколения MTIA — обе компании внедрили по 1,5 млн собственных чипов. Amazon развернула 1,3 млн ускорителей Trainium и Inferentia. Для Anthropic компания намерена построить кластер из сотен тысяч Trainium для обучения новейшего поколения ИИ-моделей. Amazon уже инвестировала в стартап $8 млрд. При этом сама Microsoft, хоть и выпускает собственные полупроводниковые продукты, конкурирующие с NVIDIA, но внедрила в этом году только 200 тыс. чипов Maia. Чипы NVIDIA всё ещё нужны Microsoft для предоставления «уникальных» сервисов. Правда, для этого компании дополнительно нужны инфраструктура, ПО и другие компоненты экосистемы. В начале ноября появилась информация, что Microsoft по итогам I квартала 2025 финансового года не хватает ресурсов для обслуживания ИИ, но компания готова и далее вкладываться в ЦОД, хотя инвесторам это не по нраву. Более того, Microsoft потратит $10 млрд на аренду ИИ-серверов у CoreWeave.
16.12.2024 [16:08], Руслан Авдеев
Южнокорейская FuriosaAI включается в ИИ-гонку с собственным ускорителем RNGDСеульский стартап FuriosaAI, основанный в 2017 году, анонсировал в августе 2024 года ИИ-ускорители RNGD для гиперскейлеров и других корпоративных клиентов. Недавно компания начала тестирование новинки и рассылку образцов некоторым потенциальным клиентам, включая LG AI Research и Aramco, сообщает DigiTimes. RNGD позиционируется как решение, способное бросить вызов продуктам NVIDIA. По словам создателей, новинка на 40 % энергоэффективнее NVIDIA H100 при сопоставимых вычислительных характеристиках. Представитель компании недавно сообщил журналистам, что изначально компания сконцентрировалась исключительно на разработке, отложив производство до получения значительных инвестиций. Чип первого поколения был разработан ещё в 2021 году. Несмотря на скромный бюджет в $6 млн, компании удалось добиться результатов, достаточных для того, чтобы в раунде финансирования серии B компания получила $60 млн, что и позволило разработать модель RNGD. ![]() Источник изображения: FuriosaAI RNGD создан совместно с Global Unichip Corporation (GUC) и TSMC и рассчитан на работу с большими языковыми моделями (LLM). Ускоритель использует память HBM3 и выполнен по 5-нм техпроцессу. Компания разрабатывала его с прицелом на инференс моделей уровня GPT-3 и новее. Соблюдению баланса производительности и энергопотребления способствовала проприетарная архитектура Tensor Construction Processor. В августе 2024 года LG AI Research начала интегрировать RNGD в свою ИИ-инфраструктуру, чтобы снизить зависимость от NVIDIA и способствовать развитию южнокорейского полупроводникового бизнеса. При этом FuriosaAI прилагает все усилия для программной поддержки своего продукта. В стартапе уверены, что рынок ИИ достаточно велик, чтобы места хватило и игрокам помельче NVIDIA. В компании сравнивают амбиции FuriosaAI с усилиями создателей первых электромобилей, которые в итоге произвели революцию во всей индустрии. Стартап укрепляет международные связи для экспансии в США, Азии и других регионах. В сентябре был подписан меморандум о взаимопонимании с арабской Aramco. Дополнительно ведутся переговоры с потенциальными партнёрами в Японии и Индии. Первые коммерческие поставки RNGD ожидаются в I квартале 2025 года. Подчёркивается и важность Тайваня для экосистемы FuriosaAI — в качестве хаба для передового производства остров играет ключевую роль. Потенциально рассматривается открытие офиса на Тайване для укрепления сотрудничества.
12.12.2024 [18:37], Руслан Авдеев
Broadcom поможет Apple создать собственные серверные ИИ-ускорителиПо неофициальным данным, Apple работает с Broadcom над разработкой серверного ИИ-ускорителя для обслуживания ИИ-сервисов в своих ОС. По словам трёх анонимных источников The Information, чип создаётся в рамках проекта Baltra и будет запущен в производство в 2026 году. Ранее компании уже работали над 5G-технологиями. Деталей пока немного. На одной из конференций в этом году представитель Apple заявил, что ИИ-экосистема Apple Intelligence должна работать как на самих устройствах компании, так и в частном облаке Apple Private Cloud Compute на базе чипов M2 Ultra. Они используются для инференса, тогда как для обучения ИИ-моделей Apple использует ускорители Google TPU. Первые слухи о том, что компания разрабатывает серверные ускорители, появились в мае 2024 года. У компании богатый опыт разработки Arm-чипов, а Broadcom, помимо прочего, продаёт лицензии на различные IP-блоки и уже не раз помогала гиперскейлерам в создании кастомных чипов. Не так давно Broadcom анонсировала новую технологию упаковки 3.5D eXtreme Dimension System in Package (3.5D XDSiP), которая как раз ориентирована на создание высокопроизводительных кастомных чипов. Она позволяет объединить два 3D-стека, пару I/O чиплетов и до 12 модулей памяти HBM3 в одной упаковке, занимающей более 6000 мм². Производство первых чипов по этой технологии ожидается в 2026 году. Созданием собственных ИИ-ускорителей заняты практически все крупные гиперскейлеры. Google первой занялась созданием собственных ускорителей и теперь в её портфолио есть уже шесть поколений TPU, Meta✴ трудится над MTIA, AWS предлагает Trainium2 и Inferentia2, Microsoft анонсировала Maia 100, Alibaba разработала Hanguang 800, а ByteDance и OpenAI пока ещё только создают будущие ускорители, причём при помощи всё той же Broadcom. Впрочем, для многих из них это попытка снизить зависимость от NVIDIA, выручка которой бьёт все рекорды.
03.12.2024 [13:59], Руслан Авдеев
Разработчик ИИ-чипов Tenstorrent привлёк $693 млн в раунде финансирования серии DСтартап Tenstorrent, занятый разработкой ИИ-ускорителей, привлёк $693 млн в рамках раунда финансирования серии D — спрос на инвестиции превысил предложение. По данным EE Times, участвовали как финансовые, так и стратегические инвесторы, а предварительная оценка компании до раунда составила $2 млрд. Раунд возглавили Samsung Securities и AFW Partners, к ним присоединились новые инвесторы, включая XTX Markets, LG Electronics, Hyundai Motor Group и Bezos Expeditions. В августе 2024 года конкурент стартапа — компания Groq привлекла $640 млн. До этого казалось, что инвестиционный климат для разработчиков ИИ-чипов стал не лучшим, частично из-за того, что у стартапов не получилось отвоевать сколько-нибудь значимую долю рынка у лидера — компании NVIDIA. Хотя индустрия ИИ-чипов — весьма оживлённый рынок, инвесторы, по словам Tenstorrent, ведут себя весьма осторожно. Разрабатываемые продукты имеют значение лишь отчасти, немалое внимание уделяется команде (а в Tenstorrent работает легендарный Джим Келлер), планам и другим факторам. ![]() Источник изображения: Ruthson Zimmerman/unsplash.com Средства помогут внедрению и продвижению Tenstorrent не только ускорителей, но и IP-блоков и систем. В компании заявляют, что не рассчитывали привлечь столько денег, но желающих инвестировать оказалось больше, чем ожидалось, причём некоторые инвесторы носят «стратегический» характер для компании. Теперь Tenstorrent планирует увеличить штат с 600 до около 700 сотрудников. На сегодня компания закрыла сделки в общей сложности на сумму около $150 млн. В основном речь идёт о продаже лицензий компаниям вроде LG Electronics и BOS Semiconductor. Утверждается, что компания продолжит лицензирование интеллектуальной собственности, будет предлагать услуги по разработке полупроводников «на сторону» и, конечно, намерена увеличить продажи своих ускорителей. Новый ускоритель Tenstorrent Blackhole должен появиться уже в начале 2025 года. В компании подчёркивают, что клиенты и инвесторы очень ценят open source проекты Tenstorrent — столько денег, выпуская проприетарное ПО, привлечь бы не удалось. NVIDIA навязывает собственную проприетаруню программную платформу CUDA. Именно она считается препятствием для молодых производителей ИИ-чипов, поскольку CUDA повсеместно распространена, что затрудняет переход на альтернативные решения. В открытом ПО особенно заинтересованы разработчики решений для транспорта и робототехники, поскольку в этих сферах строгие стандарты безопасности и контроль над каждой строчкой кода важен.
25.11.2024 [20:50], Руслан Авдеев
Amazon вложит ещё $4 млрд в Anthropic и снизит её зависимость от NvidiaКомпания Amazon (AWS) раскрыла планы удвоить инвестиции в Anthropic, доведя их до $8 млрд. Объявление о новых вложениях было сделано через год после того, как гиперскейлер сообщил о выделении стартапу $4 млрд, сообщает Silicon Angle. На тот момент главный конкурент OpenAI назвал AWS своим ключевым облачным провайдером. С новой сделкой роль AWS в обучении моделей Anthropic только усилится. Anthropic представила свою наиболее передовую модель Claude 3.5 Sonnet в прошлом месяце — это улучшенная версия большой языковой модели (LLM) той же серии, дебютировавшей несколько месяцев назад. Новая Claude 3.5 Sonnet лучше предшественницы в выполнении некоторых задач, включая написание кода. Она также обошла OpenAI GPT-4o в нескольких бенчмарках. Anthropic предлагает свои LLM через сервис Amazon Bedrock, обеспечивающий доступ к управляемым ИИ-моделям. Расширенное сотрудничество обеспечит пользователям ранний доступ к функции, позволяющей настраивать модели Claude с использованием кастомных датасетов. Также планируется поддержать друг друга в разработках. Anthropic будет использовать ИИ-ускорители Trainium и Inferentia для внутренних задач. В компании подчеркнули, что задействуют ускорители для крупнейших базовых моделей. В то же время специалисты Anthropic поддержат AWS в разработке новых чипов Tranium. Стек ПО Neutron включает компилятор, оптимизирующий ИИ-модели для работы на инстансах Tranium, и некоторые другие инструменты. Компания также работает над низкоуровневыми программными ядрами, распределяющими задачи между вычислительными ядрами ускорителей. Последний раунд финансирования Anthropic состоится через два месяца после того, как OpenAI привлекла рекордные для стартапа $6,6 млрд. Также она получила кредитную линию на $4 млрд от группы банков. OpenAI, оцениваемая в $157 млрд, будет инвестировать средства в ИИ-исследования и вычислительную инфраструктуру.
21.11.2024 [00:26], Владимир Мироненко
Intel случайно раскрыла, что готовит ИИ-ускоритель Jaguar Shores вслед за Falcon ShoresIntel сообщила о новом ИИ-ускорителе Jaguar Shores, готовящемся в качестве преемника Falcon Shores, упомянув его в презентации во время технического семинара на конференции SC24. Презентация была посвящена чипам Gaudi, сообщает ресурс HPCwire. По мнению источника, упоминание чипа следующего поколения в презентации могло быть случайным. Ожидается, что Falcon Shores поступит в серийное производство в 2025 году. Также в следующем году в массовую продажу поступит ИИ-ускоритель Gaudi 3, представленный ещё в феврале 2023 года. В остальном Intel предпочитает не раскрывать подробностей о своих планах по выпуску ИИ-чипов. Для сравнения, NVIDIA и AMD уже анонсировали планы по выпуску чипов вплоть до 2026–2027 гг. В августе прошлого года Intel сообщила ресурсу HPCwire о работе над чипом Falcon Shores 2, который планируется к выпуску в 2026 году. «У нас упрощённая дорожная карта, поскольку мы объединяем наши GPU и ускорители в единое предложение», — пояснил тогда генеральный директор Патрик Гелсингер (Pat Gelsinger). С тех пор финансовое положение Intel значительно ухудшилось, однако компания продолжает разработку новых ИИ-ускорителей. Пока неясно, будет ли Jaguar Shores GPU или ASIC, но логика именования чипов Intel позволяет предположить, что речь идёт именно о GPU следующего поколения. ![]() Источник изображения: Intel На данный момент Intel уступила рынок ИИ-обучения компаниям NVIDIA и AMD, сосредоточив свои усилия на инференсе с использованием ИИ-ускорителей Gaudi. Вероятно, Jaguar Shores также будет ориентирован на задачи инференса, который Гелсингер определил как более крупный и перспективный рынок. Однако чтобы догнать ушедших вперёд конкурентов NVIDIA и AMD, Jaguar Shores должен стать действительно прорывным продуктом, полагает HPCwire. «Наши инвестиции в ИИ будут дополнять и использовать наши решения на базе x86, с акцентом на корпоративный, экономически эффективный вывод данных. Наша дорожная карта для Falcon Shores остаётся неизменной», — заявил представитель Intel ресурсу HPCwire несколько месяцев назад.
20.11.2024 [17:16], Руслан Авдеев
AWS предоставит IBM доступ к ИИ-ускорителям на $475 миллионовAWS близка к заключению сделки с компанией IBM на сумму $475 млн. По данным Business Insider, компания готовится предоставить компании IBM доступ к своим облачным ИИ-решениям. Компании ведут переговоры о пятилетнем использовании IBM ИИ-ускорителей в облаке Amazon. В частности, IBM планирует задействовать инстансы EC2 с чипами NVIDIA, что подтверждается одним из внутренних документов Amazon. По некоторым данным, сотрудничество уже началось — IBM начала обучать отдельные модели на указанных системах с использованием платформы AWS SageMaker. Однако переговоры ещё продолжаются, и подписание окончательного соглашения пока не гарантировано. Примечательно, что IBM имеет собственное облако, где так же предоставляет доступ к ускорителям. Однако, по оценкам экспертов, её доля на мировом облачном рынке не превышает 10 %. Ранее, в 2024 году, IBM анонсировала увеличение использования сервисов AWS для своей платформы Watson AI. Компании намерены интегрировать IBM watsonx.governance с платформой Amazon SageMaker, чтобы помочь клиентам эффективно управлять рисками, связанными с ИИ-моделями, и упростить их использование. ![]() Источник изображения: AWS Amazon активно продвигает чипы собственной разработки — Inferentia и Trainium, а ранее в этом месяце пообещала предоставить «кредиты» исследователям в сфере ИИ на сумму $110 млн для доступа к свои чипам в рамках программы Build on Trainium. Пока неизвестно, намерена ли IBM применять чипы AWS или отдаст предпочтение более популярным решениям, таким как продукты NVIDIA.
20.11.2024 [13:04], Руслан Авдеев
IBM и AMD расширяют сотрудничество: Instinct MI300X появится в облаке IBM CloudКомпания IBM объявила о расширении сотрудничества с AMD для предоставления ускорителей Instinct MI300X в формате «ускорители как услуга» (Accelerators-as-a-Service). По словам IBM, новое решение расширяет возможности и энергоэффективность генеративных ИИ-моделей и HPC-приложений. AMD Instinct MI300X станут доступны в IBM watsonx, а также будут поддерживаться в Red Hat Enterprise Linux AI. Они дополнят портфолио IBM Cloud, уже включающее Intel Gaudi 3 и NVIDIA H100. Ускоритель AMD Instinct MI300X оснащён 192 Гбайт памяти HBM3. И относительно малое количество ускорителей способно обеспечить работу больших ИИ-моделей, что позволяет снизить затраты с сохранением производительности и масштабируемости. Ускорители будут доступны в составе виртуальных серверов и частных виртуальных облаков, а также в контейнеризированных средах IBM Cloud Kubernetes Service и IBM Red Hat OpenShift. Кроме того, для MI300X будут доступны LLM Granite и инструмент InstructLab. Речь идёт в том числе об интеграции программных решений IBM с ПО AMD ROCm. По словам компании, предложенные решения обеспечит клиентов гибкой, безопасной, высокопроизводительной и масштабируемой средой для рабочих нагрузок ИИ. AMD Instinct MI300X станут доступны пользователям IBM Cloud в I половине 2025 года.
20.11.2024 [01:40], Владимир Мироненко
Microsoft представила кастомные чипы Azure Boost DPU и Integrated HSM, уникальный AMD EPYC 9V64H с HBM и собственный вариант NVIDIA GB200 NVL72
amd
azure arc
azure stack
dpu
epyc
gb200
hardware
hbm
hpc
microsoft
microsoft azure
nvidia
гибридное облако
ии
информационная безопасность
облако
ускоритель
Microsoft представила на конференции Microsoft Ignite новые специализированные чипы Azure Boost DPU и Azure integrated Hardware Security Module (HSM), предназначенные для использования в ЦОД с целью поддержки рабочих нагрузок в облаке Azure и повышения безопасности. ![]() Источник изображений: Microsoft Чтобы снизить зависимость от поставок чипов сторонних компаний, Microsoft занимается разработкой собственных решений для ЦОД. Например, на прошлогодней конференции Microsoft Ignite компания представила Arm-процессор Azure Cobalt 100 и ИИ-ускоритель Azure Maia 100 собственной разработки. Azure Boost DPU включает специализированные ускорители для работы с сетью и хранилищем, а также предлагает функции безопасности. Так, скорость работы с хранилищем у будущих инстансов Azure будет вчетверо выше, чем у нынешних, а энергоэффективность при этом вырастет втрое. Не вызывает сомнений, что в разработке Azure Boost DPU участвовали инженеры Fungible, производителя DPU, который Microsoft приобрела в декабре прошлого года. Как отмечает TechCrunch, в последние годы популярность DPU резко увеличилась. AWS разработала уже несколько поколений Nitro, Google совместно с Intel создала IPU, AMD предлагает DPU Pensando, а NVIDIA — BlueField. Есть и другие нишевые игроки. Согласно оценкам Allied Analytics, рынок чипов DPU может составить к 2031 году $5,5 млрд. Ещё один кастомный чип — Azure integrated Hardware Security Module (HSM) — отвечает за хранение цифровых криптографических подписей и ключей шифрования в защищённом модуле «без ущерба для производительности или увеличения задержки». «Azure Integrated HSM будет устанавливаться на каждом новом сервере в ЦОД Microsoft, начиная со следующего года, чтобы повысить защиту всего парка оборудования Azure как для конфиденциальных, так и для общих рабочих нагрузок», — заявила Microsoft. Azure Integrated HSM работает со всем стеком Azure, обеспечивая сквозную безопасность и защиту. Microsoft также объявила, что задействует ускорители NVIDIA Blackwell и кастомные серверные процессоры AMD EPYC. Так, инстансы Azure ND GB200 v6 будут использовать суперускорители NVIDIA GB200 NVL 72 в собственном исполнении Microsoft, а интерконнект Quantum InfiniBand позволит объединить десятки тысяч ускорителей Blackwell. Компания стремительно наращивает закупки этих систем. А инстансы Azure HBv5 получат уникальные 88-ядерные AMD EPYC 9V64H с памятью HBM, которые будут доступны только в облаке Azure. Каждый инстанс включает четыре таких CPU и до 450 Гбайт памяти с агрегированной пропускной способностью 6,9 Тбайт/с. Кроме того, Microsoft анонсировала новое решение Azure Local, которое заменит семейство Azure Stack. Azure Local — это облачная гибридная инфраструктурная платформа, поддерживаемая Azure Arc, которая объединяет локальные среды с «большим» облаком Azure. По словам компании, клиенты получат обновление до Azure Local в автоматическом режиме. Наконец, Microsoft анонсировала новые возможности в Azure AI Foundry, новой «унифицированной» платформе приложений ИИ, где организации смогут проектировать, настраивать и управлять своими приложениями и агентами ИИ. В числе новых опций — Azure AI Foundry SDK (пока в виде превью). |
|