Материалы по тегу: облако
20.11.2024 [17:16], Руслан Авдеев
AWS предоставит IBM доступ к ИИ-ускорителям на $475 миллионовГиперскейлер Amazon Web Services (AWS) близок к заключению сделки с компанией IBM на сумму $475 млн. По данным Business Insider, компания готовится предоставить компании IBM доступ к своим облачным ИИ-сервисам. Компании ведут переговоры о пятилетнем использовании IBM ИИ-ускорителей Amazon. В частности, IBM планирует задействовать инстансы AWS EC2, работающие на чипах NVIDIA, что подтверждается одним из внутренних документов Amazon. По некоторым данным, сотрудничество уже началось — IBM начала обучать отдельные модели на указанных серверах с использованием платформы AWS SageMaker. Однако переговоры ещё продолжаются, и подписание окончательного соглашения пока не гарантировано. Примечательно, что IBM имеет собственный облачный продукт и предоставляет доступ к ускорителям в облаке. Однако, по оценкам экспертов, её доля на мировом облачном рынке не превышает 10 %. Ранее, в 2024 году, IBM анонсировала увеличение использования сервисов AWS для своей платформы Watson AI. Компании намерены интегрировать продукт IBM watsonx.governance с платформой Amazon SageMaker, чтобы помочь клиентам эффективно управлять рисками, связанными с ИИ-моделями, и упростить их использование. Amazon активно продвигает чипы собственной разработки — Inferentia и Trainium, а ранее в этом месяце пообещала предоставить «кредиты» исследователям в сфере ИИ на сумму $110 млн для доступа к свои чипам в рамках программы Build on Trainium. Пока неизвестно, намерена ли IBM применять полупроводники AWS или отдаст предпочтение более популярным решениям, таким как продукты NVIDIA.
20.11.2024 [14:26], Руслан Авдеев
«Ростелеком» отложил IPO облачного подразделения «РТК-ЦОД» из-за высокой ставки ЦБ РФВывод на IPO облачного подразделения «Ростелекома» — компании «РТК-ЦОД» — будет отложен. Причиной тому «высокая цена» денег — Банк России поднял ключевую ставку до рекордных 21 % и в сложившихся условиях компания решила ждать более благоприятной ситуации на фондовом рынке, сообщает Forbes со ссылкой на президента «Ростелекома» Михаила Осеевского. Как заявил Осеевский, посетивший межотраслевую конференцию «Безопасность клиентов на первом месте», при сложившейся цене денег выход «РТК-ЦОД» на IPO — «перспектива не ближайшего времени» и размещение на торгах в 2024 году не состоится. В целом, по данным iKS-Consulting, на «Ростелеком» приходится 30 % рынка коммерческих ЦОД в России. Информация о вероятном выходе «РТК-ЦОД» на IPO появилась ещё в мае 2024 года. До этого, в феврале, были обнародованы первые сведения о намерении вывести на биржу одну из дочерних структур «Ростелекома», однако конкретные компании на тот момент не назывались. В августе СМИ, ссылаясь на слова Осеевского, сообщали о «планомерном движении» к размещению «РТК-ЦОД» на бирже. 19 ноября в 12:22 по московскому времени обыкновенные акции «Ростелекома», торгуемые на Мосбирже, стоили 59,75 руб. (-3,63 %), привилегированные — 55,6 руб. (-3,47 %). На минимуме оба типа акций снижались более чем на 4 %. Октябрь стал рекордным для Центробанка РФ, который поднял ключевую ставку до 21 %, объяснив эту меру необходимостью борьбы с ростом инфляции. Прогноз по инфляции на 2024 год составил 8–8,5 %, а в 2025 году ожидается её снижение до 4,5–5 %, что выше целевых 4 %. Центробанк не исключает начала снижения ключевой ставки в 2025 году при отсутствии новых «шоков». По данным *Forbes*, рост ключевой ставки вызвал рецессию в некоторых отраслях, что привело к снижению выручки компаний, их прибыли и дивидендов. Это, в свою очередь, оказывает давление на котировки акций. Эксперты отмечают, что инвесторы в текущей ситуации предпочитают не акции, а более консервативные финансовые инструменты.
20.11.2024 [10:56], Сергей Карасёв
Microsoft представила инстансы Azure HBv5 с уникальными чипами AMD EPYC 9V64H и памятью HBM3Компания Microsoft на ежегодной конференции Ignite для разработчиков, IT-специалистов и партнёров анонсировала облачные инстансы Azure HBv5 для HPC-задач, которые предъявляют наиболее высокие требования к пропускной способности памяти. Новые виртуальные машины оптимизированы для таких приложений, как вычислительная гидродинамика, автомобильное и аэрокосмическое моделирование, прогнозирование погоды, исследования в области энергетики, автоматизированное проектирование и пр. Особенность Azure HBv5 заключается в использовании уникальных процессоров AMD EPYC 9V64H (поколения Genoa). Эти чипы насчитывают 88 вычислительных ядер Zen4, тактовая частота которых достигает 4 ГГц. Ближайшим родственником является изделие EPYC 9634, которое содержит 84 ядра (168 потоков) и функционирует на частоте до 3,7 ГГц. По данным ресурса ComputerBase.de, чип EPYC 9V64H также фигурирует под именем Instinct MI300C: по сути, это процессор EPYC, дополненный памятью HBM3. При этом клиентам предоставляется возможность кастомизации характеристик. Каждый инстанс Azure HBv5 объединяет четыре процессора EPYC 9V64H, что в сумме даёт 352 ядра. Система предоставляет доступ к 450 Гбайт памяти HBM3, пропускная способность которой достигает 6,9 Тбайт/с. Задействован интерконнект NVIDIA Quantum-2 InfiniBand со скоростью передачи данных до 200 Гбит/с в расчёте на CPU. Применены сетевые адаптеры Azure Boost NIC второго поколения, благодаря которым пропускная способность сети Azure Accelerated Networking находится на уровне 160 Гбит/с. Для локального хранилища на основе SSD NVMe заявлена скорость чтения информации до 50 Гбайт/с и скорость записи до 30 Гбайт/с. Отмечается, что по показателю пропускной способности памяти виртуальные машины Azure HBv5 примерно в 8 раз превосходят новейшие альтернативы bare-metal и Cloud, в 20 раз опережают инстансы Azure HBv3 и Azure HBv2 (на базе EPYC Milan-X и EPYC Rome) и в 35 раз обходят HPC-серверы возрастом 4–5 лет, жизненный цикл которых приближается к завершению. Машины Azure HBv5 станут доступны в I половине следующего года.
20.11.2024 [01:40], Владимир Мироненко
Microsoft представила кастомные чипы Azure Boost DPU и Integrated HSM, уникальный AMD EPYC 9V64H с HBM и собственный вариант NVIDIA GB200 NVL72
amd
azure arc
azure stack
dpu
epyc
gb200
hardware
hbm
hpc
microsoft
microsoft azure
nvidia
гибридное облако
ии
информационная безопасность
облако
Microsoft представила на конференции Microsoft Ignite новые специализированные чипы Azure Boost DPU и Azure integrated Hardware Security Module (HSM), предназначенные для использования в ЦОД с целью поддержки рабочих нагрузок в облаке Azure и повышения безопасности. Чтобы снизить зависимость от поставок чипов сторонних компаний, Microsoft занимается разработкой собственных решений для ЦОД. Например, на прошлогодней конференции Microsoft Ignite компания представила Arm-процессор Azure Cobalt 100 и ИИ-ускоритель Azure Maia 100 собственной разработки. Azure Boost DPU включает специализированные ускорители для работы с сетью и хранилищем, а также предлагает функции безопасности. Так, скорость работы с хранилищем у будущих инстансов Azure будет вчетверо выше, чем у нынешних, а энергоэффективность при этом вырастет втрое. Не вызывает сомнений, что в разработке Azure Boost DPU участвовали инженеры Fungible, производителя DPU, который Microsoft приобрела в декабре прошлого года. Как отмечает TechCrunch, в последние годы популярность DPU резко увеличилась. AWS разработала уже несколько поколений Nitro, Google совместно с Intel создала IPU, AMD предлагает DPU Pensando, а NVIDIA — BlueField. Есть и другие нишевые игроки. Согласно оценкам Allied Analytics, рынок чипов DPU может составить к 2031 году $5,5 млрд. Ещё один кастомный чип — Azure integrated Hardware Security Module (HSM) — отвечает за хранение цифровых криптографических подписей и ключей шифрования в защищённом модуле «без ущерба для производительности или увеличения задержки». «Azure Integrated HSM будет устанавливаться на каждом новом сервере в ЦОД Microsoft, начиная со следующего года, чтобы повысить защиту всего парка оборудования Azure как для конфиденциальных, так и для общих рабочих нагрузок», — заявила Microsoft. Azure Integrated HSM работает со всем стеком Azure, обеспечивая сквозную безопасность и защиту. Microsoft также объявила, что задействует ускорители NVIDIA Blackwell и кастомные серверные процессоры AMD EPYC. Так, инстансы Azure ND GB200 v6 будут использовать суперускорители NVIDIA GB200 NVL 72 в собственном исполнении Microsoft, а интерконнект Quantum InfiniBand позволит объединить десятки тысяч ускорителей Blackwell. Компания стремительно наращивает закупки этих систем. А инстансы Azure HBv5 получат уникальные 88-ядерные AMD EPYC 9V64H с памятью HBM, которые будут доступны только в облаке Azure. Каждый инстанс включает четыре таких CPU и до 450 Гбайт памяти с агрегированной пропускной способностью 6,9 Тбайт/с. Кроме того, Microsoft анонсировала новое решение Azure Local, которое заменит семейство Azure Stack. Azure Local — это облачная гибридная инфраструктурная платформа, поддерживаемая Azure Arc, которая объединяет локальные среды с «большим» облаком Azure. По словам компании, клиенты получат обновление до Azure Local в автоматическом режиме. Наконец, Microsoft анонсировала новые возможности в Azure AI Foundry, новой «унифицированной» платформе приложений ИИ, где организации смогут проектировать, настраивать и управлять своими приложениями и агентами ИИ. В числе новых опций — Azure AI Foundry SDK (пока в виде превью).
18.11.2024 [20:15], Руслан Авдеев
Ключевыми клиентами ИИ-сервиса Microsoft Azure OpenAI стали Adobe и Meta✴, но крупнейшим заказчиком всё ещё остаётся TikTokХотя крупнейшим облачным клиентом сервисов Azure OpenAI компании Microsoft по-прежнему остаётся социальная сеть TikTok, облачный ИИ-провайдер активно диверсифицирует свой бизнес. В распоряжение The Verge попал список крупнейших клиентов Microsoft, получающих облачный доступ к большим языковым моделям (LLM) — как оказалось, более $1 млн/мес. на сервисы Azure OpenAI тратит не только TikTok. В десятку ключевых пользователей Azure OpenAI вошли Adobe и Meta✴, каждая из которых потратила более $1 млн только в сентябре 2024 года. Впрочем, компании по-прежнему отстают от TikTok, принадлежащей ByteDance. Ранее сообщалось, что TikTok платила Microsoft почти $20 млн/мес. за доступ к моделям OpenAI. По итогам IV квартале 2024 финансового года, завершившемся 30 июня, на TikTok пришлось почти четверть выручки Azure OpenAI. Теперь траты ByteDance на Azure OpenAI составляют менее 15 % всей выручки Microsoft в этом сегменте — расходы ByteDance падают, а других клиентов растут. Например, G42 из ОАЭ тратит на сервисы Azure OpenAI миллионы долларов ежемесячно, являясь вторым по величине пользователем соответствующего сервиса после ByteDance. Ранее в этом году Microsoft инвестировала $1,5 млрд в G42, поэтому, вероятно, последняя сохранит статус одного из ключевых пользователей Azure OpenAI. Ранее в этом году главным потребителем ИИ-сервисов Microsoft считалась американская торговая сеть Walmart, но теперь её нет даже в десятке. Список серьёзно меняется от месяца к месяцу, во многом потому, что клиенты Microsoft время от времени запускают или тестируют новые ИИ-проекты. Так, постоянным клиентом остаётся Intuit, хотя её расходы несопоставимы с затратами G42 или ByteDance. Компания занимается разработкой инструментов для финансового управления и обучает собственные ИИ-модели на клиентских данных. Также Microsoft удалось привлечь к сотрудничеству тесно связанную с Alibaba компанию Ant Group, которая потратила на Azure OpenAI как минимум $1 млн. Среди ключевых клиентов есть и пекинская Sankuai Technology, а всего в десятку самых «дорогих» клиентов в сентябре вошли сразу три китайские компании. В Microsoft информацию не комментируют. В компании лишь отметили, что Azure OpenAI — один из самых быстрорастущих сервисов Azure за всю историю, которым уже пользуются 60 тыс. организаций по всему миру. За последние месяцы рост сервиса удвоился. Microsoft также продаёт лицензии Copilot для бизнеса, обеспечивающие ИИ-сервисы, например, в офисных приложениях. По данным самой компании, 70 % компаний из рейтинга Fortune 500 так или иначе пользуются Microsoft 365 Copilot. Скоро выручка ИИ-бизнеса Microsoft превысит $10 млрд в год. В Microsoft утверждают, что это будет самый быстрый в истории бизнес, достигший подобного показателя. Но пока затраты довольно велики, так что инвесторы внимательно наблюдают за показателями Azure OpenAI и Microsoft 365 Copilot. Microsoft уже не хватает ресурсов для обработки ИИ, но компания готова вкладывать деньги в новые ЦОД.
18.11.2024 [18:42], Руслан Авдеев
CoreWeave добилась оценки в $23 млрд после вторичной продажи акций, среди инвесторов — Pure StorageОператор ИИ-облака CoreWeave завершил вторичную продажу акций на $650 млн. По данным инсайдеров, теперь компания оценивается в $23 млрд, сообщает Blocks & Files. Ведущими инвесторами стали Jane Street, Magnetar, Fidelity Management и Macquarie Capital, Cisco и, наконец, Pure Storage, на сотрудничество с которой у CoreWeave большие планы. В ходе вторичной продажи акций существующие инвесторы продали свои акции новым. По данным источников, близких к информации о сделке, капитализация CoreWeave за год выросла с $7 млрд до $23 млрд. В мае 2024 года компания оценивалась в $19 млрд после раунда финансирования серии C, лидером которого стала частная инвестиционная компания Coatue. Ожидается, что CoreWeave выйдет на IPO в следующем году. Что касается участия поставщика All-Flash СХД Pure Storage, то компания помимо собственно инвестиций предложит клиентам CoreWeave свои хранилища в рамках стратегического альянса с оператором. Инвестиционный банк William Blair оценивает сделку между Pure Storage и CoreWeave в десятки миллионов долларов. Речь идёт о подписке Evergreen//One, что делает CoreWeave одним из ключевых клиентов Pure Storage. Впрочем, в банке считают, что сделка не является неким крупным соглашением с гиперскейлером, о котором Pure Storage неоднократно сообщала, избегая деталей — CoreWeave пока не входит в десятку крупнейших гиперскейлеров. Как минимум с прошлого года CoreWeave также пользуется хранилищами ещё одного молодого поставщика All-Flash СХД — VAST Data.
15.11.2024 [22:14], Владимир Мироненко
«Яндекс» объединил технологии и инструменты в сфере B2B в одно бизнес-направление«Яндекс» создал новое бизнес-направление Yandex B2B Tech для работы в сфере B2B (Business-to-Business). Новая бизнес-группа объединит соответствующие технологии и инструменты, включая облачные продукты Yandex Cloud и «Яндекс 360». «Яндекса» ожидает, что объём рынка, на котором будет работать новое подразделение, вырастет до 510 млрд руб. в 2028 году с 240 млрд руб. в текущем. Среднегодовой темп роста (CAGR) в этот период составит порядка 21 % Сообщается, что новая структура будет предлагать заказчикам комплексные решения в различных областях, среди них:
Корпоративные пользователи смогут воспользоваться сервисами Yandex B2B Tech либо в облаке (*aaS или посредством API), либо на собственных серверах (on-premise). Согласно пресс-релизу «Яндекса», формат on-premise — новый для компании, но она видит спрос на него со стороны клиентов, желающих хранить и обрабатывать данные внутри организации. В этом формате компания уже предоставляет доступ к СУБД YDB, технологии генеративной языковой модели, которая может создавать тексты YandexGPT, технологии распознавания и синтеза речи SpeechKit, а также BI-инструмент DataLens.
15.11.2024 [17:47], Владимир Мироненко
FTC собралась расследовать жалобы на антиконкурентную практику в облачном бизнесе MicrosoftФедеральная торговая комиссия США (FTC) готовится начать расследование заявлений по поводу использования Microsoft антиконкурентных практик в своём облачном бизнесе, сообщила Financial Times со ссылкой на информированные источники. По их словам, FTC пока не запросила документы или другую информацию у Microsoft. Это говорит о том, что расследование находится на ранней стадии и нет никаких гарантий, что оно будет продолжено. Как утверждают источники, сейчас FTC изучает обвинения Microsoft в злоупотреблении своей рыночной властью — компания якобы навязывает карательные условия лицензирования, чтобы помешать клиентам переносить свои данные из Azure на другие платформы. В частности, чтобы усложнить переход на другую платформу, Microsoft существенно увеличивает абонентскую плату для тех, кто покидает Azure, вводит высокие сборы за выход и якобы делает продукты Office 365 несовместимыми с облаками конкурентов. На этот шаг регулятора подтолкнуло письмо Google с обвинением Microsoft в антиконкурентной практике, направленное в комиссию в июне 2023 года. В письме утверждается, что Microsoft использует ограничения по лицензированию ПО, чтобы заставить клиентов использовать облачные сервисы Azure для экономии денег. Google также заявила, что Microsoft использует доминирующее положение Windows Server и Office, чтобы оказывать давление на клиентов, заставляя их пользоваться Azure, и использует «сложную сеть» лицензионных ограничений, которые призваны помешать компаниям диверсифицировать поставщиков корпоративного ПО. Также было отмечено, что Microsoft взимает плату со сторонних поставщиков облачной инфраструктуры, таких как Google Cloud и Amazon Web Services, за запуск её ПО, такого как Windows Server и Office, на их платформах. В конечном итоге расходы перекладываются на клиентов. При этом дополнительная плата за запуск ПО Microsoft в облаке Azure не взимается. Аналитик Хольгер Мюллер (Holger Mueller) из Constellation Research сообщил в прошлом году, что поставщики ПО ужесточают условия лицензирования, чтобы ограничить своих конкурентов. «Основная уловка заключается в том, что они либо ограничивают сервисы, не позволяя им работать в других облаках, либо взимают большую плату за такую возможность», — сказал Мюллер. Microsoft удалось избежать официального расследования деятельности своего облачного подразделения со стороны Еврокомиссии с помощью сделки с CISPE. При этом Google пыталась с помощью денежного вознаграждения убедить облачные компании не прекращать жаловаться на Microsoft в ЕС. В итоге Google подала в Еврокомиссию новую жалобу на Microsoft и сформировала новую коалицию Open Cloud Coalition. Аналогичные разбирательства ведутся и в Великобритании.
12.11.2024 [13:27], Руслан Авдеев
Microsoft объявила о доступности Windows Server 2025: облака и ИИ
azure arc
microsoft
software
windows server
windows server 2025
гибридное облако
операционная система
релиз
Microsoft сообщила, что Windows Server 2025 доступна практически всем желающим. По данным Storage Review, в своём новом продукте разработчик уделил немало внимания интеграции в ОС облачных функций и поддержке ИИ-нагрузок. Также улучшены производительность и безопасность ОС. Одной из важных функций новой ОС считается повышение безопасности файловых служб File Services/Server Message Block (SMB). Последняя теперь работает по протоколу QUIC, что обеспечивает более безопасный доступ к файлам. Защита SMB предусматривает использование расширенных настроек брандмауэра, защиту от брутфорс-атак и атак MitM, Relay Attack или Spoofing. В Active Directory появилась функция Делегированных Управляемых Учетных Записей Служб (dMSA). В отличие от классических учётных записей служб, dMSA не нужно ручное управление паролями, Active Directory справляется с задачей автоматически. dMSA даёт возможность делегировать специальные разрешения для доменных ресурсов, что снижает риски безопасности и улучшает видимость и контроль за активностью учётных записей служб. В Windows Server 2025 представлены революционные, по словам Microsoft, возможности для гибридных облаков. Важную роль играет возможность обновления на лету (Hot-Patching). Сервис по подписке для управления гибридными облаками Azure Arc позволяет свести к минимуму количество перезагрузок и простои при обновлении ПО на локальных площадках. Кроме того, упрощён процесс подключения к Azure Arc и улучшена функциональность SDN, обеспечивается L2/L3-доступ для «бесшовной» миграции рабочих нагрузок между разными локациями. Помимо этого, новая операционная система предлагает улучшенные производительность и масштабируемость в целом. Так, показатели IOPS в ряде нагрузок до 60 % выше в сравнении в Windows Server 2022, а расширенные функции ФС Resilient File System (ReFS), включая дедупликацию и сжатие, обеспечивают заметную экономию дискового пространства. Функции Storage Spaces и Storage Replica Compression обеспечивают эффективное использование дискового пространства и оптимальный обмен данными между репликами. Наконец, новый релиз ОС оптимизирован для задач, связанных с ИИ и машинным обучением. Например, имеется встроенная функция разделения ресурсов ускорителей на несколько виртуальных машин. Подсистема Hyper-V теперь оптимизирована как для традиционных нагрузок, так и ресурсоёмких ИИ-нагрузок. Кроме того, обеспечена непрерывность работы даже непосредственно во время техобслуживания и во время сбоев оборудования. Официальному релизу сопутствовал курьёзный, но весьма неприятный случай: у некоторых пользователей запустилось автоматическое обновление Windows Server 2022 до версии 2025, хотя ничего подобного Microsoft изначально не задумывала.
11.11.2024 [19:03], Руслан Авдеев
Softbank животворящий: Graphcore активно нанимает персонал для разработки новых ИИ-решенийЧерез четыре месяца после покупки японским конгломератом SoftBank британский стартап Graphcore, разрабатывающий ИИ-ускорители, занялся наймом новых сотрудников. По данным EE Times, сейчас у компании открыто 75 позиций в сферах разработки и тестирования полупроводников, управления инфраструктурой ЦОД и ИИ-исследований. Всего год назад компания спешно искала финансирование и сокращала персонал. Сейчас штат Graphcore насчитывает 375 человек, но компания намерена увеличить количество сотрудников на 20 % в Великобритании, Польше и на Тайване. Прочие офисы, включая подразделение в Китае, закрылись. По словам главы Graphcore Найджела Туна (Nigel Toon), компания представляет собой место, где эксперты по полупроводникам, ПО, ИИ и т.п. могут и полностью реализовать себя. Тем не менее, производственные планы бизнеса пока не раскрываются. На момент покупки Graphcore имела в своём портфолио три поколения чипов. Однако последнее поколение Bow IPU, выпущенное в 2022 году, по большому счёту являлось апгрейдом продукта второго поколения от 2020 года. Модель имела 892 Мбайт набортной SRAM, дополненной внешней DDR-памятью, а не HBM. Другими словами, теоретически продукт не слишком подходит для обучения больших языковых моделей (LLM). Впрочем, Cerebras тоже использует SRAM в составе своих суперчипов, но последняя дополнена массивами гибридной памяти MemoryX. А SambaNova в SN40L в итоге пришла к сочетанию SRAM, HBM и DDR. Если Graphcore намерена создать новое поколение ИИ-ускорителей, то она, вероятно, пойдёт по пути SambaNova, считают в EE Times. На это косвенно указывает вакансия инженера ЦОД, для которой желателен опыт работы с жидкостным охлаждением. Также компании требуются специалисты для работы над облачными платформами и инфраструктурой ЦОД. Не исключено, что компания сменит бизнес-модель на манер Groq, продавая не ускорители, а доступ к ИИ-сервисам. Cerebras и SambaNova, например, уже успели по очереди похвастаться производительностью своих инференс-платформ. В случае Graphcore смещение фокуса на инференс открывает возможности для освоения корпоративных и суверенных ИИ-решений, которых ещё не было, когда последние чипы компании вышли на рынок. Тем не менее, пока нет данных, готов ли SoftBank обеспечить Graphcore достаточными средствами для развития больших ЦОД. |
|