Материалы по тегу: ии

10.04.2025 [17:18], Андрей Крупин

Российская служба каталогов MultiDirectory стала доступна в версии Enterprise с расширенным набором функций

Компания «Мультифактор» сообщила о выпуске Enterprise-версии службы каталогов MultiDirectory. В отличие от свободного распространяемой Community-сборки, коммерческое решение имеет расширенные функциональные возможности и предполагает техническое сопровождение со стороны разработчика.

MultiDirectory представляет собой инструмент для аутентификации и авторизации пользователей в корпоративной среде с использованием протоколов LDAP/LDAPS. Продукт структурно адаптирован под Active Directory, что позволяет использовать его в средах, где требуется совместимость с этой службой. Отечественная разработка обеспечивает централизованное управление учётными записями, гибкую настройку политик безопасности, двухфакторную аутентификацию, интеграцию с DNS-сервером Bind9. Решение поддерживает взаимодействие с рабочими станциями на базе Windows, macOS, Linux и может быть интегрировано с различными сторонними системами в IT-инфраструктуре организации.

 Пользовательский интерфейс MultiDirectory (источник изображения: multidirectory.ru)

Пользовательский интерфейс MultiDirectory (источник изображения: multidirectory.ru)

Помимо основных возможностей, Enterprise-версия службы каталогов MultiDirectory включает в себя постоянное внедрение новых функций вроде поддержки доверия доменов, гибкой ролевой модели и контроля сессий пользователей, гарантированную техническую поддержку от разработчиков «Мультифактор», прямой доступ к экспертам через e-mail и телефон, а также конкретные сроки исправления багов и регулярные обновления.

 Сравнение Community- и Enterprise-версий MultiDirectory (источник изображения: multidirectory.ru)

Сравнение Community- и Enterprise-версий MultiDirectory (источник изображения: multidirectory.ru)

MultiDirectory в полной мере отвечает задачам импортозамещения и может использоваться заказчиками при реализации программ по переходу на отечественные продукты с решений зарубежных разработчиков.

Постоянный URL: http://servernews.ru/1121096
10.04.2025 [15:01], Руслан Авдеев

В Эдинбургском университете заработал ИИ-кластер на базе Cerebras CS-3

Эдинбургский университет и Cerebras Systems развернули в суперкомпьютерным центре EPCC кластера из четырёх ИИ-систем CS-3 на базе царь-ускорителей WSE-3. Новые мощности являются частью Edinburgh International Data Facility. По словам EPCC, это крупнейший кластер CS-3 в Европе. EPCC уже имеет опыт работы с системами CS-1 и CS-2. В Cerebras заявили, что гордятся расширением сотрудничества с EPCC, которое поможет стать Великобритании одним из ключевых мировых ИИ-хабов.

Как заявляют в EPCC, ИИ сегодня изменяет все сферы жизни, поэтому новые системы помогут университетам, государственным организациям и компаниям обучать и использовать ИИ-модели на скоростях и с лёгкостью, недоступной другим ИИ-решениям. Платформы Cerebras оптимизированы не только для масштабного обучения моделей, но и для сверхбыстрого инференса — пользователям кластера теперь доступна платформа-рекордсмен Cerebras AI Inference. Системы CS-3 способны выдавать до 2000 токенов/с для популярных ИИ-моделей.

 Источник изображения: Nadia Ramella/unsplash.com

Источник изображения: Nadia Ramella/unsplash.com

С новыми кластерами на основе Cerebras CS-3, EPCC сможет обучать модели от 240 млрд до 1 трлн параметров, а также ежедневно тюнинговать модели с 70 млрд параметров. Лёгкость использования технологий Cerebras позволяет использовать ИИ-модели и в дисциплинах, не относящихся к компьютерным наукам. Технологии Cerebras обеспечивают линейную масштабируемость, что ускоряет инновации и повышает продуктивность команды EPCC, говорится в сообщении.

Эдинбургский университет считается одним из лидеров в разработке ИИ-систем в последние 60 лет. Системы CS-2 в распоряжении EPCC уже позволили исследователям разработать высокоэффективное ПО для инференса для больших языковых моделей (LLM) — как для местного применения, так и для помощи исследователям из Индии в разработке ИИ-моделей для материаловедения и из Швейцарии — для адаптации LLM к местному диалекту немецкого языка. Кроме того, платформы CS-3 с миллионами вычислительных ядер позволят продолжить исследования EPCC в областипараллельных вычислений и энергоэффективности.

Постоянный URL: http://servernews.ru/1121065
10.04.2025 [13:27], Владимир Мироненко

Cloud.ru готовит решение полного цикла для работы с ИИ в облаке

Провайдер облачных и ИИ-технологий Cloud.ru анонсировал Cloud.ru Evolution AI Factory, цифровую среду для разработки приложений и агентов на основе ИИ в облаке, которая объединяет облачные ИИ- и ML-инструменты для работы с генеративными нейросетями и управления жизненным циклом ИИ-приложений. Это универсальная среда с широким спектром возможностей: от обучения моделей до запуска мультиагентных систем.

С помощью Cloud.ru Evolution AI Factory компании смогут создавать собственные ИИ-приложения по предлагаемым готовым шаблонам или работать с кастомизированными ИИ-моделями. Благодаря удобному набору технологий и встроенных ассистентов с решением можно работать даже без специальных навыков. Использование Cloud.ru Evolution AI Factory позволит компаниям значительно снизить затраты на вычислительную инфраструктуру, повысить эффективность работы и сократить сроки вывода новых продуктов на рынок.

Как сообщил глава Cloud.ru, решение будет доступно клиентам этим летом с полностью готовой инфраструктурой, сервисами и продуктами для простого и быстрого создания ИИ-приложений. Платформа включает:

  • Сервис Foundation Models, обеспечивающий быстрый и удобный доступ в российском облаке к таким популярным моделям, включая GigaChat, DeepSeek, Qwen и Gemma. Он позволит разработчикам адаптировать ИИ-модели под свои задачи, проверять гипотезы и проводить эксперименты без необходимости в запуске сложной инфраструктуры. В состав сервиса также входит AI Playground — среда для быстрого прототипирования, проверки гипотез и тестирования моделей на практике.
  • Evolution ML Inference — сервис для запуска моделей из библиотеки Hugging Face на облачных мощностях с ускорителями, в том числе в пользовательских Docker-образах. Он поддерживает среды исполнения vLLM, TGI, Ollama, Diffusers, Transformers, а также модели-трансформеры, диффузионные модели и большие языковые модели (LLM). Инференс-как-сервис позволяет распределять ресурсы ускорителя между задачами на уровне production-ready решения. Это позволит гибко и максимально эффективно управлять ресурсами в облаке, снижая затраты и ускоряя работу ИИ-моделей.
  • AI Assistants — сервис для создания агентных и мультиагентных систем с подключением к внешним системам с MCP (Model Context Protocol), который позволит настроить взаимодействие между ИИ-агентами и источниками данных с возможностью использования продвинутых моделей и собственных решений компании. Сервис обеспечивает быстрый доступ к информации, автоматизацию рутинных задач, в том числе, благодаря использованию RAG.
  • Cloud.ru ML Space — платформа для выполнения задач глубокого обучения с использованием суперкомпьютеров и МО на базе российского решения. Подходит для полного цикла МО-разработки в облаке и on-premise.

Сообщается, что новое решение позволяет объединить в Cloud.ru не только инструменты для создания ИИ-приложений, но и независимых разработчиков ПО, чтобы упростить работу с облаком и бизнеса в целом.

Постоянный URL: http://servernews.ru/1121082
10.04.2025 [12:12], Сергей Карасёв

Cloud.ru: почти две трети российских IT-специалистов доверяют ИИ

Провайдер облачных сервисов Cloud.ru обнародовал результаты исследования, посвящённого использованию средств ИИ российскими IT-специалистами. Выяснилось, что более 70 % респондентов применяют ИИ-сервисы как минимум раз в неделю, а 39 % разработчиков ПО используют такие инструменты ежедневно.

Опубликованные цифры получены в ходе опроса разработчиков, тестировщиков, аналитиков данных и представителей других IT-специальностей с разным уровнем подготовки со всей России. Большинство респондентов отмечают, что навыки работы с ИИ становятся всё более значимыми на рынке труда. В частности, 70 % участников опроса периодически встречают в вакансиях обязательное требование владеть навыками и инструментами ИИ, а 22 % респондентов сталкиваются с подобными требованиями регулярно.

Практически две трети — 62 % — IT-специалистов в России доверяют ИИ как напарнику. Почти половина опрошенных, в чьих компаниях активно поддерживается использование ИИ, оценили доверие к технологии наивысшим баллом. Вместе с тем 46 % респондентов больше доверяют российским ИИ-сервисам, тогда как одинаковое доверие к отечественным и зарубежным инструментам проявляют менее трети специалистов — около 31 %. Среди наиболее популярных сценариев использования ИИ названы (респонденты могли выбирать несколько ответов):

  • Работа с кодом — 73 %;
  • Генерация текстов — 31 %;
  • Поиск информации — 31 %;
  • Анализ данных — 31 %;
  • Создание презентаций — 24 %;
  • Генерация изображений — 24 %;
  • Анализ рисков кибербезопасности — 19 %;
  • Расшифровка аудиозаписей — 15 %;
  • Подготовка обзоров объёмной информации — 9 %.

В целом, как сказано в исследовании, применение ИИ помогает российским IT-специалистам работать быстрее и эффективнее, минимизирует усилия, избавляет от рутины, повышает чувство уверенности и комфорта, освобождая больше времени для профессиональной реализации и решения интересных мотивирующих задач.

Постоянный URL: http://servernews.ru/1121061
10.04.2025 [09:14], Владимир Мироненко

ZeroPoint Technologies и Rebellions займутся разработкой ИИ-ускорителей со «сжимаемой» памятью

Шведская компания ZeroPoint Technologies, специализирующаяся на создании решений для оптимизации памяти, объявила о стратегическом альянсе с южнокорейским разработчиком ИИ-чипов Rebellions с целью разработки ИИ-ускорителей для инференс. Компании планируют представить новые продукты в 2026 году, обещая «беспрецедентную производительность в пересчёте на токены в секунду на Вт (TPS/W)», пишет EE Times.

Компании планируют увеличить эффективную пропускную способность и ёмкость памяти для нагрузок инференса, используя технологии сжатия, уплотнения и управления памятью от ZeroPoint Technologies. По словам генерального директора ZeroPoint Technologies Класа Моро (Klas Moreau), аппаратная оптимизация работы с памятью на уровне ЦОД позволит увеличить адресуемую ёмкость с ускорением работы почти в 1000 раз по сравнению с использованием программного сжатия.

Компании планируют улучшить показатели токенов в секунду на Вт без ущерба для точности, используя сжатие модели без потерь для уменьшения её размера и сокращения использования энергии, необходимой для перемещения компонентов модели. Гендиректор Rebellions Сонхён Пак (Sunghyun Park) указал, что партнёрство позволит компаниям переопределить возможности инференса, предоставляя более умную, экономичную и устойчивую ИИ-инфраструктуру.

 Источник изображения: ZeroPoint Technologies

Источник изображения: ZeroPoint Technologies

Моро ранее заявил, что более 70 % данных, хранящихся в памяти, являются избыточными, что позволяет полностью избавиться от них, добившись сжатия без потерь полезной информации. Такая технология сжатия должна выполнять ряд специфических действий в пределах наносекунды, т.е. всего нескольких тактов: «Во-первых, она должна отрабатывать сжатие и распаковку. Во-вторых, она должна уплотнять полученные данные, собирая небольшие фрагменты в единичную линию кеша, чтобы значительно улучшить видимую пропускную способность памяти, и, наконец, она должна бесперебойно управлять данными, отслеживая все фрагменты. Чтобы минимизировать задержку, такой подход должен работать с гранулярностью линий кеша — сжимая, уплотняя и управляя данными в 64-байт фрагментах — в отличие от гораздо больших блоков 4–128 Кбайт, используемых традиционными методами сжатия вроде ZSTD и LZ4».

По словам Моро, благодаря этой технологии, для базовых рабочих нагрузок в ЦОД гиперскейлера адресуемая ёмкость памяти и пропускная способность могут быть увеличены в два-четыре раза, производительность на Вт может увеличиться на 50 %, а совокупная стоимость владения (TCO) может быть значительно снижена. А для специализированных нагрузок, таких как большие языковые модели (LLM), интеграция программного сжатия в сочетании с встроенной аппаратной декомпрессией (что минимизирует любую дополнительную задержку) уже продемонстрировала прирост примерно на 50 % в адресуемой ёмкости памяти, пропускной способности и токенах в секунду.

Моро утверждает, что грядущая интеграция аппаратной (де-)компрессии обещает ещё более существенные улучшения. Например, для базовых ИИ-нагрузок кластер со 100 Гбайт физической памяти благодаря использованию этой технологии будет функционировать так, как если бы у него было 150 Гбайт памяти. «Это не только представляет собой миллиарды долларов потенциальной экономии, но и может повысить производительность сложных ИИ-моделей», — заявил Моро. «Эти достижения обеспечивают надёжную основу для компаний, производящих чипы ИИ, позволяя бросить вызов доминированию таких гигантов отрасли, как NVIDIA», — добавил он.

Постоянный URL: http://servernews.ru/1121013
09.04.2025 [21:55], Владимир Мироненко

Google представила ИИ-ускоритель TPU v7 Ironwood, созданный специально для инференса «размышляющих» моделей

Компания Google Cloud представила тензорный ускоритель TPU седьмого поколения Ironwood, который охарактеризовала как свой самый производительный и масштабируемый настраиваемый ИИ-ускоритель на сегодняшний день и первый среди её чипов, разработанный специально для инференса.

Новый чип представляет собой важный поворот в десятилетней стратегии Google по разработке ИИ-чипов, отметил ресурс VentureBeat. В то время как предыдущие поколения TPU были созданы в первую очередь для рабочих нагрузок обучения и инференса, Ironwood — первый чип, специально созданный для инференса.

Как пояснила Google, Ironwood знаменует значительный сдвиг в развитии ИИ и инфраструктуры — переход от простых ИИ-моделей, которые просто предоставляют информацию в режиме реального времени, к моделям, которые обеспечивают проактивную генерацию идей и интерпретацию данных. Компания назвала этот период «эпохой инференса», когда ИИ-агенты будут активно извлекать и генерировать данные, чтобы совместно предоставлять информацию и ответы, а не просто «голые» сведения.

 Источник изображений: Google

Источник изображений: Google

Ironwood разработан в соответствии со сложными вычислительными и коммуникационными требованиями «моделей мышления», которые охватывают большие языковые модели (LLM), смешанные экспертные модели (MoE) и сложные задачи для рассуждения. Эти модели требуют массивной параллельной обработки и эффективного доступа к памяти. В частности, Ironwood разработан для минимизации перемещения данных и задержек на чипе при выполнении массивных тензорных манипуляций. Требования размышляющих моделей к вычислительным мощностям выходят далеко за рамки возможностей любого отдельного чипа.

Google Cloud Ironwood будет поставляться в двух конфигурациях: с 256 или с 9216 чипами. Один чип может похвастаться пиковой вычислительной мощностью 4614 Тфлопс (FP8), а кластер из 9216 чипов мощностью порядка 10 МВт выдаёт в общей сложности 42,5 Эфлопс. Ironwood оснащён усовершенствованным блоком SparseCore, предназначенным для ускорения работы с ИИ-моделями, которые используются в системах ранжирования и рекомендаций. Расширенная реализация SparseCore в Ironwood позволяет ускорить более широкий спектр рабочих нагрузок, выйдя за рамки традиционной области ИИ в финансовые и научные сферы.

Каждый чип оснащен 192 Гбайт памяти HBM, что в шесть раз больше, чем у TPU v6 Trillium. Пропускная способность памяти достигает 7,2 Тбайт/с на чип, что в 4,5 раза больше, чем у Trillium. Также используется межчиповый интерконнект Inter-Chip Interconnect (ICI) с пропускной способностью 1,2 Тбайт/с в дуплексе, что в 1,5 раза больше, чем у Trillium. Наконец, самое важное в эпоху ограниченных по мощности ЦОД — Ironwood обеспечивает вдвое большую производительность на Вт по сравнению с Trillium, а в сравнении с самым первым TPU от 2018 года он почти в 30 энергоэффективнее. Для Ironwood используется СЖО.

С Ironwood разработчики также могут задействовать программный стек Pathways от Google DeepMind, чтобы использовать объединённую вычислительную мощность десятков тысяч TPU Ironwood. Как сообщается, Ironwood будет доступен клиентам Google и её собственным разработчикам в конце 2025 года.

Google зафиксировала 10-кратный рост спроса на ИИ-вычисления за последние восемь лет. Как отметил ресурс VentureBeat, перенос Google фокуса на оптимизацию инференса имеет смысл. Обучение производится редко, а операции инференса — миллиарды раз в день. Экономика ИИ всё больше связана с затратами на инференс, особенно по мере того, как модели становятся всё более сложными и требующими больших вычислительных ресурсов.

Постоянный URL: http://servernews.ru/1121034
09.04.2025 [17:48], Руслан Авдеев

ИИ Google Gemini поможет переписать приложения для мейнфреймов и перенести их в облако

Незадолго до анонса новых мейнфреймов IBM z17 компания Google анонсировала новые ИИ-инструменты на основе моделей Gemini и других технологий для модернизации инфраструктуры и переносу нагрузок с в облако Google Cloud.

Google Cloud Mainframe Assessment Tool (MAT) на основе ИИ-моделей Gemini уже доступен. Инструмент позволяет оценить и проанализировать общее состояние мейнфреймов, включая приложения и данные. Это даст возможность принимать информированные решения по оптимальной модернизации. MAT обеспечивает глубокий анализ кода, генерирует чёткие объяснения его работы, автоматизирует создание документации и др. Это позволяет ускорить понимание кода мейнфреймов и стимулирует процесс модернизации.

Google Cloud Mainframe Rewrite на основе моделей Gemini позволяет модернизировать приложения для мейнфреймов (инструмент доступен в превью-режиме). Он помогает разработчикам переосмыслить и преобразовать код для мейнфреймов, переписав его на современные языки программирования вроде Java и C#. Mainframe Rewrite предлагает IDE для модернизации кода, тестирования и развёртывания модернизированных приложений в Google Cloud.

 Источник изображения: Ant Rozetsky / Unsplash

Источник изображения: Ant Rozetsky / Unsplash

Наконец, чтобы снизить риски, возникающие при модернизации, предлагается инструмент Google Cloud Dual Run для глубокого тестирования, сертификации и оценки модернизированных приложений. Инструмент позволяет проверить корректность, полноту и производительность модернизированного кода в ходе миграции и до того, как новое приложение заменит старое. Dual Run сравнивает данные, выдаваемые старой и новой системами, для поиска отличий.

Имеются и дополнительные инструменты, разработанные партнёрами Google. Так, Mechanical Orchard предлагает платформу для быстро переписывания приложений на COBOL на современные языки, включая Java, Python и др., без изменения бизнес-логики. Решение позволяет «пошагово» переписывать фрагменты приложений с помощью систем генеративного ИИ с сохранением функциональности и тестировать корректность их работы. Основная цель — создать для облака функциональный эквивалент устаревших решений.

 Источник изображения: Google Cloud

Источник изображения: Google Cloud

Кроме того, в рамках новой программы Google Mainframe Modernization with Gen AI Accelerator компания привлекла Accenture, EPAM и Thoughtworks, которые помогут организациям мигрировать с мейнфреймов. На первом этапе производится анализ кода с помощью MAT и Gemini. На втором реализуется пилотный проект с проверкой работоспособности нового кода. На третьем осуществляется полномасштабная миграция в облако. Первые клиенты могут бесплатно (без учёта расходов на Google Cloud) оценить решения в течение 4-8 недель.

Мейнфреймы ещё рано списывать со счетов. Согласно данным опроса Kyndryl 500 топ-менеджеров ИТ-индустрии, многие организации интегрируют мейнфреймы с публичными и частными облачными платформами и совершенствуют свои программы модернизации, перемещая некоторые рабочие нагрузки с мейнфреймов или обновляя их.

Постоянный URL: http://servernews.ru/1120943
09.04.2025 [17:03], Руслан Авдеев

NVIDIA и Cassava Technologies построят в Африке ИИ-фабрику за $720 млн

Африканская технологическая компания Cassava Technologies может инвестировать до $720 млн в первую в Африке «ИИ-фабрику» на базе решений NVIDIA, сообщает Bloomberg. Действующая на территории всего африканского континента компания зимбабвийского происхождения намерена развернуть ИИ-кластеры и сервисы в Южной Африке, Египте, Нигерии, Кении и Марокко.

Как сообщает представитель Cassava, если компания не сделает первый шаг в деле инвестиций в ИИ, какими бы ограниченными они ни были, нельзя рассчитывать, что это сделают и другие. В компании уверены, что нельзя позволить, чтобы Африка осталась позади в деле мирового развития искусственного интеллекта. «ИИ-фабрика» Cassava рассчитана на исследователей в университетах, стартапы и разработчиков в самых разных секторах — здравоохранении, финтехе, государственном управлении.

 Источник изображения: George Brits/unsplash.com

Источник изображения: George Brits/unsplash.com

Первый кластер из 3 тыс. ускорителей NVIDIA к июню будет развёрнут в Южной Африке. В течение трёх-четырёх лет Cassava рассчитывает довести общее количество ускорителей в Африке до 12 тыс. Впрочем, сами ускорители, по словам компании — это лишь основа, а инвестиции в целом направлены на создание ИИ-экосистемы. Кроме того, компания рассчитывает продавать избыточные вычислительные мощности другим заказчикам со всего мира.

Постоянный URL: http://servernews.ru/1121014
09.04.2025 [13:30], Сергей Карасёв

Британское ИИ-облако NexGen Cloud привлекло на развитие $45 млн

Компания NexGen Cloud из Великобритании, по сообщению ресурса Datacenter Dynamics, осуществила раунд финансирования Series A, в рамках которого на дальнейшее развитие привлечено $45 млн. В качестве инвесторов выступили преимущественно частные лица и семейные трасты, однако подробности о них не разглашаются.

Стартап NexGen Cloud был основан в 2020 году. Компания начинала свою деятельность как поставщик облачной инфраструктуры для блокчейн-приложений, но позднее переориентировалась на стремительно развивающуюся отрасль ИИ. В частности, была развёрнута облачная платформа GPU-as-a-Service (GPU как услуга).

У NexGen Cloud нет собственных дата-центров. Вместо этого стартап заключил долгосрочные соглашения на использование GPU-ресурсов с существующими гиперскейлерами. Эти аппаратные мощности NexGen Cloud затем предлагает клиентам, которым нужен более гибкий подход к обучению ИИ-моделей и инференсу. Ресурсы GPU предоставляются через платформу Hyperstack: утверждается, что на сегодняшний день она насчитывает более 10 тыс. пользователей, включая Red Hat, Ingenix.AI, Tyne и ArchiLabs.

 Источник изображения: NexGen Cloud

Источник изображения: NexGen Cloud

В конце 2023 года NexGen Cloud объявила о намерении инвестировать $1 млрд в создание европейского ИИ-супероблака, насчитывающего 20 тыс. ускорителей NVIDIA H100. Привлечённые в ходе раунда финансирования Series A средства стартап намерен направить на развитие партнёрских отношений, которые «помогут улучшить доступ к вычислительным мощностям для ИИ». Кроме того, компания планирует запустить инфраструктурные услуги и новые продукты, включая систему Fine-Tuning-as-a-Service, призванную повысить эффективность предварительно обученных моделей ИИ.

Постоянный URL: http://servernews.ru/1120990
09.04.2025 [13:22], Руслан Авдеев

Microsoft отказалась от планов строительства ЦОД за $1 млрд в Огайо

Компания Microsoft отказалась от планов строительства дата-центров в округе Ликинг (Licking) в штате Огайо (США). В компании сообщают, что более не намерена инвестировать $1 млрд на возведение трёх кампусов ЦОД в Нью-Олбани (New Albany), Хите (Heath) и Хевроне (Hebron), сообщает Datacenter Dynamics.

Это последние новости об отказах Microsoft от реализации связанных с ЦОД проектов. Недавно появилась информация о том, что компания отменила проекты на 2 ГВт в США и Европе. Вскоре после этого она отказалась от проектов в Азиатско-Тихоокеанском регионе и Великобритании.

В октябре 2024 года Microsoft анонсировала планы инвестировать $1 млрд в кампусы ЦОД в Центральном Огайо. На тот момент $420 млн было зарезервировано для кампуса в Нью-Олбани, в том же месяце местный городской совет объявил о налоговых льготах для Microsoft сроком на 15 лет. Площадь ЦОД должна была составить 22 800 м2, площадь участка — более 80 га. Строительство должно было стартовать в июле 2025 года.

Локации для ЦОД в Хите и Хевроне не обнародовали, но ранее Microsoft приобрела порядка 90 га в одном из райнов Хита (Торнвуд-Драйв, Thornwood Drive) и почти столько же — на Хай-Стрит (High Street) в Хевроне. В Хите строительство должны были начать летом 2025 года, а в Хевроне — в 2026-м. По информации представителя Microsoft, компания продолжает оценивать проекты в Огайо в рамках соей инвестиционной стратегии. Руководство и жителей округа Ликинг поблагодарили за поддержку инициатив.

 Источник изображения: Matt Koffel/unspalsh.com

Источник изображения: Matt Koffel/unspalsh.com

Позже компания добавила, что оставит земельные участки за собой и когда-нибудь всё-таки начнёт строительство. Тем временем земля в двух локациях будет поддерживаться в состоянии, пригодном для использования в сельскохозяйственных целей. Кроме того, компания продолжит выполнять обязательства по поддержки местных дорог и инфраструктуры для возможного использования в будущем.

Аналитики TD Cowen полагают, что отмена аренды и отсрочки ввода мощностей связаны с избытком предложения и не исключается, что текущий спрос на ЦОД оказался ниже прогнозируемого. До сих пор позиция Microsoft не менялась, компания заявляла, что благодаря уже сделанным значительным инвестициям она имеет хорошие возможности для того, чтобы удовлетворить спрос. Только в прошлом году компания добавила больше ёмкости ЦОД, чем в любой другой год до этого.

Хотя компания вынуждена оптимизировать подходы и инфраструктуру в некоторых регионах, Microsoft намерена сохранять рост везде, где присутствует. Это позволит инвестировать и распределять ресурсы в зоны роста в будущем. В целом в текущем финансовом году планируется потратить более $80 млрд на инфраструктуру — рост продолжается рекордными темпами.

Летом 2024 года сообщалось о том, что Google намерена инвестировать ЦОД в Огайо $2,3 млрд, а ещё в 2023 году AWS анонсировала инвестиции в объёме $8 млрд в том же штате.

Постоянный URL: http://servernews.ru/1121005
Система Orphus