Материалы по тегу: ии

26.04.2025 [13:12], Владимир Мироненко

Alphabet в полтора раза нарастил квартальную прибыль и подтвердил планы потратить $75 млрд на ИИ-инфраструктуру

Google утверждает, что огромные капиталовложения в ЦОД в последние годы оказывают большее давление на её баланс из-за растущих амортизационных расходов. Несмотря на это, компания по-прежнему планирует направить в 2025 году $75 млрд на развитие ИИ-инфраструктуры, включая развёртывание и модернизацию ЦОД, пишет The Register.

Подводя итоги I квартала 2025 года, финансовый директор холдинга Alphabet Анат Ашкенази (Anat Ashkenazi) сообщила, что компания за три месяца израсходовала «технической инфраструктуры» $17,2 млрд. Она отметила, что крупнейшими были «инвестиции в серверы, за которыми следуют ЦОД» для поддержки подразделений поиска, облака и DeepMind, занимающегося ИИ-технологиями.

Google владеет и управляет 135 ЦОД по всему миру и прибегает к помощи поставщиков услуг колокации. Тем не менее, признала финансовый директор, компании по-прежнему не хватает мощностей, чтобы полностью удовлетворить спрос клиентов. «Мы находимся в условиях ограниченного предложения по отношению к спросу, и, учитывая, что доходы зависят от сроков развёртывания новых мощностей, мы можем наблюдать колебания темпов роста доходов от облачных технологий в зависимости от развёртывания мощностей каждый квартал», — отметила Ашкенази.

Ашкенази напомнила аналитикам, что Google Cloud завершила 2024 год с превышением спроса со стороны клиентов над имеющимися у компании мощностями. И ситуация повторилась в отчётном квартале. «Мы ожидаем относительно более высокого развёртывания мощностей к концу 2025 года», — сообщила она, добавив, что капитальные затраты Google в 2024 году составили от $50 до $55 млрд, и в текущем календарном году компания намерена израсходовать по этой статье на 36–50 % больше.

 Источник изображения: Google

Источник изображения: Google

Ожидая всплеск заказов на облако и ИИ от корпоративных клиентов, Microsoft планирует направить $80 млрд на инфраструктуру в 2025 году, AWS — до $100 млрд, а Meta$60–65 млрд. Вместе с тем AWS и Microsoft пересмотрели часть планов по развитию ЦОД. ИИ — это всего лишь фактор в расширении цифровой империи Google, как и для Microsoft и AWS, но руководство компаний надеется, что эти затраты окупятся, отметил The Register. Недостатком строительства ЦОД является амортизация. Ашкенази сообщила, что рост амортизации составил за квартал примерно 31 % в годовом исчислении, и этот показатель вырастет в течение года.

Alphabet получил в I квартале выручку в размере $90,234 млрд, что на 12 % больше, чем годом ранее, и выше консенсус-прогноза аналитиков, опрошенных LSEG, в размере $89,12 млрд. Реклама принесла холдингу $66,88 млрд, что на 8,5 % больше, чем годом ранее, когда доход от рекламы составил $61,66 млрд. Чистая прибыль Alphabet выросла на 46 % до $34,54 млрд или $2,81 на акцию при прогнозе от LSEG в размере $2,01 на акцию.

Выручка облачного подразделения Google Cloud увеличилась на 24 % до $12,26 млрд, что чуть меньше прогноза аналитиков, опрошенных StreetAccount, в размере $12,27 млрд. Операционная прибыль Google Cloud выросла до $2,17 млрд с $900 млн годом ранее.

Постоянный URL: http://servernews.ru/1121898
25.04.2025 [17:06], Владимир Мироненко

ГК «Элемент» запустит серийное производство российских БП для серверного и телекоммуникационного оборудования

Группа компаний «Элемент», занимающаяся разработкой и производством микроэлектроники, планирует начать в этом году серийный выпуск в Подмосковье блоков электропитания (БП), предназначенных для серверного и телекоммуникационного оборудования, сообщили «Ведомости».

По словам представителя, это будет первое серийное производство отечественных БП на базе российской электронной компонентной базы (ЭКБ). Их разработкой сейчас занимается входящая в группу компания «Элемент-технологии». Для изготовления продукта будет использоваться ЭКБ других предприятий группы.

 Источник изображения: ГК «Элемент»

Источник изображения: ГК «Элемент»

Выход на проектную мощность запланирован к 2027 году. ГК «Элемент» планирует наладить выпуск до 100 тыс. БП в год мощностью 800, 1200 и 1600 Вт. В компании сообщили, что для серверного оборудования общего назначения достаточно БП мощностью не более 1200 Вт. Блоки мощностью 1600 Вт требуются для высокопроизводительного оборудования.

По оценкам, рынок российского серверного и телекоммуникационного оборудования составляет 150–170 тыс. ед. оборудования в год, большая часть которого поставляется из-за рубежа, рассказал представитель «Элемента». Он отметил, что есть подтверждённый спрос на продукт со стороны крупного российского производителя серверного оборудования, не указав его название. По словам экспертов, в России серийным производством БП занимаются около 30 компаний. Среди зарубежных производителей лидирует по поставкам на российский рынок тайваньская Mean Well.

О планах начать выпуск БП следующего поколения для серверов, ориентированных на выполнение ресурсоёмких задач ИИ и НРС в дата-центрах, сообщала в прошлом году Infineon, но, судя по всему, до серийного производства дело пока не дошло.

Постоянный URL: http://servernews.ru/1121846
24.04.2025 [17:08], Руслан Авдеев

Видеосервис для совместной работы MWS TeamStream на треть сократит время общения сотрудников

MWS объявила о запуске решения TeamStream для совместной работы распределённых команд сотрудников. TeamStream позволит заменить переписки и звонки видеосообщениями, что даст возможность на 35 % сократить время коммуникации между сотрудниками. В России объём такого рынка оценивают в 4,5–6 млрд руб., сообщает пресс-служба компании.

Основным преимуществом TeamStream называется возможность в «один клик» записывать видео и звук (с экрана и камеры) — как через браузер, так и с помощью приложений для Windows и macOS. Дополнительно пользователи смогут комментировать материалы, обмениваться ссылками, редактировать видеоконтент и др., объединяясь в «командные пространства». По словам компании, TeamStream открывает возможности для совместной интерактивной разработки и экономит до 32 часов в месяц на сотрудника.

Сервис использует встроенные ИИ-инструменты, для автоматического транскрибирования речи и создания текстовых резюме видеозаписей. Утверждается, что сервис подходит разработчикам, тестировщикам, дизайнерам, аналитикам и другим специалистам, в т.ч. для создания обучающих видео, презентаций, инструкций и получения обратной связи. Готовый контент можно будет пересылать как приватно, так и широкому кругу интернет-пользователей.

 Источник изображения: Mushvig Niftaliyev/unsplash.com

Источник изображения: Mushvig Niftaliyev/unsplash.com

TeamStream войдёт в пакет сервисов МТС для совместной работы в рамках программы импортозамещения. Целевой аудиторией называются фрилансеры, самозанятые специалисты, а также малый и средний бизнес, имеющий штат до 50 человек. Крупный бизнес тоже сможет пользоваться TeamStream, размещая соответствующее ПО на собственных серверах. В этом случае оступны SSO, глубокая кастомизация и постоянная техническая поддержка.

Реализация пилотного проекта TeamStream уже началась в B2B-сегменте и среди корпоративных клиентов в целом. В IV квартале запланирован полноценный вывод продукта на рынок.

Постоянный URL: http://servernews.ru/1121805
24.04.2025 [16:38], Руслан Авдеев

Meta✴ предложила Amazon и Microsoft «скинуться» на обучение ИИ-моделей Llama

Meta уже вложила миллионы долларов в создание и развитие открытых ИИ-моделей семейства Llama, но обучение крупных LLM требует всё больше средств. Поэтому, как сообщает The Information, Meta попросила помощи у своих «коллег», Microsoft и Amazon, что довольно странно, поскольку Meta сама располагает огромными вычислительными ресурсами.

Четыре источника сообщили, что Meta предложила этим компаниям некие «стимулы» вроде возможности влиять на развитие будущих ИИ-моделей Llama. В чём выгода Microsoft и Amazon в этом случае, не совсем понятно, поскольку они сами работают над ИИ-проектами, причём в основном коммерческими, тогда как Meta зарабатывает преимущественно на рекламе. Кроме того, Llama относится к open source проектам, так что спонсировать создание сильного конкурента на рынке не слишком выгодно.

По данным минимум двух источников, помимо «наиболее серьёзных» дискуссий с Amazon и Microsoft, переговоры также велись с Databricks, IBM, Oracle и представителями как минимум одного ближневосточного инвестора. Meta также обсуждала с компаниями создание группы Llama Consortium в начале 2025 года. В ходе дискуссий, по слухам, она в первую очередь просила денег, а также серверы или другие ресурсы, которые компенсировали бы стоимость обучения моделей.

 Источник изображения: Juan Camilo Guarin P/unsplash.com

Источник изображения: Juan Camilo Guarin P/unsplash.com

Дополнительно обсуждались иные формы поддержки потенциальных партнёров. Например, высокопоставленные представители Meta могли бы поучаствовать в конференциях партнёров или более подробно рассказать о процессе обучения моделей. Окончательные результаты переговоров не опубликованы, но в обозримом будущем, вероятно, можно будет отследить, в каких мероприятиях конкурентов будут активно участвовать представители Meta.

В ноябре 2024 года сообщалось, что для обучения новейшей на тот момент модели Llama-4 использовалось более 100 тыс. ускорителей NVIDIA H100. А в марте NVIDIA анонсировала ИИ-модели Llama Nemotron с регулируемым «уровнем интеллекта» на базе решений Meta.

Постоянный URL: http://servernews.ru/1121795
24.04.2025 [09:34], Руслан Авдеев

Доступ к чистой воде становится одной из главных забот для операторов ИИ ЦОД

Стремительное развитие мировой инфраструктуры ЦОД на фоне повсеместного внедрения ИИ ведёт к огромным затратам питьевой воды на охлаждение оборудования. В результате возникают финансовые, операционные и репутационные риски, сообщает Datacenter Knowledge. По данным доклада агентства Moody, нехватка воды нарастает на ключевых рынках ЦОД.

Консалтинговая компания сообщает о растущих рисках для операторов ИИ ЦОД, особенно гиперскейлеров. В докладе подчёркивается, что желание облачных гигантов в целом арендовать новые дата-центры может привести к ограничению доступности ресурсов на некоторых рынках. Большинство новых крупных ЦОД используют водные системы охлаждения, более подходящие для больших нагрузок, но требующие больше воды. ЦОД, которые не смогут установить системы охлаждения с эффективным расходом воды, могут столкнуться с повышенным вниманием со стороны регуляторов и инвесторов.

Как сообщили в Moody, дефицит грунтовых вод представляет серьёзный риск для быстрорастущих регионов размещения ЦОД гиперскейлеров — юго-востока США, Чили и Индии. Местные законы, инфраструктурные ограничения и общественное недовольство могут привести к тому, что гиперскейлеры могут отложить реализацию проектов или перенести их в другие, более благоприятные для бизнеса локации, особенно если препятствия приведут к увеличению цены в прежних местах.

 Источник изображения: Claudio Biesele/unsplash.com

Источник изображения: Claudio Biesele/unsplash.com

В зависимости от климата и типа инфраструктуры один объект гиперскейл-уровня может потреблять миллионы литров воды в день, наравне с небольшими городами. Хотя компании успешно повысили эффективность использования воды (WUE) до 0,2–0,5 л/кВт∙ч, общий спрос на чистую воду со стороны индустрии ЦОД продолжает расти в связи с быстрым ростом гиперскейлеров и ИИ-инфраструктуры. IT-гиганты могут отложить попытки стать водно-положительными.

По информации аналитиков JLL, наиболее известные игроки рынка ЦОД заблаговременно принимают меры, связанные с возможной будущей нехваткой воды и электричества, выбирая подходящие места для строительства и используя поэтапный подход в реализации проектов. Основной вызов — в сохранении баланса между заявляемыми целями и требованиями к безотказной работе и рентабельности.

СЖО и адиабатические системы охлаждения могут обеспечить низкий расход воды, но несут собственные риски и сложности — нельзя жертвовать надёжностью ради экоустойчивости. Опытные операторы ищут компромисс, например, используя гибридные подходы к охлаждению. Другие изучают возможность применения очищенных сточных вод, модульного охлаждения или замкнутых систем, но такие варианты часто дороги, особенно при оснащении новыми решениями существующих объектов. Правда, современные «безводные» технологии достаточно рискованны, т.к. отсутствует статистика их применения.

 Источник изображения: Olga Angelucci/unsplash.com

Источник изображения: Olga Angelucci/unsplash.com

Более того, в засушливых регионах ЦОД всё чаще конкурируют за ресурсы с местными жителями и сельскохозяйственным бизнесом. Такая конкуренция может привести к ужесточению законов, общественным протестам и задержкам в реализации проектов. По мере того, как нагрузка на окружающую среду будет расти, ужесточатся проверки регуляторов и вырастут репутационные риски, что скажется и на ценах.

Инвесторы всё чаще обращают внимание на подобные вопросы, и компании вынуждены, например, покупать «зелёные облигации». А муниципалитеты теперь требуют оценки воздействия на водные ресурсы до того, как выдадут разрешения на строительство. Подобные меры могут стать более распространёнными по мере того, как будут ужесточаться критерии экоустойчивости и отчётности.

С точки зрения кредитных рисков заблаговременная модернизация инфраструктуры дата-центров оценивается позитивно и соответствует растущему спросу арендаторов на экоустойчивые решения. Напротив, задержки в обновлении могут сигнализировать о недостатке инвестиций в адаптацию к экологическим требованиям, что в перспективе способно снизить конкурентоспособность оператора.

Постоянный URL: http://servernews.ru/1121733
24.04.2025 [00:15], Владимир Мироненко

Китайские IT-гиганты всё-таки успели закупить NVIDIA H20 на миллиарды долларов до объявления новых санкций

Ведущие интернет-компании Китая, включая ByteDance, Alibaba и Tencent, успели сделать запасы урезанных ИИ-ускорителей NVIDIA H20 на миллиарды долларов, прежде чем США прекратили поставки чипов в апреле, сообщил ресурс Nikkei Asia со ссылкой на источники в отрасли. По словам источников, эти компании ещё в прошлом году начали готовиться к тому, что Вашингтон может ограничить и их поставки.

Один из источников сообщил, что эти компании обратились к NVIDIA с просьбой поставить в общей сложности около 1 млн ускорителей H20 — примерно годовой запас — как можно скорее, в идеале к концу мая. Он добавил, что по факту было поставлено меньше из-за того, что администрация Трампа объявила о необходимости лицензирования поставок этих чипов в начале апреля. Ещё один источник утверждает, что стоимость срочных заказов превысила $12 млрд, и что NVDIA успела отгрузить чипов на несколько миллиардов долларов до того, как вступили в силу новые требования.

Согласно источникам, ByteDance была одной из самых активных в скупке чипов, стремясь приобрести их как можно больше. На активность компаний повлиял резкий роста спроса на ИИ-мощности в Китае, особенно после громкого дебюта DeepSeek в начале этого года. В феврале Tencent начала интегрировать DeepSeek в свою платформу WeChat с аудиторией более 1,2 млрд пользователей, что значительно увеличило требования к вычислительным ресурсам. Топ-менеджер компании сообщил, что ограничения на поставки H20 не стали неожиданностью, поскольку их уже ожидали в отрасли. «Каждая крупная китайская технологическая компания заранее запасалась H20», — отметил он.

 Источник изображения: Jan Kopřiva / Unsplash

Источник изображения: Jan Kopřiva / Unsplash

Помимо размещения срочных заказов на поставку передовых чипов, китайские компании производили закупки чипов NVIDIA за пределами Китая, где они не подпадают под экспортный контроль США, сообщили источники Nikkei Asia. Также для доступа к ИИ-ускорителям китайские игроки прибегали к созданию дочерних компаний или филиалов за рубежом или заключали соглашения о сотрудничестве с отраслевыми партнёрами, такими как операторы связи.

«Они знали, что это произойдет, и были готовы к этому дню. Они сказали нам, что их агрессивная цель построить больше ЦОД в этом году остается неизменной», — рассказал топ-менеджер поставщика компаний ByteDance и Alibaba Cloud. Помимо материкового Китая и Гонконга, Alibaba управляет ЦОД в 13 странах, включая два в США, в то время как у ByteDance есть ЦОД в странах Юго-Восточной Азии и Европы, включая Ирландию и Норвегию.

Между тем, китайские провайдеры ЦОД ускоряют процесс валидации ИИ-чипов местного производства, таких как Ascend от Huawei, говорят источники. В начале апреля Huawei представила собственный суперускоритель CloudMatrix 384 на базе 384 ускорителей Huawei Ascend 910C в качестве альтернативы NVIDIA GB200 NVL72. H20 — это дважды ослабленная версия NVIDIA H100. H20 имеет примерно одну десятую вычислительной мощности H100 для обучения ИИ и всего 20 % от его возможностей по инференсу. Тем не менее, он очень популярен в Китае.

 Источник изображения: Joshua Wordel / Unsplash

Источник изображения: Joshua Wordel / Unsplash

Специалист по ИИ из Гонконга Юджин Ли (Eugene Lee) сообщил, что конфигурация H20 оптимизирована для инференса, в отличие от высокопроизводительных возможностей обучения чипов H100 и H800. Если поставки H20 закончатся, его можно будет частично заменить отечественными альтернативами или облачными решениями для моделей малого и среднего размера. Вместе с тем развёртывание и постоянная оптимизация больших ИИ-моделей могут быть существенно ограничены.

Ли отметил, что обучение многих мощных ИИ-моделей обеспечивается ранее закупленными H100 и H800, а основные поставщики облачных услуг также используют их для инференса. «Если существующие запасы H100 и H800 будут исчерпаны, это может серьёзно затруднить обучение передовых моделей и разработку систем следующего поколения, что создаст существенную угрозу конкурентоспособности Китая в разработке высокопроизводительного ИИ», — сказал эксперт.

NVIDIA предупредила, что экспортные ограничения на H20 пойдут на пользу её конкурентам. 15 апреля компания заявила, что ущерб от этого за квартал составит около $5,5 млрд. В минувшем финансовом году, который закончился 26 января, на Китай пришлось около 13,1 % от общего дохода NVIDIA, тогда как годом ранее этот показатель составлял почти 17 %. Доля Сингапура, напротив, выросла до 18 % с 11,2 % в предыдущем году. Впрочем, NVIDIA отметила, что эти цифры группируются по месту выставления счетов клиентам, и многие клиенты используют Сингапур для централизации расчётов и поставок чипов в другие места. По фактическим поставкам Сингапур принёс NVIDIA менее 2 % от общего дохода за этот период.

Постоянный URL: http://servernews.ru/1121760
23.04.2025 [16:15], Руслан Авдеев

GPU под роспись: Amazon резко ужесточила использование дефицитных ИИ-ускорителей внутри компании в рамках Project Greenland

В прошлом году ретейл-бизнес Amazon столкнулся с острой нехваткой ИИ-ускорителей для внутреннего пользования. Это привело к задержкам при реализации ключевых проектов. На фоне глобального бума ИИ-технологий и дефицита чипов NVIDIA компания вынужденно пересмотрела принципы доступа к ускорителям для собственных нужд, сообщает Business Insider.

В июле 2024 года началась реализация т. н. Project Greenland. Фактически речь идёт о платформе для централизованного распределения ресурсов ускорителей. Платформа позволяет отслеживать их использование, перераспределяет мощности в случае простоя и даёт возможность оперативно реагировать на изменения спроса. Теперь все заявки на доступ к ускорителям подаются только через Greenland, а приоритет получают проекты с высоким уровнем возврата инвестиций (ROI), чётким графиком и заметным влиянием на снижение затрат или рост выручки. У проектов с низкой эффективностью доступ к вычислительным мощностям могут вообще отозвать в пользу более перспективных инициатив.

Amazon выделила восемь принципов распределения ускорителей среди сотрудников компании:

  1. «ROI + здравый смысл»: ускорители будут выделяться по уровню возврата инвестиций и обоснованности проектов, а не по очереди. Все ресурсы должны способствовать росту денежного потока;
  2. Постоянное совершенствование: подход пересматривается по мере накопления нового опыта;
  3. Нужно избегать изолированных решений: все инициативы, связанные с ускорителями, должны централизованно отслеживаться и координироваться;
  4. Экономя времени: масштабируемые инструменты — ключ к быстрому принятию решений, что, в свою очередь, высвобождает время для инноваций;
  5. Повышение эффективности: оптимизация использования ускорителей содействует сотрудничеству и совместному использованию ресурсов;
  6. Ради инноваций иногда можно рисковать: допустимый уровень риска необходим для поддержания разработок и исследований;
  7. Прозрачность и конфиденциальность: методология распределения ускорителей должна быть понятна и доступна всем внутри компании, но конфиденциальне данные о конкретных проектах остаются закрытыми;
  8. Возможность отзыва ускорителей: в случае необходимости их могут изъять для более ценных проектов.
 Источник изображения: Centre for Ageing Better/unsplash.com

Источник изображения: Centre for Ageing Better/unsplash.com

Amazon уже активно использует искусственный интеллект в различных проектах. В числе ключевых инициатив:

  • Помощник для покупок Rufus;
  • Генератор изображений товаров Theia;
  • Система компьютерного зрения VAPR для ускоренной сортировки посылок;
  • ИИ-модель для оптимизации маршрутов и доставок;
  • ИИ-поддержка для обработки возвратов;
  • Автоматизация расследований мошеннических действий и проверки документов.

По оценкам Amazon, ИИ-проекты розничного подразделения в 2024 году принесли $2,5 млрд операционной прибыли, попутно сэкономив $670 млн. В 2025 году ретейл-подразделение Amazon намерено вложить $1 млрд в ИИ-проекты розничного сегмента и увеличить расходы на облако AWS до $5,7 млрд (с $4,5 млрд в 2024 году).

Если во II полугодии 2024 года розница Amazon нуждалась в более 1 тыс. дополнительных инстансов P5 с NVIDIA H100, то в 2025 году ситуация, как свидетельствуют внутренние прогнозы, должна стабилизироваться. А к концу года внутренние запросы полностью удовлетворят с помощью чипов собственной разработки Amazon Tranium, «но не раньше». Тем не менее, в Amazon не теряют бдительности, постоянно задаваясь вопросом: «Как получить больше ускорителей?».

Постоянный URL: http://servernews.ru/1121719
23.04.2025 [15:16], Руслан Авдеев

AWS откажется от аренды некоторых ЦОД, но это не говорит о крахе рынка

Amazon (AWS) приостановит некоторые сделки по аренде дата-центров — эта новость вызвала опасения относительно будущего рынка ЦОД у некоторых экспертов. Впрочем, в самой компании поспешили развеять их, заявив, что речь идёт о рутинных операциях, сообщает The Register. Примечательно, что новости на основе материалов Wells Fargo появились вскоре после того, как были обнародованы данные о сокращении на 2 ГВт проектов ЦОД компанией Microsoft.

Что касается AWS, то гиперскейлер «решил передохнуть» от некоторых переговоров, посвящённых аренде колокейшн-мощностей для своих облачных сервисов, в частности, у иностранных партнёров. Утверждается, что AWS не отказывается от уже подписанных соглашений, но намерена отменить переговоры о дополнительных ёмкостях. В самой компании уверяют, что никаких секретов у неё нет и бизнес идёт как обычно — но на фоне данных о Microsoft и неопределённости, вызванной реформами администрации США, эксперты всё равно насторожились. Ранее Amazon намеревалась потратить на ЦОД и ИИ-ускорители в 2025 году до $100 млрд.

В AWS утверждают, что никакого падения спроса на облачные ИИ-сервисы не наблюдается, а новые меры — просто результат поиска оптимальных сделок для удовлетворения потребностей в новых мощностях. Подчёркивается, что спрос на системы генеративного ИИ и «классические» нагрузки по-прежнему высок. Компания почти 20 лет работает на рынке ЦОД, что позволяет ей параллельно рассматривать самые разные опции. Некоторые предложения обошлись бы слишком дорого, другие потенциальные партнёры не готовы предоставить мощности тогда, когда это нужно, или там, где это нужно в данный момент. Другими словами, речь идёт о «рутинном» управлении процессами и никаких фундаментальных изменений не ожидается.

 Источник изображения: Amina Atar/unsplash.com

Источник изображения: Amina Atar/unsplash.com

Аналитики Omdia заявили, что многие современные инвесторы не имеют должного представления о специфике рынка ЦОД и преждевременно паникуют. На деле в будущем понадобится всё больше вычислений и одним из драйверов развития выступают ресурсоёмкие ИИ-системы. По мнению экспертов, для гиперскейлеров вполне естественно масштабировать свои колокейшн-мощности в соответствии с потребностями, особенно с учётом того, что параллельно они строят и собственные ЦОД.

Однако в Digital Realty допустили риск возникновения «пузыря ЦОД», причём по той же самой причине — многие инвесторы совершенно не разбираются в отрасли и вкладывают деньги буквально потому, что услышали о перспективности дата-центров. По имеющимся в компании данным, сегодня на примерно 20 крупных организаций приходится 60 % арендованных мощностей. Компании уже расширили присутствие в разных регионах, используя множество колокейшн-операторов, но теперь сокращают число партнёров, и либо строя собственные мощности, либо работая с минимальным количеством провайдеров.

Другими словами, говорить о том, что «пузырь» готов лопнуть, пока рано, хотя после прихода новой администрации США на рынках появились признаки нестабильности. Инфраструктурные вложения пока несопоставимо выше затрат корпоративных клиентов на ПО для ИИ-проектов, но никакого значимого кризиса пока, похоже, не наблюдается. В марте председатель Alibaba Group Джо Цай (Joe Tsai) предупредил, что дата-центров для ИИ может быть построено больше, чем необходимо. Правда, та же Microsoft по-прежнему не намерена отказываться от планов вложить $80 млрд в отрасль в ближайшее время.

Постоянный URL: http://servernews.ru/1121717
23.04.2025 [11:00], Сергей Карасёв

«Базис» представляет обновленный Basis Dynamix Cloud Control для комплексного управления облачной инфраструктурой

Компания «Базис», лидер российского рынка виртуализации, объявляет о выходе обновления платформы для комплексного управления облачной инфраструктурой Basis Dynamix Cloud Control. В релиз 5.1 вошло более 30 улучшений, серьёзно расширяющих возможности решения в части управления инфраструктурными (IaaS) и платформенными (PaaS) сервисами, в том числе автоматизации рутинных операций.

Решение Basis Dynamix Cloud Control подходит для государственных и коммерческих организаций с разветвлённой сетью региональных офисов, для компаний со сложной инфраструктурой и большим количеством внутренних сервисов, а также для облачных провайдеров, предоставляющих сервисы по модели IaaS, PaaS, SaaS, K8SaaS. Basis Dynamix Cloud Control позволяет заказчику управлять федеральной сетью виртуальных центров обработки данных (вЦОД) из единой панели, предоставляя полный цикл управления виртуальными сервисами и инфраструктурой, возможности самообслуживания пользователей и автоматизированную систему выделения и учёта ресурсов.

Стабильность инфраструктуры и сохранность данных

В Basis Cloud Control 5.1 появились инструменты развёртывания и управления кластерами высокой доступности, что исключает простои сервисов даже при отказе отдельных узлов инфраструктуры.

Дополнительную стабильность обеспечивает новый механизм контроля обязательных версий оркестратора, который автоматически проверяет совместимость компонентов, снижая таким образом риски сбоя при обновлении системы. Логи установки и обновления оркестратора теперь собираются в файл.

 Источник изображений: «Базис»

Источник изображений: «Базис»

Также в Basis Dynamix Cloud Control реализована расширенная система резервного копирования с возможностью задания конкретных дат в расписании, оптимизированы логи.

Гибкое управление сетевой инфраструктурой

С новой версией Basis Dynamix Cloud Control можно гибко управлять скоростью интернет-трафика для виртуальных машин — это помогает выделить нужную полосу пропускания для важных сервисов и оптимизировать затраты на каналы связи. Также добавлена балансировка UDP-трафика для крупнейших платформ виртуализации: российской Basis Dynamix Enterprise и зарубежной VMware vSphere.

Запуск и управление сервисами PaaS

В Basis Dynamix Cloud Control 5.1 реализована поддержка заказа и развёртывания платформенных сервисов (PaaS) на Basis Dynamix и VMware vSphere. Спрос на такие решения в России растёт: по данным iKS-Consulting, в 2024 году сегмент PaaS увеличился на 59% до почти 33 млрд руб. и постепенно догоняет IaaS. «Платформа-как-сервис» позволяет не тратить время на развёртывание, настройку и поддержку серверов, установку ОС и т.д. Достаточно арендовать уже настроенную платформу с, например, развёрнутой базой данных или инструментами мониторинга, и можно начинать работу.

Заказчикам Basis Cloud Control доступно автоматизированное управление:

  • Kubernetes-кластерами, включая выбор версии шаблона при заказе кластера, добавление и удаление узлов, создание балансировщиков и дисков для сервисов;
  • Объектными хранилищами S3, в том числе внешними объектными СХД MinIO и NetApp StorageGRID, включая создание бакетов, управление объектами и настройку доступа.

Расширенные возможности автоматизации и интеграции

Обновлённый Basis Dynamix Cloud Control предлагает несколько дополнительных инструментов автоматизации работы администратора, например, развёртывание виртуальных машин через config-drive.

В целом, для облегчения работы специалистам заказчика доступны поддержка Infrastructure as Code (IaC) с помощью Terraform/OpenTofu, открытое REST API, интеграция с системами мониторинга и Telegram-ботом, а также SDK на языках Python и Go для разработки решений под индивидуальные задачи. Перечисленные инструменты позволяют значительно ускорить и упростить развёртывание сложных инфраструктур, а также интегрировать Basis Cloud Control с существующей экосистемой ИТ-решений заказчика.

Усиление безопасности и контроля доступа

В релизе 5.1 реализованы отображение и управление сервисными учётными записями из интерфейса портала и автоматическое назначение тегов для учётных записей, полученных из LDAP.

В целом, Basis Dynamix Cloud Control поддерживает двухфакторную авторизацию через телефон, электронную почту, одноразовый пароль и Telegram, интеграцию с LDAP (включая Active Directory, FreeIPA, Samba DC) с автоматическим назначением тегов, журналирование действий пользователей и настройку жизненного цикла логов. Это позволяет организациям обеспечить строгий контроль доступа к облачным ресурсам и соответствие требованиям информационной безопасности.

Оптимизация расходов и управление ресурсами

Basis Dynamix Cloud Control 5.1 предоставляет инструменты для задания лимитов ресурсов на проекты и клиентов, гибкую тарификацию потребления ресурсов в различных временных интервалах, автоматическую генерацию отчётов с доставкой по электронной почте в форматах XLSX или CSV. Эти возможности помогают оптимизировать затраты на облачную инфраструктуру и обеспечить эффективное распределение ресурсов.

Удобство администрирования и самообслуживания

Управлять запросами к технической поддержке стало проще — создан специальный раздел «Обращения», где пользователь видит все заявки и их статусы. За счёт использования шаблонов с предустановленным ПО ускорено создание новых виртуальных серверов, причём каждое подразделение теперь видит только релевантные для него шаблоны. В результате пользователи быстрее получают необходимые ресурсы, а администраторы тратят меньше времени на рутинные задачи.

«Заказчиками наших инфраструктурных продуктов являются компании, реализующие крупнейшие государственные и коммерческие сервисы, которыми пользуются миллионы людей. Это накладывает на нас серьёзные обязательства в части гибкости и стабильности работы наших решений, поэтому мы уделяем этим характеристикам особое внимание. В релизе Cloud Control 5.1 мы сосредоточились на реализации кластеров высокой доступности и повышении надёжности инфраструктуры под управлением наших продуктов, чтобы минимизировать для клиентов риск сбоев и время простоя в работе сервисов», — отметил Дмитрий Сорокин, технический директор компании «Базис».

Постоянный URL: http://servernews.ru/1121501
23.04.2025 [09:37], Владимир Мироненко

Глава NVIDIA призвал премьера Японии к увеличению производства электроэнергии для развития ИИ-индустрии

Гендиректор NVIDIA Дженсен Хуанг (Jensen Huang, на фото ниже) сообщил о прошедшей в понедельник встрече с премьер-министром Японии Сигэру Исибой (Shigeru Ishiba), на которой он говорил о необходимости увеличения производства электроэнергии для удовлетворения потребности страны в развитии ИИ-технологий, передаёт Bloomberg.

По словам Хуанга, в беседе с премьером он отметил, что Япония особенно хорошо подходит для разработки ИИ-технологий, но для этого потребуется достаточное количество энергии: «Стране необходимо построить новую инфраструктуру <…> энергия необходима для любого промышленного роста».

Япония не слишком богата на ресурсы. Ситуация с энергообеспечением страны обострилась из-за аварии на АЭС «Фукусима-1» и увеличения импорта дорогостоящего ископаемого топлива. Теперь правительство взвешивает потребность в обеспечении ИИ ЦОД электроэнергией и изучает вопрос перезапуска ядерных реакторов. Кроме того, Япония рассмотрит инвестиции в проект по производству сжиженного природного газа (СПГ) на Аляске стоимостью $44 млрд в рамках переговоров по торговому соглашению с США, заявил Исиба.

 Источник изображения: WANG Tianfang / Unsplash

Источник изображения: WANG Tianfang / Unsplash

Развитие ИИ позволит преобразовать все отрасли, от здравоохранения до производства, образования и сельского хозяйства, говорит Хуанг. Но развёртывание необходимых для этого дата-центров повлечёт за собой самые высокие темпы роста спроса на электроэнергию за последние годы, сообщают в Международном энергетическом агентстве (IEA).

Встреча Дженсена Хуана с премьером Японии состоялась сразу после его поездки в Пекин и объявления администрацией президента США о необходимости получения лицензии на поставку Китаю чипов с урезанной производительностью H20, специально разработанных NVIDIA для китайских клиентов в соответствии с предыдущими экспортными ограничениями США. По факту это означает запрет продаж, из-за чего компания потеряла заказы в Китае на $18 млрд. Также ей пришлось списать на убытки $5,5 млрд в связи с дополнительными расходами.

Постоянный URL: http://servernews.ru/1121687

Входит в перечень общественных объединений и религиозных организаций, в отношении которых судом принято вступившее в законную силу решение о ликвидации или запрете деятельности по основаниям, предусмотренным Федеральным законом от 25.07.2002 № 114-ФЗ «О противодействии экстремистской деятельности»;

Система Orphus