Лента новостей
18.06.2025 [14:56], Руслан Авдеев
xAI Илона Маска ежемесячно «сжигает» $1 млрд в надежде на будущие прибылиСтартап xAI Илона Маска (Elon Musk) ежемесячно тратит $1 млрд, поскольку стоимость создания компанией передовых ИИ-моделей значительно выше его доходов. Скорость трат средств компанией наглядно демонстрирует огромные финансовые потребности отрасли ИИ, сообщает Bloomberg со ссылкой на собственные источники. Для того, чтобы компенсировать дисбаланс, xAI пытается привлечь $9,3 млрд в долг и в виде акционерного капитала. При этом компания уже намерена потратить более половины из этих средств в ближайшие три месяца. Всего в 2025 году xAI, стоящая за чат-ботом Grok, рассчитывает потратить $13 млрд, но пока её усилия по сбору средств едва поспевают за расходами. Отчасти подобная ситуация обусловлена огромными расходами, с которыми столкнулись все ИИ-компании при создании современных ЦОД и покупке ускорителей для обучения LLM. По данным экспертов Carlyle Group, к 2030 году для удовлетворения спроса на ИИ-инфраструктуру будет потрачено более $1,8 трлн. В компании CreditSights тоже уверены, что разработчики «сожгут много-много денег», поскольку пространство «очень конкурентное». ![]() Источник изображения: Bloomberg При этом компания Маска пока не может зарабатывать столько, сколько OpenAI или Anthropic. Ни одна из этих компаний не раскрывает точных финансовых показателей, но ранее Bloomberg сообщал, что OpenAI ожидает выручить в 2025 году $12,7 млрд, тогда как xAI недавно объявила инвесторам, что в этом году её выручка составит лишь $500 млн, а в следующем — более $2 млрд. Сильная сторона xAI в том, что её глава Илон Маск, самый богатый человек в мире, не раз демонстрировал готовность тратить собственные средства на гигантские футуристические проекты задолго до того, как те начнут приносить деньги. В самой xAI, пытающейся создать «сверхразумный искусственный интеллект», способный конкурировать с людьми, считают, что компания имеет особые преимущества, которые позволят рано или поздно догнать конкурентов. Пока некоторые из компаний арендуют чипы и прочие мощности, xAI платит за большую часть инфраструктуры сама, а также пользуется ресурсами социальной сети X, которая тоже закупала ускорители. По словам Маска, xAI продолжит закупки новых чипов. После недавнего слияния xAI и X руководители ИИ-подразделения компании рассчитывают, что смогут обучать модели на архиве сообщений социальной сети, а не платить за массивы данных на стороне, как другие ИИ-компании. В результате xAI оптимистично рассчитывает стать прибыльной уже к 2027 году. Для сравнения, OpenAI предполагает «выйти в плюс» к 2029 году. ![]() Источник изображения: Bloomberg Оптимистичные прогнозы, популярность Маска и его близость к властям в США привлекают инвесторов. Оценка xAI выросла до $80 млрд в конце I квартала, хотя в конце 2024 года она была на уровне $51 млрд. Среди инвесторов замечены Andreessen Horowitz, Sequoia Capital и VY Capital. Сейчас xAI спешит собрать достаточно денег, чтобы покрыть свои колоссальные расходы. По словам экспертов, с момента основания в 2023 году по июнь текущего компания привлекла $14 млрд акционерного капитала, из них на начало I квартала 2025 года оставалось лишь $4 млрд, оставшиеся средства компания рассчитывала потратить во II квартале. Сейчас компания завершает очередной раунд акционерного финансирования на $4,3 млрд и намерена привлечь ещё $6,4 млрд в следующем году, не считая долга в $5 млрд. Ожидается, что корпоративный долг поможет оплатить развитие ЦОД xAI. Компания также рассчитывает получить скидку в $650 млн от одного из производителей оборудования. По данным Bloomberg, уже есть первые признаки того, что xAI столкнулась с трудностями при привлечении инвестиций на первоначальных условиях. Инвесторы проявляли сдержанность, но после того, как компания изменила условия сделки в их пользу и предоставила дополнительную финансовую информацию, интерес к инвестициям вырос. Morgan Stanley, отвечающая за привлечение долговых средств xAI, отказалась от комментариев.
18.06.2025 [11:57], Руслан Авдеев
Firebird намерена построить в Армении 100-МВт ИИ ЦОДКомпания Firebird, специализирующаяся на облачных ИИ-технологиях, совместно с правительством Армении объявили о планах ввода в эксплуатацию в 2026 году ИИ ЦОД на 100 МВт. Предполагается, что он будет оснащён «тысячами» ускорителей NVIDIA Blackwell, сообщает Datacenter Dynamics. Финансирование проекта будет осуществляться в рамках государственно-частного партнёрства. Проект оценивается в $500 млн. По словам премьер-министра Армении, речь идёт о важном шаге на пути укрепления технологического сектора и глобального партнёрства в целом. Как заявил министр, правительство с радостью поддерживает инициативу, открывающую новые возможности для народа и региона. О самой компании Firebird и проекте пока известно не слишком много. По имеющимся данным, генеральным директором и соучредителем является американский бизнесмен с армянскими корнями Размик Овакимян (Razmig Hovaghimian). Он известен сотрудничеством с несколькими медийными и спортивными компаниями, включая Rakuten Viki, NBC, Hoodline и Matchday. По словам бизнесмена, компания намерена инвестировать в новые модели, робототехнику и науку, привлекая к партнёрству ведущие мировые университеты. Также планируется наращивать потенциал для взращивания нового поколения новаторов в Армении. ![]() Источник изображения: Ivars Utināns/unspalsh.com Ключевым инвестором Firebird выступит фонд «Афеян для Армении» (Afeyan Foundation for Armenia), а его глава Нубар Афеян (Noubar Afeyan), также являющийся руководителем компании Flagship Pioneering, получит должность стратегического консультанта и партнёра-основателя Firebird. По словам Афеяна, Армения намерена сделать ставку на глобальное сотрудничество и долгосрочные инвестиции в технологии. Развитие ИИ-инфраструктуры для страны и окружающего региона — смелый шаг, рассчитанный на превращение Армении в значимого участника «мирового ИИ-ландшафта». Развитие ИИ-инфраструктуры в Армении также поддержат Team Group, материнская компания Telecom Armenia и ирландской Imagine Broadband. Как заявил в своё время генеральный директор NVIDIA Дженсен Хуанг (Jensen Huang), «ИИ-фабрики — инфраструктура XXI века» и сотрудничество с Арменией поможет «открыть новые возможности для инноваций во всём регионе». Пока же в Армении существует небольшой рынок ЦОД. Армянская телеком-компания Ovio, принадлежащая «Ростелекому», Datacom Company и Arminco управляют ЦОД в Ереване. Небольшой объект строится местной VSDATA.
18.06.2025 [11:54], Сергей Карасёв
Мини-плата для мини-маршрутизатора: представлена Orange Pi R2S с чипом RISC-VВ семействе одноплатных компьютеров Orange Pi, по сообщению ресурса CNX Software, появилась модель R2S, которую можно использовать для построения различных сетевых устройств, в частности, маршрутизаторов. Новинка уже доступна для заказа по цене от $30. В основу изделия положен процессор Ky X1 с восемью 64-битными ядрами RISC-V (RV64GCVB), функционирующими на частоте до 1,6 ГГц. В состав чипа входят графический ускоритель Imagination IMG BXE-2-32 (819 МГц) с поддержкой OpenGL ES3.2, Vulkan 1.3 и OpenCL 3.0, а также VPU-блок с возможностью декодирования видео H.265, H.264, VP8, VP9, MPEG4, MPEG2 в форматах до 4K@60 Гц и кодирования H.265, H.264, VP8, VP9 в форматах до 4K @ 30 Гц. Процессор также располагает ИИ-ускорителем с производительностью до 2 TOPS (INT8). В зависимости от модификации плата несёт на борту 2, 4 или 8 Гбайт памяти LPDDR4X. Предусмотрены флеш-модуль eMMC вместимостью 8 Гбайт и слот для карты microSD. За сетевые подключения отвечают два порта 2.5GbE на основе контроллеров RealTek RTL8125BG и два порта 1GbE на базе YT8531C-CA: во всех случаях для подключения кабелей служат разъёмы RJ45. Кроме того, имеются по одному порту USB 3.0 и USB 2.0. Питание 5 В / 3 A подаётся через порт USB Type-C. Изделие имеет размеры 79,2 × 46 мм и весит 60 г. Отмечается, что для новинки будут доступны образы OpenWrt 24.10 и Ubuntu 24.04 (ядро Linux 6.6.xx). Стоимость Orange Pi R2S с 2 Гбайт ОЗУ составляет $30, с 4 Гбайт — $40. Цена варианта с 8 Гбайт памяти пока не указывается, но, по всей видимости, она окажется на уровне $50.
18.06.2025 [09:29], Руслан Авдеев
Дата-центры Яндекса нарастили энергопотребление, сохранив PUEКомпания «Яндекс» опубликовала отчёт об устойчивом развитии в 2024 году. Немало внимание в материалах уделили статистике и выводам, посвящённым работе её дата-центров, в том числе — показателям энергоэффективности и углеродным выбросам, сообщает пресс-служба группы. На территории России на конец 2024 года Яндекс располагал пятью дата-центрами. По словам компании, особое внимание энергоэффективности уделялось уже на этапе проектирования ЦОД. Компания занимается разработкой собственного серверного оборудования, готового к стабильной работе при высоких температурах. Особая конструкция серверов позволяет не применять системы кондиционирования с водой и хладагентами — вместо этого используется фрикулинг, который снижает энергопотребление, уменьшает капитальные затраты и позволяет оптимизировать использование площадей ЦОД (впрочем, развитие ИИ не всегда совместимо с таким подходом). Применяются и другие технологии энергосбережения, например, суперкомпьютеры используют специальную систему эффективного отвода тепла, экономящие электричество. Такие решения тратят на 30–50 % меньше электроэнергии, чем серверы со стандартной архитектурой при прочих равных условиях. ![]() Источник изображений: Яндекс Среднегодовой PUE крупнейших дата-центров Яндекса составляет 1,15, что заметно ниже среднемирового показателя 1,56. PUE для всех ЦОД Яндекса составил 1,26. В сравнении с 2023 годом среднегодовой PUE ЦОД Яндекса не изменился и остался близок к значению 2022 года (1,25). Тепловая энергия закупалась только для ЦОД Мытищи. Увеличение расхода тепла на 34 % связано с переходом на полный учёт потребления — ранее часть теплоэнергии включалась в арендную плату и не учитывалась отдельно. По сравнению с прошлым отчётным периодом потребление дизельного топлива выросло на 35 % из-за использования дизельных генераторов в период модернизации высоковольтной подстанции в ЦОД Сасово и пусконаладочных испытаний генераторной установки в ЦОД Владимир. Наконец, природный газ используется только в ЦОД Сасово для охлаждения серверного оборудования, не рассчитанного на работу при высоких температурах. При слишком высокой температуре воздуха на улице вместо фрикулинга используется режим рециркуляции с охлаждением. Потребление природного газа в 2024 году снизилось на 43 %. Это обусловлено выводом из эксплуатации ряда модулей, которые летом охлаждались с помощью абсорбционных холодильных машин. Что касается углеродных выбросов, более половины совокупного углеродного следа компании приходится именно на дата-центры — 51 % (в 2023 году речь шла о 53 %). Прямой и косвенный углеродный след Яндекса связан с работой инфраструктуры, помимо ЦОД, включающей недвижимое и движимое имущество, от офисов до площадок сервисов доставки и автомобилей. В 2024 году валовые выбросы парниковых газов инфраструктуры выросли на 24 % — до 395 тыс. т СО2-эквивалента. Прямые выбросы Scope 1 выросли на 39 %, а косвенные (Scope 2), связанные с потреблением закупленной энергии, увеличились на 17%. В первую очередь показатели выросли в связи с улучшением системы сбора данных. Увеличение выбросов связано и с ростом потребления электроэнергии дата-центрами и повышением углеродоёмкости 1 кВт·ч в 2024 году, а также в связи с другими факторами. Специальная статистика по углеродным выбросам представлена в приложении. Важную роль играют показатели облачной платформы Yandex Cloud построенной на ЦОД Яндекса. Число коммерческих клиентов платформы в 2024 году выросло до 44 тыс., на 54 % больше, чем в 2023 году. По статистике компании, Yandex Cloud избежала 11,7 тыс. выбросов, эквивалентных CO2e за счёт «использования энергоэффективной серверной инфраструктуры», что равносильно выбросам от годового пробега более 2,7 тыс. легковых автомобилей. Подчёркивается, что если бы в 2024 году использовали оборудование со среднемировыми показателями энергоэффективности, энергопотребление облака Yandex Cloud выросло бы на 50,5 %. В сравнении с 2023 годом энергопотребление ЦОД Яндекса в 2024 году выросло на 9 %, что связано с «расширением мощностей и увеличением вычислительной нагрузки в связи с ростом бизнеса». В целом энергопотребление дата-центров составило в 2024 году 594,16 ГВт∙ч — против 545,64 ГВт∙ч в 2023 году.
18.06.2025 [08:52], Владимир Мироненко
Официальное контейнерное окружение «1С-Битрикс» упростит и ускорит развёртывание её продуктовКомпания «1С-Битрикс» представила контейнерное окружение своих продуктов. Решение на базе Docker позволяет быстро настраивать среду для тестирования и разработки, и устанавливать за несколько минут любую редакцию продуктов компании. Решение ускорит и упростит разработчикам и DevOps-инженерам запуск пилотных проектов, а также локальную разработку и тестирование, а для крупных компаний — обеспечит управляемость и бесшовную интеграцию в сложные мультисервисные кластеры. Конфигурация серверного окружения состоит из более чем десяти контейнеров и микросервисов. Dockerfile, Docker-compose и .env-файлы находятся в официальном GitHub-репозитории «1С-Битрикс». Наличие официальных образов контейнеров позволяет сократить технологические риски и сэкономить время на самостоятельной сборке образов контейнера PHP, Nginx или NodeJS для запуска «Битрикс». В числе главных преимуществ официального контейнерного окружения компания указала:
Разработчики, тестировщики и специалисты по безопасности смогут быстро запустить «Управление сайтом» или «Битрикс24» из контейнеров даже на рабочем столе и получить всю необходимую информацию без привлечения системных администраторов и управления правами доступа.
17.06.2025 [23:55], Владимир Мироненко
AMD анонсировала платформу ROCm 7.0, облако для разработчиков AMD Developer Cloud и программу Radeon Test DriveAMD вместе с ускорителями Instinct MI350X/MI355X представила 7-ю версию своего открытого программного стека ROCm (Radeon open compute). Как сообщает компания, ROCm 7.0 предназначен для удовлетворения растущих потребностей рабочих нагрузок генеративного ИИ и HPC, одновременно расширяя возможности разработчиков за счёт доступности, эффективности и активного сотрудничества сообщества. По данным AMD, платформа ROCm 7 предлагает более чем в 3,5 раза большую производительность инференса, чем ROCm 6, и в 3 раза большую эффективность обучения. Это стало возможным благодаря улучшениям производительности и поддержке типов данных с меньшей точностью, таких как FP4 и FP6. Дальнейшие улучшения в коммуникационных стеках позволили оптимизировать использование ускорителя и перемещение данных. ROCm 7 поддерживает распределённый инференс, а также фреймворки SGLang, vLLM и llm-d. Платформа ROCm 7 создавалась совместно с этими партнёрами, включая разработку общих интерфейсов и примитивов для обеспечения эффективного распределённого инференса на платформах AMD. ![]() Источник изображений: AMD Вместе с ROCm 7 компания представила MLOps-платформу ROCm Enterprise AI для бесперебойных ИИ-операций в корпоративном сегменте. Платформа предлагает инструменты для тонкой настройки модели и интеграции как со структурированными, так и неструктурированными рабочими процессами. AMD заявила, что работает с партнёрами по экосистеме над созданием эталонных реализаций для таких приложений, как чат-боты и обобщение документов. ![]() AMD отметила, что тесное партнёрство гарантирует разработчикам доступ к лучшим в своем классе инструментам, постоянному улучшению производительности и открытой среде для быстрой итерации и развёртывания. Также AMD представила партнёров экосистемы ROCm, которые используют преимущества данной платформы:
Кроме того, AMD представила «простую в использовании платформу для разработчиков» AMD Developer Cloud, обеспечивающую быстрый доступ к AMD Instinct с возможностью масштабирования от одного (192 Гбайт памяти) до восьми AMD Instinct MI300X (1536 Гбайт памяти). Сообщается, что конфигурации с одним ускорителем в основном используются для рабочих нагрузок инференса на «лёгких» моделях, тогда как максимальная конфигурация обеспечивает распределённое обучение, тонкую настройку и высокопроизводительный инференс для крупномасштабных моделей. AMD сообщила, что платформа AMD Developer Cloud была разработана с учётом четырёх основных целей:
По словам компании, AMD Developer Cloud предполагает различные варианты использования. Решение идеально подходит для независимых разработчиков AI/ML, работающих над низкоуровневым программированием, разработкой ядер (kernel) или корпоративных приложений и проектов, нацеленных на нативную поддержку AMD. Также платформу можно использовать для мероприятий и хакатонов, обеспечивая масштабируемую поддержку образовательных и практических мероприятий с предоставлением кредитов на использование ускорителей во время семинаров, хакатонов, конкурсов и демонстраций. Также с выходом ROCm 7 появилась поддержка ноутбуков и рабочих станциях на Windows с видеокартами Radeon и процессорами Ryzen AI. С этим связан ещё один важный анонс — компания представила программу ROCm on Radeon Test Drive, которая будет запущена этим летом партнёрстве с различными поставщиками оборудования (первыми стали Colfax и System76), чтобы упростить разработчикам возможность опробовать ROCm на GPU Radeon, передаёт Phoronix. В рамках Radeon Test Drive предоставляется возможность удалённо протестировать GPU Radeon (PRO).
17.06.2025 [22:35], Руслан Авдеев
Pure Storage и Solidigm раскритиковали заявления Seagate об экологичности HDDPure Storage, Solidigm и Ocient с одной стороны и Seagate с другой не сошлись во мнениях относительно углеродного следа SSD и HDD. В Seagate утверждают, что HDD экологичнее SSD вопреки распространённым предрассудкам, сообщает Blocks & Files. Seagate утверждает, что SSD требуют меньше энергии в сравнении с HDD при эксплуатации, но хуже для окружающей среды с точки зрения углеродного выброса, поскольку загрязнение атмосферы в процессе производства с лихвой «компенсирует» выбросы при эксплуатации. Компания сравнила углеродные выбросы типовых 30,72-Тбайт SSD, 30-Тбайт HDD на базе Mozaic 3+ и ленточного привода с одним носителем LTO-9 (45 Тбайт со сжатием). Расчёты Seagate свидетельствуют, что по основным параметрам HDD выигрывают. По словам Seagate, цель доклада — предоставить точные сведения операторам дата-центров для принятия обоснованных решений. В своих расчётах компания ссылается на статью 2023 года The Dirty Secret of SSDs: Embodied Carbon, согласно которой для SSD изначальный углеродный след (CO2e) в значительной степени связан с затрачиваемым при производстве электричеством, преимущественно получаемом с помощью сжигания угля и природного газа. На 1 Гбайт флеш-памяти приходится 0,16 кг CO2e (показатель SEF), а на 30,72 Тбайт — уже 4915,2 кг. По словам авторов доклада, на выпуск SSD приходится в восемь раз больше выбросов CO2e, чем на HDD аналогичной ёмкости, но в расчётах Seagate разница составила почти 170x. ![]() Источник изображения: OCIENT Pure Storage, выпускающая All-Flash СХД и мечтающая изжить жёсткие диски из ЦОД, отметила в своём блоге, что восьмикратная разница в уровне SEF между SSD и HDD не соответствует реальности. На практике она сейчас составляет уже не 8x, а около 2x. При этом ёмкость новых SSD растёт, а по мере роста плотности размещения информации показатель CO2e/Гбайт будет снижаться быстрее, чем у HDD, так что по этому показателю накопители скоро как минимум сравняются. А догнать по ёмкости QLC SSD жёсткие диски пока не в состоянии. Ocient и Solidigm рассмотрели проблему со своей стороны. По их данным, в статье 2023-го года речь в основном идёт о потребительских накопителях, так что попытка Seagate перенести эти показатели на корпоративные СХД, по-видимому, не совсем корректна. В корпоративных сценариях NVMe SSD дают кратный прирост производительности в нагрузках Big Data и ИИ. Таким образом, их более высокий изначальный углеродный след нивелируется за счёт снижения энергозатрат и сокращения количества серверов. ![]() Источник изображения: OCIENT Для простоты расчётов Ocient и Solidigm приравняли по производительности один NVMe-накопитель к 100 жёстким дискам. По словам компаний, получается, что фактический углеродный след SSD будет совсем другим — 100 HDD по 20 кг CO2 на диск (это на треть меньше показателя самой Seagate) дадут 2000 кг, тогда как один SSD — всего 900 кг даже с поправкой на ёмкость (без уточнения, о какой вместимости и поправке идёт речь). За пять лет система на 100 жёстких дисках выбросит 7960 кг CO2, а NVMe SSD корпоративного класса — всего 24,6 кг. Суммарный углеродный след для HDD в этом случае составит 9960 кг, а для SSD — всего лишь 924 кг.
17.06.2025 [15:31], Сергей Карасёв
Представлен российский OCP-сервер Delta Serval на базе Intel Xeon 6Российский разработчик и производитель IT-оборудования Delta Computers объявил о начале серийного выпуска двухпроцессорных 2OU-серверов Delta Serval. Системы предназначены для НРС-задач, виртуализации, а также использования в составе облачных инфраструктур. В основу Delta Serval положена аппаратная платформа Intel Xeon 6. При этом заказчики могут выбирать между процессорами Xeon Granite Rapids-SP (6500P/6700P) с производительными Р-ядрами и Xeon Sierra Forest с энергоэффективными Е-ядрами (6700E) с TDP 350 Вт. Поддерживается до 8 Тбайт памяти DDR5-6400 в виде 32 модулей. Возможно использование MRDIMM-8000. В зависимости от конфигурации могут быть установлены до восьми U.2 SSD (PCIe 5.0, NVMe) с толщиной 7 мм или до четырёх таких SSD с толщиной 15 мм. Кроме того, есть два коннектора для SSD формата M.2 2280 с интерфейсом PCIe. Доступны один слот OCP 3.0 PCIe 5.0 и четыре слота PCIe 5.0 x16 для карт HHHL. Сервер оснащён портом USB 3.0 Type-A и интерфейсом miniDP, а также сетевым портом управления 1GbE. Задействована система гибридного охлаждения Delta Hybrid Cooling с резервированием вентиляторов по схеме N+1 (с поддержкой горячей замены). По заявлениям Delta Computers, машина может функционировать на максимальной частоте без деградации и перегрева процессоров при температуре в холодном коридоре до +45 °C. Применяется фирменное микропрограммное обеспечение Delta BIOS и Delta BMC. Среди ключевых преимуществ новинки разработчик выделяет большое количество вычислительных ядер (до 172 P-ядер или до 288 E-ядер), возможность гибкой адаптации под требования заказчика, высокую плотность компоновки и поддержку интеграции с новыми аппаратными и программными платформами.
17.06.2025 [14:36], Владимир Мироненко
NVIDIA поможет Германии в создании индустриальных ИИ-облаков для европейских производителейNVIDIA объявила о планах по созданию первого в мире промышленного ИИ-облака для европейских производителей, базирующегося в Германии. ИИ-фабрики, которые развернут по всей стране, будут поддерживать разработку суверенных ИИ-приложений в государственном и частном секторах, в том числе для малых и средних компаний страны, известных как Mittelstand. На Mittelstand приходится 99 % всех предприятий в Германии и более половины экономического производства страны. ИИ-фабрика, построенная на системах NVIDIA DGX B200 и серверах NVIDIA RTX PRO с 10 тыс. ускорителей NVIDIA Blackwell позволит лидерам промышленности Европы ускорить работу индустриальных приложений, включая системы проектирования, инжиниринга и моделирования, цифровых двойников и робототехнику, сообщила компания. ИИ-фабрика будет построена в соответствии с концепцией NVIDIA Omniverse Blueprint. В Юлихском исследовательском центре (FZJ) в Германии идёт сборка суперкомпьютера JUPITER, который станет первой в Европе экзафлопсной системой. Благодаря 24 тыс. суперчипов GH200 с интерконнектом Quantum-2 InfiniBand JUPITER получит вдвое большую вычислительную мощность по сравнению с предыдущим самым мощным общедоступным суперкомпьютером континента. С его помощью исследователи смогут обучать большие языковые модели (LLM) с более чем 100 млрд параметров, заниматься моделированием климата, исследовать квантовых вычисления и разрабатывать лекарства. Во II половине 2026 года в Суперкомпьютерный центр Лейбница (LRZ) в Германии будет запущен суперкомпьютер Blue Lion с чипами NVIDIA Vera Rubin, предназначенный для ускорения исследований в области климата, физики и машинного обучения. NVIDIA также займётся созданием исследовательского центр в Германии в рамках программы NVIDIA AI Technology Center. Баварский ИИ-центр, который планируется создать в сотрудничестве с консорциумом BayernKI, будет продвигать исследования в таких областях, как цифровая медицина, устойчивая диффузия AI и платформы робототехники с открытым исходным кодом для содействия глобальному сотрудничеству. Технологии NVIDIA широко используются немецкими компаниями всех масштабов. В частности, ИИ-компания DeepL из Кёльна развёртывает кластер на базе DGX SuperPOD GB200, который позволит ей переводить весь контент в интернете всего за 18 дней вместо нынешних 194. А модели серии FLUX от Black Forest Labs из Фрайбурга включены в NVIDIA AI Blueprint. Немецкие разработчики систем робототехники, автоматизации и сенсорных систем, включая Agile Robots, idealworks, Neura Robotics и SICK, интегрируют платформу NVIDIA Isaac. Наконец, Finanz Informatik использует инфраструктуру и ПО NVIDIA AI Enterprise для разработки ИИ-ассистента для помощи сотрудникам в обработке банковских данных. Mercedes-Benz использует Omniverse для создания цифровых двойников своих заводов и NVIDIA DRIVE AV/AGX в своих автомобилях. Технологии NVIDIA применяют BMW Group и Continental. NVIDIA также назвала в числе немецких компаний, внедряющих её ИИ-технологии, KION Group, занимающуюся решениями в сфере цепочек поставок, ИИ-стартап в сфере юриспруденции Noxtua и компанию по кибербезопасности Security Networks AG. ![]() Источник изображения: NVIDIA Чтобы инициировать трансформацию ИИ на всех уровнях экономики страны, необходимо обширное сообщество разработчиков в сфере ИИ, отметила NVIDIA. Поэтому Германия инвестирует в образование и повышение квалификации специалистов в области ИИ через некоммерческие организации, университеты и отраслевое сотрудничество. Одной из таких инициатив является appliedAI, крупнейшая в Европе инициатива по применению доверенного ИИ. В её рамках малым компаниям предоставляется доступ к современной инфраструктуре и ПО NVIDIA, практическому обучению и возможность подключения к экосистеме партнёров NVIDIA. Выступая на прошлом неделе с докладом на мероприятии GTC NVIDIA в Париже, гендиректор компании Дженсен Хуанг (Jensen Huang) заявил, что мощности для ИИ-вычислений в Европе вырастут в течение следующих двух лет на порядок. После фактической потери из-за санкций США доступа к рынку Китая, NVIDIA стремится расширить присутствие на новых рынках. Компания уже договорилась о сотрудничестве с французским стартапом Mistral, который построит ИИ-облако на базе 18 тыс. чипов NVIDIA Grace Blackwell. NVIDIA также объявила о запуске инфраструктурных проектов в Италии и Армении. Кроме того, компания заключила соглашения о сотрудничестве с такими телекоммуникационными компаниями, как Orange и Telefonica. В Европе компания уделяет особое внимание «суверенному ИИ», что подразумевает нахождение на территории ЕС дата-центров и серверов, предоставляющих услуги гражданам блока. NVIDIA также объявила о так называемых «технологических центрах» в Европе для передовых исследований, повышения квалификации рабочей силы и ускорении научных прорывов в таких странах, как Великобритания, Франция, Испания и Германия. NVIDIA также расширила возможности GPU-маркетплейса NVIDIA DGX Cloud Lepton.
17.06.2025 [12:27], Руслан Авдеев
AWS готовит крупнейшие в истории Австралии инвестиции в ЦОД, ИИ и облакоВ ближайшие четыре года AWS обязалась потратить AU$20 млрд (US$13 млрд) на инфраструктуру дата-центров в Австралии. Это крупнейшие инвестиции в технологическую сферу страны за всю её историю из числа заявленных публично, сообщает Tech Republic. Для того, чтобы инициативы Amazon соответствовали местным энергетическим требованиям, компания планирует реализовать три солнечных энергопроекта в провинциях Виктория и Квинсленд (Victoria и Queensland) общей мощностью более 170 МВт. Проекты будут управляться датской компанией European Energy, занимающейся «зелёной» энергетикой. Расширение инфраструктуры должно помочь удовлетворить спрос на ИИ и облачные вычисления в Австралии. По мнению экспертов, технологии автоматизации будут добавлять в австралийский ВВП к 2030 году по AU$600 млрд ежемесячно, а облачные вычисления принесут ещё AU$81 млрд в 2024–2029 гг. AWS говорит, что инвестиции в Австралии обеспечат доступ к ИИ и облачным сервисам местным компаниями, что позволит модернизировать ведение бизнеса, повысить продуктивность и т. п. с соблюдением требований местных регуляторов. Также компания продолжит поддержку образовательных программ для подготовки новых кадров для работы с ИИ и облаками. ![]() Источник изображения: Caleb/unspalsh.com По данным издания, несмотря на высокие позиции в глобальных рейтингах конкурентоспособности, Австралия демонстрирует низкий уровень развития предпринимательства. Эксперты связывают это с различными факторами, в том числе — довольно простой экономикой, ограниченным ассортиментом продукции и низкой «технологичностью» экспортируемых товаров. Возможно, AWS поможет стране раскрыть свой скрытый потенциал. Впрочем, не все рады попыткам компании захватить рынок. В 2023 году местные парламентарии получили жалобы на то, что доминирующее положение AWS на рынке затрудняет конкуренцию для малого бизнеса. Кроме того, AWS предлагала контракты и тарифы, усложняющие переход к другому оператору. В AWS утверждали, что на деле у неё немало соперников. По словам одного из экспертов, облака AWS «слишком дороги» — некоторые бизнесы попросту исчезли потому, что не смогли оплачивать облачные счета. ![]() Источник изображения: Tobias Keller/unsplash.com Дата-центры AWS также повысят нагрузку на местные электросети, что потенциально вызовет рост цен на электроэнергию. В прошлом году инвестиционный банк UBS предрекал, что к 2030 году в пиковые часы оптовые цены на электричество могут вырасти на 70 %. Проблемой также могут стать отключения электроэнергии, поэтому местный регулятор Australian Energy Market Commission формирует новые правила работы для предотвращения сбоев. Amazon же рассматривает строительство новых солнечных электростанций как способ поддержать новую инфраструктуру. Для того, чтобы компенсировать негативное влияние, Amazon намерена масштабировать своё портфолио в возобновляемой энергетике. В Новом Южном Уэльсе, Квинсленде и Виктории уже функционируют солнечные и ветряные проекты, которые вместе с тремя новыми солнечными электростанциями должны дать AWS более 1,4 ГВт∙ч ежегодно. Австралия — не единственный регион, где AWS активно занимается строительством. Новые ЦОД компания намерена строить в Южной Корее, облачный регион запущен на Тайване и ещё один планируется в Чили. |
|