Лента новостей
24.08.2025 [00:23], Владимир Мироненко
Оценка Databricks выросла до $100 млрд после очередного раунда инвестиций, но на биржу компания не спешитСтартап Databricks, специализирующийся на создании решений в сфере аналитики данных и ИИ, сообщил о выполнении условий привлечения венчурного капитала в рамках раунда серии K, который планирует вскоре завершить. В результате его рыночная стоимость Databricks теперь оценивается более чем в $100 млрд. Компания не назвала участников раунда, лишь указав, что он прошёл при поддержке существующих инвесторов. Напомним, что в предыдущем раунде финансирования серии J на сумму $10 млрд с привлечением долгового финансирования на сумму в $5,25 млрд и оценкой её стоимости в $62 млрд, приняли участие Thrive Capital, Qatar Investment Authority, Temasek, Macquarie Capital и Meta✴ Platforms. Привлечённые в нынешнем раунде средства компания намерена направить на ускорение реализации своей стратегии в области ИИ — дальнейшую разработку Agent Bricks, набора инструментов для автоматизации разработки и развёртывания автономных агентов на основе ИИ, инвестиций в Lakebase, новый тип открытой базы данных для OLTP на базе Postgres, оптимизированной для использования ИИ-агентов, а также на стимулирование глобального роста. Джаеш Чаурасия (Jayesh Chaurasia), старший аналитик Forrester Research заявил ресурсу SiliconANGLE, что результаты раунда отражают уверенность инвесторов в конвергенции ИИ и платформы данных, а также их стратегическую ценность для достижения корпоративных результатов. По мнению Скотта Бикли (Scott Bickley), консультанта Info-Tech Research Group, время объявления о раунде, возможно, было обусловлено скорее рекламными целями, чем финансированием. Он считает, что компании также важно, чтобы в центре внимания была оценка в $100 млрд и её планы развития, а не объём инвестиций. Али Годси (Ali Ghodsi), соучредитель и генеральный директор отметил огромный интерес инвесторов, подчеркнув, что «Databricks выигрывает от беспрецедентного мирового спроса на ИИ-приложения и ИИ-агенты, превращая данные компаний в золотую жилу». За последние два квартала компания заключила или расширила партнёрские соглашения с Microsoft, Google, Anthropic, SAP и Palantir. Databricks сообщила, что более 15 тыс. клиентов по всему миру, в том числе более 60 % компаний из списка Fortune 500, используют платформу Databricks Data Intelligence Platform для аналитики, ИИ-приложений и ИИ-агентов. В отличие от ближайшего конкурента Snowflake, компания не спешит с выходом на биржу. Бикли сообщил, что у Databricks есть веские причины не торопиться с IPO. «Выход на биржу очень затратен и требует целого процесса регулирования, — сказал он. — Сейчас им не нужно беспокоиться обо всём этом. У них есть полная гибкость». Представитель Databricks заявил: «Мы выйдем на биржу, когда это будет уместно. Во многих отношениях мы уже действуем как публичная компания и будем готовы, когда придёт время». Аналитик Gartner Дипак Сет (Deepak Seth) утверждает, что оба конкурента работают над во многом схожими платформами, но «Databricks ориентирована на ИИ, в то время как Snowflake по-прежнему ориентирована на данные, и прямо сейчас рынок поощряет использование ИИ». По мнению Сета, стратегия Databricks нацелена на предприятия, ценящие открытость и гибкость, в то время как «Snowflake по-прежнему обладает непревзойдёнными возможностями в работе со структурированными данными». «Обе компании активно работают над изменением того, как выглядит единая корпоративная платформа обработки данных и ИИ», — говорит он.
23.08.2025 [12:29], Владимир Мироненко
AWS анонсировала инстансы R8i и R8i-flex на кастомных Intel Xeon 6Amazon Web Services объявила об доступности инстансов R8i и R8i-flex, оптимизированных для рабочих нагрузок с интенсивным использованием памяти и базирующихся на кастомных процессорах Intel Xeon 6, доступных только в AWS. По словам компании, эти CPU «обеспечивают самую высокую производительность и самую высокую пропускную способность памяти среди сопоставимых процессоров Intel в облаке». Инстансы R8i и R8i-flex предлагают до 15 % лучшее соотношение цены и производительности и в 2,5 раза большую пропускную способность памяти по сравнению с инстансами предыдущего поколения на базе процессоров Intel. Новинки обеспечивают на 20 % более высокую производительность, чем инстансы R7i, с ещё большим приростом производительности для определённых рабочих нагрузок. Они обеспечивают до 30 % более высокую скорость обработки для баз данных PostgreSQL, до 60 % быстрее работают с NGINX и до 40 % быстрее — с рекомендательными DL-моделями по сравнению с R7i. Инстансы R8i и R8i-flex идеально подходят для различных рабочих нагрузок, требующих больших объёмов памяти, таких как базы данных SQL и NoSQL, распределённые кеши (Memcached и Redis), in-memory СУБД (SAP HANA) и инструменты аналитики больших данных в реальном времени (Apache Hadoop и Apache Spark). R8i-flex — первые оптимизированные для интенсивного использования памяти инстансы Flex — доступны в наиболее распространённых размерах, от L до 16xLarge, и, по словам компании, являются отличным выбором для приложений, которые не используют все вычислительные ресурсы полностью, позволяющим добиться дополнительного 5 % улучшения соотношения цены и производительности при 5 % снижении цен. Инстансы R8i доступны в 13 размерах, включая два bare metal-инстанса и новый экземпляр 96xLarge для самых крупных приложений: 384 vCPU и 3 ТиБ RAM. Инстансы R8i сертифицированы SAP и обеспечивают производительность 142 100 aSAPS, что является самым высоким показателем среди всех сопоставимых машин в локальных и облачных средах. Инстансы R8i и R8i-flex используют карты AWS Nitro шестого поколения с Amazon EBS, что значительно повышает пропускную способность сети для рабочих нагрузок, обрабатывающих небольшие пакеты, таких как веб-серверы, серверы приложений и игровые серверы. Экземпляры R8i и R8i-flex также поддерживают настройку полосы пропускания сети с 25-% корректировкой распределения между внешней сетью и полосой Amazon EBS, что позволяет повысить производительность базы данных, скорость обработки запросов и ведения журнала. Дополнительные улучшения включают поддержку типа данных FP16 в Intel AMX для поддержки ИИ-обучения и инференса. Как отметил ресурс The Register, этот анонс — хорошая новость для Intel, поскольку в эти непростые времена гиперскейлеры являются ключевым клиентом для любого производителя чипов. Инстансы R8i и R8i-flex доступны в регионах AWS: US East (Северная Вирджиния), US East (Огайо), US West (Орегон) и Europe (Испания).
23.08.2025 [12:13], Сергей Карасёв
Индустриальный компьютер Maxtang SXC-ALN30 на базе Intel Alder Lake-N оснащён двумя COM-портами и GPIO-площадкой на бокуКомпания Maxtang, по сообщению ресурса CNX Software, выпустила компьютер небольшого форм-фактора SXC-ALN30, предназначенный для использования в коммерческой и индустриальной сферах. В основу новинки положена аппаратная платформа Intel Alder Lake-N. В зависимости от модификации устанавливается чип Core i3-N305 (8C/8T; до 3,8 ГГц; 15 Вт) или Processor N97 (4C/4T; до 3,6 ГГц; 12 Вт). Реализовано пассивное охлаждение, а ребристая верхняя поверхность корпуса служит в качестве радиатора для отвода тепла. Объём оперативной памяти DDR4 может достигать 16 Гбайт в виде одного модуля SO-DIMM. Компьютер располагает слотом M.2 2280 M-Key (PCIe x1 или SATA) для SSD, коннектором M.2 2230 E-Key (PCIe; USB 2.0) для адаптера Wi-Fi и слотом M.2 2242/2280 B-Key (SATA/NVMe PCIe x1 плюс Nano SIM) для сотового модема 4G/5G или дополнительного SSD. В оснащение входят звуковой кодек RealTek ALC897, два сетевых контроллера RealTek RTL8111H с портами 1GbE и опциональный модуль TPM 2.0 для обеспечения безопасности. Реализованы три интерфейса HDMI 2.0 с возможностью вывода изображения одновременно на три дисплея, два последовательных (COM) порта, два гнезда RJ45 для сетевых кабелей, комбинированное аудиогнездо на 3,5 мм, четыре порта USB 3.2 Type-A и два порта USB 2.0 Type-A. Кроме того, предусмотрена внешняя колодка GPIO. Устройство имеет размеры 190 × 150 × 35 мм. Диапазон рабочих температур простирается от -20 до +60 °C. Питание 12/19 В подаётся через DC-гнездо. Заявлена совместимость с Windows 10/11 и Linux. Цена на Maxtang SXC-ALN30 начинается примерно со $180.
23.08.2025 [12:09], Сергей Карасёв
Make Intel Great Again: власти США приобрели долю в Intel ради укрепления «американского технологического лидерства»Корпорация Intel объявила о достижении «исторического соглашения» с администрацией президента США Дональда Трампа (Donald Trump), направленного на укрепление «американского технологического лидерства» и возрождение полупроводниковой отрасли страны. По условиям договора, власти США приобретут 9,9 % долю в Intel: стоимость сделки составит $8,9 млрд. В рамках соглашения американское правительство приобретёт 433,3 млн обыкновенных акций Intel по цене $20,47 за бумагу. На момент закрытия торгов 22 августа 2025 года стоимость акций корпорации находилась на уровне $25. Государственная доля будет профинансирована за счёт оставшихся $5,7 млрд грантов, ранее предоставленных Intel, но ещё не выплаченных в рамках «Закона о чипах и науке» (CHIPS and Science Act). Ещё $3,2 млрд составят средства, выделенные корпорации по программе Secure Enclave, которая предусматривает создание безопасных чипов в интересах Министерства обороны США (DoD). Отмечается, что ранее Intel уже получила гранты CHIPS and Science Act в размере $2,2 млрд. Таким образом, общая сумма государственной поддержки составит $11,1 млрд. Договор предусматривает, что участие государства в капитале Intel будет пассивным — без представителей в совете директоров компании или иных прав управления и получения доступа к корпоративной информации. Американские власти также обязуются голосовать в интересах совета директоров Intel по вопросам, требующим одобрения акционеров (за некоторыми исключениями). Соглашение предполагает, что правительство США в течение пяти лет сможет купить дополнительно 5 % акций Intel по цене $20 за бумагу в том случае, если доля Intel в её бизнесе по производству чипов (Intel Foundry) упадёт ниже 51 %. Поддержка со стороны властей поможет Intel в расширении производства микросхем на территории США. Корпорация реализует масштабную инициативу, инвестируя более $100 млрд в развитие своих площадок на территории страны. Ожидается, что новое предприятие в Аризоне начнёт массовое производство продукции уже в текущем году: при этом будут использоваться наиболее передовые технологии. В целом, Intel оказалась в сложном положении, уступив NVIDIA в гонке ИИ. На этом фоне в конце 2024 года свой пост покинул генеральный директор Intel Пэт Гелсингер (Pat Gelsinger). Его место занял Лип-Бу Тан (Lip-Bu Tan), которого в начале текущего месяца потребовал сместить с занимаемой должности президент Трамп в связи с «серьёзным конфликтом интересов».
22.08.2025 [22:44], Владимир Мироненко
Связанные одной целью: NVIDIA Spectrum-XGS Ethernet объединит несколько ЦОД в одну ИИ-суперфабрикуNVIDIA анонсировала Spectrum-XGS Ethernet, масштабируемую технологию для объединения распределённых ЦОД в унифицированные гигантские ИИ-фабрики. Похожее решения не так давно предложила и Broadcom, анонсировав коммутаторы Jericho4. На фоне роста спроса на обработку ИИ-нагрузок отдельные ЦОД достигают пределов допустимой мощности, но выход за пределы одного объекта связан с трудностями из-за ограничений существующей сетевой инфраструктуры с высокой задержкой, джиттером и непрогнозируемой производительностью. NVIDIA позиционирует Spectrum-XGS Ethernet как революционное дополнение к платформе NVIDIA Spectrum-X Ethernet, которое устраняет эти ограничения. Решение служит третьим столпом ИИ-вычислений, выходящим за рамки вертикального и горизонтального масштабирования, и предназначено для повышения производительности и масштабируемости Spectrum-X Ethernet для объединения нескольких распределённых ЦОД в массивы ИИ-фабрик, способных обрабатывать ИИ-нагрузки в гигантских масштабах. «Индустриальная революция в области ИИ уже началась, и гигантские ИИ-фабрики являются важнейшей инфраструктурой, — заявил генеральный директор NVIDIA Дженсен Хуанг (Jensen Huang) — С помощью NVIDIA Spectrum-XGS Ethernet мы расширяем возможности по масштабированию, объединяя ЦОД в городах, странах и континентах в огромные ИИ-суперфабрики». Spectrum-XGS Ethernet дополняет платформу Spectrum-X алгоритмами, которые динамически адаптируют сеть с учётом расстояния между объектами ЦОД. Решение опирается на усовершенствованный автоматический контроль перегрузки, точное управление задержками и сквозную телеметрию. По словам NVIDIA, Spectrum-XGS Ethernet практически удваивает производительность работы библиотеки коллективных коммуникаций NVIDIA NCCL, ускоряя взаимодействие множества ускорителей и множества узлов и обеспечивая предсказуемую производительность в географически распределённых ИИ-кластерах. В результате несколько ЦОД будут работать как единая ИИ-фабрика, полностью оптимизированная для подключения на больших расстояниях. CoreWeave одной из первых внедрит Spectrum-XGS Ethernet в свои ЦОД. Сама NVIDIA не новичок в распределённых ИИ-вычислениях — её собственные кластеры для внутренних нужд размещались в нескольких дата-центрах США.
22.08.2025 [18:08], Владимир Мироненко
Новейшие ИИ-технологии помогут трансформировать обучение, сделав его полностью персонализированнымСектор образования всегда отличался своей инновационностью, но в последние годы образовательные технологии (EdTech) претерпели беспрецедентную трансформацию. Стремительное развитие ИИ-технологий сделало EdTech-решения более персонализированными, доступными и привлекательными, заметно отразившись на методах обучения студентов, работе преподавателей и образовательных учреждений — от виртуальных классов и адаптивных платформ обучения до виртуальных ИИ-преподавателей и инструментов оценки. Одним из наиболее значимых достижений в области EdTech является переход от универсального обучения к персонализированному. ИИ-платформы позволяют анализировать поведение, прогресс и успеваемость учащихся в режиме реального времени, и с учётом этого корректировать планы уроков. Если, например, у учащегося будут обнаружены пробелы в конкретных навыках, ему будут автоматически предоставлены упражнения для их устранения. Это не только поможет учащимся успешно осваивать учебную программу в своем собственном темпе, но и сохранит им мотивацию к решению реальных задач. Еще одним прорывом в сфере образовательных технологий на основе ИИ стало появление иммерсивных образовательных сред. В настоящее время в преподавании широко используются инструменты на основе технологий виртуальной (VR) и дополненной (AR) реальности, позволяя более наглядно раскрывать сложные нюансы в области науки, техники и медицины. Способствуя более глубокому вовлечению в суть предмета, интерактивные возможности сокращают разрыв между теорией и практикой. Представьте себе студента-биолога, изучающего кровеносную систему человека в 3D, или ученика-историка, совершающего виртуальную экскурсию по Древнему Риму. ИИ также позволяет автоматизировать рутинную работу, включая выставление оценок за задания, создание учебных материалов и управление посещаемостью, благодаря чему преподаватели могут уделять больше внимания наставничеству. Автоматизированные системы оценивания, интеллектуальные инструменты составления расписания и генераторы учебных программ, управляемые ИИ, снижают затраты времени преподавателей на решение административных задач, предупреждая эмоциональное выгорание и способствуя повышению эффективности обучения. Даже такие продвинутые инструменты, как детекторы ИИ, всё чаще используются для проверки эссе, выявления плагиата и предоставления обратной связи в режиме реального времени для обеспечения академической честности и качества контента. Также одним из наиболее важных элементов использования ИИ сфере образовании считается прогнозирующая аналитика. ИИ на основе имеющихся данных может прогнозировать успеваемость учащихся, выявлять тех, кто подвержен риску отставания, и оперативно рекомендовать меры по предотвращению подобных случаев. Это позволяет преподавателям и учреждениям упреждать возникновение проблем, повышая качество обучения. Использование ИИ в EdTech открывает огромные перспективы, но также поднимает вопросы об обеспечении конфиденциальности, справедливости и предвзятости. Использование данных учащихся требует ответственного подхода и строгих мер предосторожности при их сборе и хранении. Кроме того, возникает риск увеличения разрыва в уровне образования, поскольку не у всех учащихся есть равный доступ к передовым цифровым инструментам. Программисты и разработчики политик должны уделять приоритетное внимание инклюзивности, прозрачности и справедливости по мере развития отрасли, считают эксперты. Слияние ИИ и EdTech, скорее всего, приведёт к гиперперсонализированному образованию, в рамках которого студенты будут иметь доступ к индивидуальной образовательной экосистеме, основанной на интеллектуальных помощниках, иммерсивном моделировании и обратной связи в режиме реального времени. По мере развития генеративного ИИ появятся полностью автономные виртуальные преподаватели, ведущие обучение по нескольким дисциплинам, со взаимодействием, максимально приближённым к человеческому. Следует отметить, что цель образовательных технологий на базе ИИ заключается не в том, чтобы заменить преподавателей, а в том, чтобы расширить их возможности, усилить воздействие и создать более инклюзивную, эффективную и увлекательную образовательную среду для всех учащихся.
22.08.2025 [17:23], Руслан Авдеев
Google: медианный промпт Gemini потребляет 0,24 Вт·ч энергии и 0,26 мл водыКомпания Google опубликовала документ, в котором описывается методология измерения потребления энергии и воды, а также выбросов и воздействия на окружающую среду ИИ Gemini. Как утверждают в Google, «медианное» потребление энергии на одно текстовое сообщение в Gemini Apps составляет 0,24 Вт·ч, выбросы составляют 0,03 г эквивалента углекислого газа (CO2e), а воды расходуется 0,26 мл. В компании подчёркивают, что показатели намного ниже в сравнении со многими публичными оценками, а на каждый запрос тратится электричества столько же, сколько при просмотре телевизора в течение девяти секунд. Google на основе данных о сокращении выбросов в ЦОД и декарбонизации энергопоставок полагает, что за последние 12 месяцев энергопотребление и общий углеродный след сократились в 33 и 44 раза соответственно. В компании надеются, что исследование внесёт вклад в усилия по разработке эффективного ИИ для общего блага. Методологии расчёта энергопотребления учитывает энергию, потребляемую активными ИИ-ускорителями (TPU), CPU, RAM, а также затраты простаивающих машин и общие расходы ЦОД. При этом из расчёта исключаются затраты на передачу данных по внешней сети, энергия устройств конечных пользователей, расходы на обучение моделей и хранение данных. Впрочем, по мнению некоторых экспертов, данные вводят в заблуждение, поскольку часть информации не учитывается. Так, не принимается в расчёт «косвенное» использование воды, поскольку считается только вода, которую ЦОД применяют для охлаждения, хотя значительная часть водопотребления приходится на генерирующие мощности, а не на их потребителей. Кроме того, при учёте углеродных выбросов должны приниматься во внимание не купленные «зелёные сертификаты», а реальное загрязняющее действие ЦОД в конкретной локации с учётом использования «чистой» и «обычной» энергии в местной электросети. OpenAI также недавно оказалась в центре внимания экспертов и общественности, поскольку появилась информация, что её новейшая модель GPT-5 потребляет более 18 Вт·ч электроэнергии, до 40 Вт·ч на ответ средней длины. Сам глава компании Сэм Альтман (Sam Altman) объявил, что в среднем на выполнение запроса тратится около 0,34 Вт∙ч и около 0,32 мл воды. Это несколько больше, чем заявленные показатели Google Gemini, однако, согласно расчётам исследователей, эти цифры, скорее всего, актуальны для GPT-4o.
22.08.2025 [16:33], Владимир Мироненко
Почти как у самой NVIDIA: NVLink Fusion позволит создавать кастомные ИИ-платформыТехнологии NVIDIA NVLink и NVLink Fusion позволят вывести производительность ИИ-инференса на новый уровень благодаря повышенной масштабируемости, гибкости и возможностям интеграции со сторонними чипами, которые в совокупности отвечает стремительному росту сложности ИИ-моделей, сообщается в блоге NVIDIA. С ростом сложности ИИ-моделей выросло количество их параметров — с миллионов до триллионов, что требует для обеспечения их работы значительных вычислительных ресурсов в виде кластеров ускорителей. Росту требований, предъявляемых к вычислительным ресурсам, также способствует внедрение архитектур со смешанным типом вычислений (MoE) и ИИ-алгоритмов рассуждений с масштабированием (Test-time scaling, TTS). NVIDIA представила интерконнект NVLink в 2016 году. Пятое поколение NVLink, вышедшее в 2024 году, позволяет объединить в одной стойке 72 ускорителя каналами шириной 1800 Гбайт/с (по 900 Гбайт/с в каждую сторону), обеспечивая суммарную пропускную способность 130 Тбайт/с — в 800 раз больше, чем у первого поколения. Производительность NVLink зависит от аппаратных средств и коммуникационных библиотек, в частности, от библиотеки NVIDIA Collective Communication Library (NCCL) для ускорения взаимодействия между ускорителями в топологиях с одним и несколькими узлами. NCCL поддерживает вертикальное и горизонтальное масштабирование, а также включает в себя автоматическое распознавание топологии и оптимизацию передачи данных. Технология NVLink Fusion призвана обеспечить гиперскейлерам доступ ко всем проверенным в производстве технологиям масштабирования NVLink. Она позволяет интегрировать кастомные микросхемы (CPU и XPU) с технологией вертикального и горизонтального масштабирования NVIDIA NVLink и стоечной архитектурой для развёртывания кастомных ИИ-инфраструктур. Технология охватывает NVLink SerDes, чиплеты, коммутаторы и стоечную архитектуру, предлагая универсальные решения для конфигураций кастомных CPU, кастомных XPU или комбинированных платформ. Модульное стоечное решение OCP MGX, позволяющее интегрировать NVLink Fusion с любым сетевым адаптером, DPU или коммутатором, обеспечивает заказчикам гибкость в построении необходимых решений, заявляет NVIDIA. NVLink Fusion поддерживает конфигурации с кастомными CPU и XPU с использованием IP-блоков и интерфейса UCIe, предоставляя заказчикам гибкость в реализации интеграции XPU на разных платформах. Для конфигураций с кастомными CPU рекомендуется интеграция с IP NVLink-C2C для оптимального подключения и производительности GPU. При этом предлагаются различные модели доступа к памяти и DMA. NVLink Fusion использует преимущества обширной экосистемы кремниевых чипов, в том числе от партнёров по разработке кастомных полупроводников, CPU и IP-блоков, что обеспечивает широкую поддержку и быструю разработку новых решений. Основанная на десятилетнем опыте использования технологии NVLink и открытых стандартах архитектуры OCP MGX, платформа NVLink Fusion предоставляет гиперскейлерам исключительную производительность и гибкость при создании ИИ-инфраструктур, подытожила NVIDIA. При этом основным применением NVLink Fusion с точки зрения NVIDIA, по-видимому, должно стать объединение сторонних чипов с её собственными, а не «чужих» чипов между собой. Более открытой альтернативой NVLink должен стать UALink с дальнейшим масштабированием посредством Ultra Ethernet.
22.08.2025 [15:18], Руслан Авдеев
Исполинская 5-ГВт газовая электростанция Pacifico Energy в Техасе запитает ИИ ЦОД и никого большеКалифорнийская Pacifico Energy рассказала о планах строительства 5-ГВт автономной газовой электростанции GW Ranch в округе Пекос (Pecos County, Техас) на территории площадью более 3,2 тыс. га, где также разместятся аккумуляторные энергохранилища. Вся энергия пойдёт исключительно на питание ИИ ЦОД гиперскейл-класса, сообщает Datacenter Dynamics. В компании подчёркивают, что проект будет изолирован от энергосети штата. Это позволит ускорить развёртывание ИИ ЦОД без ущерба надёжности энергоснабжения. К 2028 году Pacifico намерена довести выработку до 1 ГВт, а к 2030 году выйти на проектную мощность в 5 ГВт. Мощность аккумуляторного хранилища составит 1,8 ГВт — его модульные системы будут внедряться поэтапно. Компания находится в процессе получения разрешений от техасского природоохранного регулятора Texas Commission on Environmental Quality. По её мнению, проект соответствует требованиям в области защиты окружающей среды. Топливо будет поставляться с месторождений Пермского нефтегазового бассейна США (Permian Basin), одного из крупнейших источников природного газа в стране. По данным Управления энергетической информации США (EIA), в 2024 году добыча природного газа в Пермском бассейне выросла на 12 % год к году, составив 22 % от общего объёма продаж природного газа в стране. Большие объёмы добычи и благоприятная нормативная база в Техасе побудили отдельных операторов ЦОД заняться развитием электростанций для обеспечения своих объектов энергией в обход основных электросетей. Занимающиеся добычей природного газа в Пермском бассейне компании также позиционируют себя в качестве поставщиков для сектора ЦОД. ![]() Источник изображения: Chris LeBoutillier/unsplash.com Одобрение регуляторов получил и ещё один крупный проект — власти Луизианы разрешили Entergy постройку трёх газовых электростанций для питания крупнейшего ИИ ЦОД Meta✴ Hyperion, который после полного завершения строительства потребует до 5 ГВт. Для него придётся построить отдельную ЛЭП. Новые электростанции будут поставлять до 2,3 ГВт, ещё 1,5 ГВт планируется получить от проектов солнечной энергетики. Часть расходов по созданию новых объектов Meta✴ возьмёт на себя. Местные регуляторы быстро одобрили проект, поскольку Entergy намекнула, что в случае задержек Meta✴ может перенсти проект в другой штат. Некоторые эксперты опасаются, что расходы на строительство лягут на плечи обычных потребителей, а электростанции поставят под угрозу здоровье местных жителей (xAI уже столкнулась с такими претензиями) и состояние окружающей среды. А сам ЦОД может привести к дефициту питьевой воды.
22.08.2025 [13:30], Алексей Разин
NVIDIA поможет японцам создать один из мощнейших суперкомпьютеров мира FugakuNEXTВ начале этого десятилетия созданный в Японии суперкомпьютер Fugaku пару лет удерживался на верхней строчке в рейтинге мощнейших систем мира TOP500, он и сейчас занимает в нём седьмое место. В попытке технологического реванша японский исследовательский институт RIKEN доверился компании NVIDIA, которая поможет Fujitsu создать суперкомпьютер Fugaku NEXT. Помимо Arm-процессоров Fujitsu MONAKA-X, в основу нового японского суперкомпьютера лягут и ускорители NVIDIA, хотя изначально планировалось обойтись без них. NVIDIA будет принимать непосредственное участие в интеграции своих компонентов в суперкомпьютерную систему, создаваемую японскими партнёрами. По меньшей мере, скоростные интерфейсы, которыми располагает NVIDIA, пригодятся для обеспечения быстрого канала передачи информации между CPU и ускорителями. Сама NVIDIA обтекаемо говорит, что для этого можно задействовать шину NVLink Fusion. С ускорителями AMD, по-видимому, эти процессоры будут общаться более традиционно, т.е. по шине PCIe. Кроме того, NVIDIA собирается применить в составе данной системы передовые типы памяти. Применяемые при создании FugakuNEXT решения, по мнению представителей NVIDIA, смогут стать типовыми для всей отрасли в дальнейшем. Подчёркивается, что будущая платформа станет не просто техническим апгрейдом, а инвестицией в будущее страны. Сама архитектура системы не уточняется, поэтому сложно судить, насколько активно японские разработчики будут использовать ускорители NVIDIA, и к какому поколению они будут относиться. Создатели ставят перед собой амбициозные цели — FugakuNEXT должна стать первой системой «зетта-масштаба». Своего предшественника она должна превзойти более чем в пять раз, обеспечив быстродействие на уровне 600 Эфлопс (FP8). На уровне приложений прирос быстродействия может быть стократным, отмечают создатели. Новый суперкомпьютер сможет применяться для обучения больших языковых моделей. Впрочем, в строй он будет введён лишь к 2030 году, а Fujitsu ещё только предстоит выпустить свои процессоры MONAKA-X для этой системы. |
|