Лента новостей

24.08.2025 [00:23], Владимир Мироненко

Оценка Databricks выросла до $100 млрд после очередного раунда инвестиций, но на биржу компания не спешит

Стартап Databricks, специализирующийся на создании решений в сфере аналитики данных и ИИ, сообщил о выполнении условий привлечения венчурного капитала в рамках раунда серии K, который планирует вскоре завершить. В результате его рыночная стоимость Databricks теперь оценивается более чем в $100 млрд.

Компания не назвала участников раунда, лишь указав, что он прошёл при поддержке существующих инвесторов. Напомним, что в предыдущем раунде финансирования серии J на сумму $10 млрд с привлечением долгового финансирования на сумму в $5,25 млрд и оценкой её стоимости в $62 млрд, приняли участие Thrive Capital, Qatar Investment Authority, Temasek, Macquarie Capital и Meta Platforms.

Привлечённые в нынешнем раунде средства компания намерена направить на ускорение реализации своей стратегии в области ИИ — дальнейшую разработку Agent Bricks, набора инструментов для автоматизации разработки и развёртывания автономных агентов на основе ИИ, инвестиций в Lakebase, новый тип открытой базы данных для OLTP на базе Postgres, оптимизированной для использования ИИ-агентов, а также на стимулирование глобального роста.

 Источник изображения: Marek Studzinski / Unsplash

Источник изображения: Marek Studzinski / Unsplash

Джаеш Чаурасия (Jayesh Chaurasia), старший аналитик Forrester Research заявил ресурсу SiliconANGLE, что результаты раунда отражают уверенность инвесторов в конвергенции ИИ и платформы данных, а также их стратегическую ценность для достижения корпоративных результатов. По мнению Скотта Бикли (Scott Bickley), консультанта Info-Tech Research Group, время объявления о раунде, возможно, было обусловлено скорее рекламными целями, чем финансированием. Он считает, что компании также важно, чтобы в центре внимания была оценка в $100 млрд и её планы развития, а не объём инвестиций.

Али Годси (Ali Ghodsi), соучредитель и генеральный директор отметил огромный интерес инвесторов, подчеркнув, что «Databricks выигрывает от беспрецедентного мирового спроса на ИИ-приложения и ИИ-агенты, превращая данные компаний в золотую жилу». За последние два квартала компания заключила или расширила партнёрские соглашения с Microsoft, Google, Anthropic, SAP и Palantir. Databricks сообщила, что более 15 тыс. клиентов по всему миру, в том числе более 60 % компаний из списка Fortune 500, используют платформу Databricks Data Intelligence Platform для аналитики, ИИ-приложений и ИИ-агентов.

 Источник изображения: Databricks

Источник изображения: Databricks

В отличие от ближайшего конкурента Snowflake, компания не спешит с выходом на биржу. Бикли сообщил, что у Databricks есть веские причины не торопиться с IPO. «Выход на биржу очень затратен и требует целого процесса регулирования, — сказал он. — Сейчас им не нужно беспокоиться обо всём этом. У них есть полная гибкость». Представитель Databricks заявил: «Мы выйдем на биржу, когда это будет уместно. Во многих отношениях мы уже действуем как публичная компания и будем готовы, когда придёт время».

Аналитик Gartner Дипак Сет (Deepak Seth) утверждает, что оба конкурента работают над во многом схожими платформами, но «Databricks ориентирована на ИИ, в то время как Snowflake по-прежнему ориентирована на данные, и прямо сейчас рынок поощряет использование ИИ». По мнению Сета, стратегия Databricks нацелена на предприятия, ценящие открытость и гибкость, в то время как «Snowflake по-прежнему обладает непревзойдёнными возможностями в работе со структурированными данными». «Обе компании активно работают над изменением того, как выглядит единая корпоративная платформа обработки данных и ИИ», — говорит он.

Постоянный URL: https://servernews.ru/1128147
23.08.2025 [12:29], Владимир Мироненко

AWS анонсировала инстансы R8i и R8i-flex на кастомных Intel Xeon 6

Amazon Web Services объявила об доступности инстансов R8i и R8i-flex, оптимизированных для рабочих нагрузок с интенсивным использованием памяти и базирующихся на кастомных процессорах Intel Xeon 6, доступных только в AWS. По словам компании, эти CPU «обеспечивают самую высокую производительность и самую высокую пропускную способность памяти среди сопоставимых процессоров Intel в облаке».

Инстансы R8i и R8i-flex предлагают до 15 % лучшее соотношение цены и производительности и в 2,5 раза большую пропускную способность памяти по сравнению с инстансами предыдущего поколения на базе процессоров Intel. Новинки обеспечивают на 20 % более высокую производительность, чем инстансы R7i, с ещё большим приростом производительности для определённых рабочих нагрузок. Они обеспечивают до 30 % более высокую скорость обработки для баз данных PostgreSQL, до 60 % быстрее работают с NGINX и до 40 % быстрее — с рекомендательными DL-моделями по сравнению с R7i.

 Источник изображения: Amazon

Источник изображений: Amazon

Инстансы R8i и R8i-flex идеально подходят для различных рабочих нагрузок, требующих больших объёмов памяти, таких как базы данных SQL и NoSQL, распределённые кеши (Memcached и Redis), in-memory СУБД (SAP HANA) и инструменты аналитики больших данных в реальном времени (Apache Hadoop и Apache Spark).

R8i-flex — первые оптимизированные для интенсивного использования памяти инстансы Flex — доступны в наиболее распространённых размерах, от L до 16xLarge, и, по словам компании, являются отличным выбором для приложений, которые не используют все вычислительные ресурсы полностью, позволяющим добиться дополнительного 5 % улучшения соотношения цены и производительности при 5 % снижении цен.

Инстансы R8i доступны в 13 размерах, включая два bare metal-инстанса и новый экземпляр 96xLarge для самых крупных приложений: 384 vCPU и 3 ТиБ RAM. Инстансы R8i сертифицированы SAP и обеспечивают производительность 142 100 aSAPS, что является самым высоким показателем среди всех сопоставимых машин в локальных и облачных средах.

Инстансы R8i и R8i-flex используют карты AWS Nitro шестого поколения с Amazon EBS, что значительно повышает пропускную способность сети для рабочих нагрузок, обрабатывающих небольшие пакеты, таких как веб-серверы, серверы приложений и игровые серверы.

Экземпляры R8i и R8i-flex также поддерживают настройку полосы пропускания сети с 25-% корректировкой распределения между внешней сетью и полосой Amazon EBS, что позволяет повысить производительность базы данных, скорость обработки запросов и ведения журнала. Дополнительные улучшения включают поддержку типа данных FP16 в Intel AMX для поддержки ИИ-обучения и инференса.

Как отметил ресурс The Register, этот анонс — хорошая новость для Intel, поскольку в эти непростые времена гиперскейлеры являются ключевым клиентом для любого производителя чипов. Инстансы R8i и R8i-flex доступны в регионах AWS: US East (Северная Вирджиния), US East (Огайо), US West (Орегон) и Europe (Испания).

Постоянный URL: https://servernews.ru/1128118
23.08.2025 [12:13], Сергей Карасёв

Индустриальный компьютер Maxtang SXC-ALN30 на базе Intel Alder Lake-N оснащён двумя COM-портами и GPIO-площадкой на боку

Компания Maxtang, по сообщению ресурса CNX Software, выпустила компьютер небольшого форм-фактора SXC-ALN30, предназначенный для использования в коммерческой и индустриальной сферах. В основу новинки положена аппаратная платформа Intel Alder Lake-N.

В зависимости от модификации устанавливается чип Core i3-N305 (8C/8T; до 3,8 ГГц; 15 Вт) или Processor N97 (4C/4T; до 3,6 ГГц; 12 Вт). Реализовано пассивное охлаждение, а ребристая верхняя поверхность корпуса служит в качестве радиатора для отвода тепла. Объём оперативной памяти DDR4 может достигать 16 Гбайт в виде одного модуля SO-DIMM.

 Источник изображения: Maxtang

Источник изображения: Maxtang

Компьютер располагает слотом M.2 2280 M-Key (PCIe x1 или SATA) для SSD, коннектором M.2 2230 E-Key (PCIe; USB 2.0) для адаптера Wi-Fi и слотом M.2 2242/2280 B-Key (SATA/NVMe PCIe x1 плюс Nano SIM) для сотового модема 4G/5G или дополнительного SSD. В оснащение входят звуковой кодек RealTek ALC897, два сетевых контроллера RealTek RTL8111H с портами 1GbE и опциональный модуль TPM 2.0 для обеспечения безопасности.

Реализованы три интерфейса HDMI 2.0 с возможностью вывода изображения одновременно на три дисплея, два последовательных (COM) порта, два гнезда RJ45 для сетевых кабелей, комбинированное аудиогнездо на 3,5 мм, четыре порта USB 3.2 Type-A и два порта USB 2.0 Type-A. Кроме того, предусмотрена внешняя колодка GPIO.

Устройство имеет размеры 190 × 150 × 35 мм. Диапазон рабочих температур простирается от -20 до +60 °C. Питание 12/19 В подаётся через DC-гнездо. Заявлена совместимость с Windows 10/11 и Linux. Цена на Maxtang SXC-ALN30 начинается примерно со $180.

Постоянный URL: https://servernews.ru/1128129
23.08.2025 [12:09], Сергей Карасёв

Make Intel Great Again: власти США приобрели долю в Intel ради укрепления «американского технологического лидерства»

Корпорация Intel объявила о достижении «исторического соглашения» с администрацией президента США Дональда Трампа (Donald Trump), направленного на укрепление «американского технологического лидерства» и возрождение полупроводниковой отрасли страны. По условиям договора, власти США приобретут 9,9 % долю в Intel: стоимость сделки составит $8,9 млрд.

В рамках соглашения американское правительство приобретёт 433,3 млн обыкновенных акций Intel по цене $20,47 за бумагу. На момент закрытия торгов 22 августа 2025 года стоимость акций корпорации находилась на уровне $25.

Государственная доля будет профинансирована за счёт оставшихся $5,7 млрд грантов, ранее предоставленных Intel, но ещё не выплаченных в рамках «Закона о чипах и науке» (CHIPS and Science Act). Ещё $3,2 млрд составят средства, выделенные корпорации по программе Secure Enclave, которая предусматривает создание безопасных чипов в интересах Министерства обороны США (DoD). Отмечается, что ранее Intel уже получила гранты CHIPS and Science Act в размере $2,2 млрд. Таким образом, общая сумма государственной поддержки составит $11,1 млрд.

 Источник изображения: Intel

Источник изображения: Intel

Договор предусматривает, что участие государства в капитале Intel будет пассивным — без представителей в совете директоров компании или иных прав управления и получения доступа к корпоративной информации. Американские власти также обязуются голосовать в интересах совета директоров Intel по вопросам, требующим одобрения акционеров (за некоторыми исключениями). Соглашение предполагает, что правительство США в течение пяти лет сможет купить дополнительно 5 % акций Intel по цене $20 за бумагу в том случае, если доля Intel в её бизнесе по производству чипов (Intel Foundry) упадёт ниже 51 %.

Поддержка со стороны властей поможет Intel в расширении производства микросхем на территории США. Корпорация реализует масштабную инициативу, инвестируя более $100 млрд в развитие своих площадок на территории страны. Ожидается, что новое предприятие в Аризоне начнёт массовое производство продукции уже в текущем году: при этом будут использоваться наиболее передовые технологии.

В целом, Intel оказалась в сложном положении, уступив NVIDIA в гонке ИИ. На этом фоне в конце 2024 года свой пост покинул генеральный директор Intel Пэт Гелсингер (Pat Gelsinger). Его место занял Лип-Бу Тан (Lip-Bu Tan), которого в начале текущего месяца потребовал сместить с занимаемой должности президент Трамп в связи с «серьёзным конфликтом интересов».

Постоянный URL: https://servernews.ru/1128124
22.08.2025 [22:44], Владимир Мироненко

Связанные одной целью: NVIDIA Spectrum-XGS Ethernet объединит несколько ЦОД в одну ИИ-суперфабрику

NVIDIA анонсировала Spectrum-XGS Ethernet, масштабируемую технологию для объединения распределённых ЦОД в унифицированные гигантские ИИ-фабрики. Похожее решения не так давно предложила и Broadcom, анонсировав коммутаторы Jericho4.

На фоне роста спроса на обработку ИИ-нагрузок отдельные ЦОД достигают пределов допустимой мощности, но выход за пределы одного объекта связан с трудностями из-за ограничений существующей сетевой инфраструктуры с высокой задержкой, джиттером и непрогнозируемой производительностью.

NVIDIA позиционирует Spectrum-XGS Ethernet как революционное дополнение к платформе NVIDIA Spectrum-X Ethernet, которое устраняет эти ограничения. Решение служит третьим столпом ИИ-вычислений, выходящим за рамки вертикального и горизонтального масштабирования, и предназначено для повышения производительности и масштабируемости Spectrum-X Ethernet для объединения нескольких распределённых ЦОД в массивы ИИ-фабрик, способных обрабатывать ИИ-нагрузки в гигантских масштабах.

 Источник изображения: NVIDIA

Источник изображения: NVIDIA

«Индустриальная революция в области ИИ уже началась, и гигантские ИИ-фабрики являются важнейшей инфраструктурой, — заявил генеральный директор NVIDIA Дженсен Хуанг (Jensen Huang) — С помощью NVIDIA Spectrum-XGS Ethernet мы расширяем возможности по масштабированию, объединяя ЦОД в городах, странах и континентах в огромные ИИ-суперфабрики».

Spectrum-XGS Ethernet дополняет платформу Spectrum-X алгоритмами, которые динамически адаптируют сеть с учётом расстояния между объектами ЦОД. Решение опирается на усовершенствованный автоматический контроль перегрузки, точное управление задержками и сквозную телеметрию. По словам NVIDIA, Spectrum-XGS Ethernet практически удваивает производительность работы библиотеки коллективных коммуникаций NVIDIA NCCL, ускоряя взаимодействие множества ускорителей и множества узлов и обеспечивая предсказуемую производительность в географически распределённых ИИ-кластерах.

В результате несколько ЦОД будут работать как единая ИИ-фабрика, полностью оптимизированная для подключения на больших расстояниях. CoreWeave одной из первых внедрит Spectrum-XGS Ethernet в свои ЦОД. Сама NVIDIA не новичок в распределённых ИИ-вычислениях — её собственные кластеры для внутренних нужд размещались в нескольких дата-центрах США.

Постоянный URL: https://servernews.ru/1128100
22.08.2025 [18:08], Владимир Мироненко

Новейшие ИИ-технологии помогут трансформировать обучение, сделав его полностью персонализированным

Сектор образования всегда отличался своей инновационностью, но в последние годы образовательные технологии (EdTech) претерпели беспрецедентную трансформацию. Стремительное развитие ИИ-технологий сделало EdTech-решения более персонализированными, доступными и привлекательными, заметно отразившись на методах обучения студентов, работе преподавателей и образовательных учреждений — от виртуальных классов и адаптивных платформ обучения до виртуальных ИИ-преподавателей и инструментов оценки.

Одним из наиболее значимых достижений в области EdTech является переход от универсального обучения к персонализированному. ИИ-платформы позволяют анализировать поведение, прогресс и успеваемость учащихся в режиме реального времени, и с учётом этого корректировать планы уроков. Если, например, у учащегося будут обнаружены пробелы в конкретных навыках, ему будут автоматически предоставлены упражнения для их устранения. Это не только поможет учащимся успешно осваивать учебную программу в своем собственном темпе, но и сохранит им мотивацию к решению реальных задач.

 Источник изображения: Henry Storck/unsplash.com

Источник изображения: Henry Storck/unsplash.com

Еще одним прорывом в сфере образовательных технологий на основе ИИ стало появление иммерсивных образовательных сред. В настоящее время в преподавании широко используются инструменты на основе технологий виртуальной (VR) и дополненной (AR) реальности, позволяя более наглядно раскрывать сложные нюансы в области науки, техники и медицины. Способствуя более глубокому вовлечению в суть предмета, интерактивные возможности сокращают разрыв между теорией и практикой. Представьте себе студента-биолога, изучающего кровеносную систему человека в 3D, или ученика-историка, совершающего виртуальную экскурсию по Древнему Риму.

ИИ также позволяет автоматизировать рутинную работу, включая выставление оценок за задания, создание учебных материалов и управление посещаемостью, благодаря чему преподаватели могут уделять больше внимания наставничеству.

Автоматизированные системы оценивания, интеллектуальные инструменты составления расписания и генераторы учебных программ, управляемые ИИ, снижают затраты времени преподавателей на решение административных задач, предупреждая эмоциональное выгорание и способствуя повышению эффективности обучения. Даже такие продвинутые инструменты, как детекторы ИИ, всё чаще используются для проверки эссе, выявления плагиата и предоставления обратной связи в режиме реального времени для обеспечения академической честности и качества контента.

Также одним из наиболее важных элементов использования ИИ сфере образовании считается прогнозирующая аналитика. ИИ на основе имеющихся данных может прогнозировать успеваемость учащихся, выявлять тех, кто подвержен риску отставания, и оперативно рекомендовать меры по предотвращению подобных случаев. Это позволяет преподавателям и учреждениям упреждать возникновение проблем, повышая качество обучения.

Использование ИИ в EdTech открывает огромные перспективы, но также поднимает вопросы об обеспечении конфиденциальности, справедливости и предвзятости. Использование данных учащихся требует ответственного подхода и строгих мер предосторожности при их сборе и хранении. Кроме того, возникает риск увеличения разрыва в уровне образования, поскольку не у всех учащихся есть равный доступ к передовым цифровым инструментам. Программисты и разработчики политик должны уделять приоритетное внимание инклюзивности, прозрачности и справедливости по мере развития отрасли, считают эксперты.

Слияние ИИ и EdTech, скорее всего, приведёт к гиперперсонализированному образованию, в рамках которого студенты будут иметь доступ к индивидуальной образовательной экосистеме, основанной на интеллектуальных помощниках, иммерсивном моделировании и обратной связи в режиме реального времени. По мере развития генеративного ИИ появятся полностью автономные виртуальные преподаватели, ведущие обучение по нескольким дисциплинам, со взаимодействием, максимально приближённым к человеческому.

Следует отметить, что цель образовательных технологий на базе ИИ заключается не в том, чтобы заменить преподавателей, а в том, чтобы расширить их возможности, усилить воздействие и создать более инклюзивную, эффективную и увлекательную образовательную среду для всех учащихся.

Постоянный URL: https://servernews.ru/1127934
22.08.2025 [17:23], Руслан Авдеев

Google: медианный промпт Gemini потребляет 0,24 Вт·ч энергии и 0,26 мл воды

Компания Google опубликовала документ, в котором описывается методология измерения потребления энергии и воды, а также выбросов и воздействия на окружающую среду ИИ Gemini. Как утверждают в Google, «медианное» потребление энергии на одно текстовое сообщение в Gemini Apps составляет 0,24 Вт·ч, выбросы составляют 0,03 г эквивалента углекислого газа (CO2e), а воды расходуется 0,26 мл.

В компании подчёркивают, что показатели намного ниже в сравнении со многими публичными оценками, а на каждый запрос тратится электричества столько же, сколько при просмотре телевизора в течение девяти секунд. Google на основе данных о сокращении выбросов в ЦОД и декарбонизации энергопоставок полагает, что за последние 12 месяцев энергопотребление и общий углеродный след сократились в 33 и 44 раза соответственно. В компании надеются, что исследование внесёт вклад в усилия по разработке эффективного ИИ для общего блага.

Методологии расчёта энергопотребления учитывает энергию, потребляемую активными ИИ-ускорителями (TPU), CPU, RAM, а также затраты простаивающих машин и общие расходы ЦОД. При этом из расчёта исключаются затраты на передачу данных по внешней сети, энергия устройств конечных пользователей, расходы на обучение моделей и хранение данных.

 Источник изображений: Google

Источник изображений: Google

Впрочем, по мнению некоторых экспертов, данные вводят в заблуждение, поскольку часть информации не учитывается. Так, не принимается в расчёт «косвенное» использование воды, поскольку считается только вода, которую ЦОД применяют для охлаждения, хотя значительная часть водопотребления приходится на генерирующие мощности, а не на их потребителей. Кроме того, при учёте углеродных выбросов должны приниматься во внимание не купленные «зелёные сертификаты», а реальное загрязняющее действие ЦОД в конкретной локации с учётом использования «чистой» и «обычной» энергии в местной электросети.

OpenAI также недавно оказалась в центре внимания экспертов и общественности, поскольку появилась информация, что её новейшая модель GPT-5 потребляет более 18 Вт·ч электроэнергии, до 40 Вт·ч на ответ средней длины. Сам глава компании Сэм Альтман (Sam Altman) объявил, что в среднем на выполнение запроса тратится около 0,34 Вт∙ч и около 0,32 мл воды. Это несколько больше, чем заявленные показатели Google Gemini, однако, согласно расчётам исследователей, эти цифры, скорее всего, актуальны для GPT-4o.

Постоянный URL: https://servernews.ru/1128088
22.08.2025 [16:33], Владимир Мироненко

Почти как у самой NVIDIA: NVLink Fusion позволит создавать кастомные ИИ-платформы

Технологии NVIDIA NVLink и NVLink Fusion позволят вывести производительность ИИ-инференса на новый уровень благодаря повышенной масштабируемости, гибкости и возможностям интеграции со сторонними чипами, которые в совокупности отвечает стремительному росту сложности ИИ-моделей, сообщается в блоге NVIDIA.

С ростом сложности ИИ-моделей выросло количество их параметров — с миллионов до триллионов, что требует для обеспечения их работы значительных вычислительных ресурсов в виде кластеров ускорителей. Росту требований, предъявляемых к вычислительным ресурсам, также способствует внедрение архитектур со смешанным типом вычислений (MoE) и ИИ-алгоритмов рассуждений с масштабированием (Test-time scaling, TTS).

NVIDIA представила интерконнект NVLink в 2016 году. Пятое поколение NVLink, вышедшее в 2024 году, позволяет объединить в одной стойке 72 ускорителя каналами шириной 1800 Гбайт/с (по 900 Гбайт/с в каждую сторону), обеспечивая суммарную пропускную способность 130 Тбайт/с — в 800 раз больше, чем у первого поколения.

Производительность NVLink зависит от аппаратных средств и коммуникационных библиотек, в частности, от библиотеки NVIDIA Collective Communication Library (NCCL) для ускорения взаимодействия между ускорителями в топологиях с одним и несколькими узлами. NCCL поддерживает вертикальное и горизонтальное масштабирование, а также включает в себя автоматическое распознавание топологии и оптимизацию передачи данных.

Технология NVLink Fusion призвана обеспечить гиперскейлерам доступ ко всем проверенным в производстве технологиям масштабирования NVLink. Она позволяет интегрировать кастомные микросхемы (CPU и XPU) с технологией вертикального и горизонтального масштабирования NVIDIA NVLink и стоечной архитектурой для развёртывания кастомных ИИ-инфраструктур.

Технология охватывает NVLink SerDes, чиплеты, коммутаторы и стоечную архитектуру, предлагая универсальные решения для конфигураций кастомных CPU, кастомных XPU или комбинированных платформ. Модульное стоечное решение OCP MGX, позволяющее интегрировать NVLink Fusion с любым сетевым адаптером, DPU или коммутатором, обеспечивает заказчикам гибкость в построении необходимых решений, заявляет NVIDIA.

NVLink Fusion поддерживает конфигурации с кастомными CPU и XPU с использованием IP-блоков и интерфейса UCIe, предоставляя заказчикам гибкость в реализации интеграции XPU на разных платформах. Для конфигураций с кастомными CPU рекомендуется интеграция с IP NVLink-C2C для оптимального подключения и производительности GPU. При этом предлагаются различные модели доступа к памяти и DMA.

NVLink Fusion использует преимущества обширной экосистемы кремниевых чипов, в том числе от партнёров по разработке кастомных полупроводников, CPU и IP-блоков, что обеспечивает широкую поддержку и быструю разработку новых решений. Основанная на десятилетнем опыте использования технологии NVLink и открытых стандартах архитектуры OCP MGX, платформа NVLink Fusion предоставляет гиперскейлерам исключительную производительность и гибкость при создании ИИ-инфраструктур, подытожила NVIDIA.

При этом основным применением NVLink Fusion с точки зрения NVIDIA, по-видимому, должно стать объединение сторонних чипов с её собственными, а не «чужих» чипов между собой. Более открытой альтернативой NVLink должен стать UALink с дальнейшим масштабированием посредством Ultra Ethernet.

Постоянный URL: https://servernews.ru/1128089
22.08.2025 [15:18], Руслан Авдеев

Исполинская 5-ГВт газовая электростанция Pacifico Energy в Техасе запитает ИИ ЦОД и никого больше

Калифорнийская Pacifico Energy рассказала о планах строительства 5-ГВт автономной газовой электростанции GW Ranch в округе Пекос (Pecos County, Техас) на территории площадью более 3,2 тыс. га, где также разместятся аккумуляторные энергохранилища. Вся энергия пойдёт исключительно на питание ИИ ЦОД гиперскейл-класса, сообщает Datacenter Dynamics. В компании подчёркивают, что проект будет изолирован от энергосети штата. Это позволит ускорить развёртывание ИИ ЦОД без ущерба надёжности энергоснабжения.

К 2028 году Pacifico намерена довести выработку до 1 ГВт, а к 2030 году выйти на проектную мощность в 5 ГВт. Мощность аккумуляторного хранилища составит 1,8 ГВт — его модульные системы будут внедряться поэтапно. Компания находится в процессе получения разрешений от техасского природоохранного регулятора Texas Commission on Environmental Quality. По её мнению, проект соответствует требованиям в области защиты окружающей среды. Топливо будет поставляться с месторождений Пермского нефтегазового бассейна США (Permian Basin), одного из крупнейших источников природного газа в стране.

По данным Управления энергетической информации США (EIA), в 2024 году добыча природного газа в Пермском бассейне выросла на 12 % год к году, составив 22 % от общего объёма продаж природного газа в стране. Большие объёмы добычи и благоприятная нормативная база в Техасе побудили отдельных операторов ЦОД заняться развитием электростанций для обеспечения своих объектов энергией в обход основных электросетей. Занимающиеся добычей природного газа в Пермском бассейне компании также позиционируют себя в качестве поставщиков для сектора ЦОД.

 Источник изображения: Chris LeBoutillier/unsplash.com

Источник изображения: Chris LeBoutillier/unsplash.com

Одобрение регуляторов получил и ещё один крупный проект — власти Луизианы разрешили Entergy постройку трёх газовых электростанций для питания крупнейшего ИИ ЦОД Meta Hyperion, который после полного завершения строительства потребует до 5 ГВт. Для него придётся построить отдельную ЛЭП. Новые электростанции будут поставлять до 2,3 ГВт, ещё 1,5 ГВт планируется получить от проектов солнечной энергетики. Часть расходов по созданию новых объектов Meta возьмёт на себя.

Местные регуляторы быстро одобрили проект, поскольку Entergy намекнула, что в случае задержек Meta может перенсти проект в другой штат. Некоторые эксперты опасаются, что расходы на строительство лягут на плечи обычных потребителей, а электростанции поставят под угрозу здоровье местных жителей (xAI уже столкнулась с такими претензиями) и состояние окружающей среды. А сам ЦОД может привести к дефициту питьевой воды.

Постоянный URL: https://servernews.ru/1128077
22.08.2025 [13:30], Алексей Разин

NVIDIA поможет японцам создать один из мощнейших суперкомпьютеров мира FugakuNEXT

В начале этого десятилетия созданный в Японии суперкомпьютер Fugaku пару лет удерживался на верхней строчке в рейтинге мощнейших систем мира TOP500, он и сейчас занимает в нём седьмое место. В попытке технологического реванша японский исследовательский институт RIKEN доверился компании NVIDIA, которая поможет Fujitsu создать суперкомпьютер Fugaku NEXT.

Помимо Arm-процессоров Fujitsu MONAKA-X, в основу нового японского суперкомпьютера лягут и ускорители NVIDIA, хотя изначально планировалось обойтись без них. NVIDIA будет принимать непосредственное участие в интеграции своих компонентов в суперкомпьютерную систему, создаваемую японскими партнёрами.

По меньшей мере, скоростные интерфейсы, которыми располагает NVIDIA, пригодятся для обеспечения быстрого канала передачи информации между CPU и ускорителями. Сама NVIDIA обтекаемо говорит, что для этого можно задействовать шину NVLink Fusion. С ускорителями AMD, по-видимому, эти процессоры будут общаться более традиционно, т.е. по шине PCIe.

 Источник изображений: Fujitsu

Источник изображений: Fujitsu

Кроме того, NVIDIA собирается применить в составе данной системы передовые типы памяти. Применяемые при создании FugakuNEXT решения, по мнению представителей NVIDIA, смогут стать типовыми для всей отрасли в дальнейшем. Подчёркивается, что будущая платформа станет не просто техническим апгрейдом, а инвестицией в будущее страны.

Сама архитектура системы не уточняется, поэтому сложно судить, насколько активно японские разработчики будут использовать ускорители NVIDIA, и к какому поколению они будут относиться. Создатели ставят перед собой амбициозные цели — FugakuNEXT должна стать первой системой «зетта-масштаба». Своего предшественника она должна превзойти более чем в пять раз, обеспечив быстродействие на уровне 600 Эфлопс (FP8).

На уровне приложений прирос быстродействия может быть стократным, отмечают создатели. Новый суперкомпьютер сможет применяться для обучения больших языковых моделей. Впрочем, в строй он будет введён лишь к 2030 году, а Fujitsu ещё только предстоит выпустить свои процессоры MONAKA-X для этой системы.

Постоянный URL: https://servernews.ru/1128079

Входит в перечень общественных объединений и религиозных организаций, в отношении которых судом принято вступившее в законную силу решение о ликвидации или запрете деятельности по основаниям, предусмотренным Федеральным законом от 25.07.2002 № 114-ФЗ «О противодействии экстремистской деятельности»;

Система Orphus