Материалы по тегу: hardware

24.06.2025 [16:11], Руслан Авдеев

OpenAI ищет управляющего энергетической политикой

Компания OpenAI ищет специалиста по энергетической политике. Должность в первую очередь предусматривает взаимодействие с федеральными властями и руководством отдельных штатов для продвижения энергетических интересов компании в США, сообщает Datacenter Dynamics.

В новом объявлении на сайте OpenAI объявляется, что роль сотрудника связана с разработкой позиций и стратегий компании по ключевым вопросам энергетики, включая генерацию и потребление энергии, развитие возобновляемых источников, надёжность энергосетей, вопросы присоединения и регулирования, а также устойчивость инфраструктуры — для обеспечения экобезопасного и эффективного функционирования технологий компании.

Роль предполагает выстраивание внутренних коммуникаций в компании, а также контакты с Министерством энергетики (DoE), регулятором FERC и другими госорганами, региональными сетевыми операторами вроде ERCOT, коммунальными службами, экозащитниками и партнёрами в сфере «чистой» энергии. Хотя основное внимание сотрудника должно уделяться внутриамериканским задачам, он также будет играть и ключевую роль в поддержке энергетической стратегии компании в международном контексте.

 Источник изображения: LinkedIn Sales Solutions/unsplash.com

Источник изображения: LinkedIn Sales Solutions/unsplash.com

На позицию могут претендовать кандидаты с 10–15 годами опыта работы, связанной с выстраиванием энергетической политики, инфраструктуры или устойчивого развития. В том числе рассматриваются бывшие государственные служащие, сотрудники коммунальных, энергетических компаний и т.п. Успешный соискатель может рассчитывать на компенсацию $280–$325 тыс. ежегодно и акционерный капитал.

Как сообщает Datacenter Dynamics, вероятно, новый сотрудник поможет реализовать проект Stargate. Проект оценивается в $100-500 млрд и предусматривает строительство дата-центров в США и других странах, например, в ОАЭ и открытие офисов, в частности, в Южной Корее. Stargate, по сути, представляет собой комбинацию облачных контрактов, партнёрств и самостоятельных инициатив OpenAI. Что касается требуемых мощностей, в каждом случае необходима разная степень участия компании. Если проект будет реализован, его крупнейшие кампусы будут потреблять по 1–2 ГВт, что потребует тщательного планирования в сфере энергетики.

Постоянный URL: http://servernews.ru/1124878
24.06.2025 [11:42], Сергей Карасёв

Lenovo анонсировала новые системы для дата-центров, оптимизированные для ИИ

Компания Lenovo анонсировала новые гибридные платформы, оптимизированные для решения ресурсоёмких ИИ-задач в дата-центрах. Представлены системы различного уровня, созданные в партнёрстве с NVIDIA, Cisco и IBM.

В частности, дебютировала модель ThinkSystem SR680a V4 на аппаратной платформе Intel. Полностью характеристики платформы не раскрываются. Известно, что применены процессоры семейства Xeon 6, в которое входят изделия на основе энергоэффективных E-ядер (Sierra Forest) и производительных P-ядер (Granite Rapids). Система несёт на борту восемь ускорителей NVIDIA Blackwell B200, а также восемь карт NVIDIA SuperNIC и NVIDIA BlueField-3 DPU. Утверждается, что по сравнению с серверами предыдущего поколения модель ThinkSystem SR680a V4 обеспечивает семикратный рост вычислительной производительности, тогда как объём памяти увеличился в четыре раза. Скорость инференса при работе с большими языковыми моделями (LLM) поднялась приблизительно в 11 раз.

 Lenovo ThinkSystem SR675. Источник изображения: Lenovo.

Lenovo ThinkSystem SR675. Источник изображения: Lenovo.

Кроме того, Lenovo представила ИИ-систему Hybrid AI на платформе IBM watsonx. В основу этого решения положены серверы Lenovo ThinkSystem SR675 (V3), оснащённые системой жидкостного охлаждения Neptune.

Ещё одна система Lenovo Hybrid AI создана в партнёрстве с Cisco: она объединяет коммутаторы Cisco Nexus с технологией NVIDIA Spectrum-X для ускорения развёртывания ИИ-фабрик на предприятиях. Задействован сервер ThinkSystem SR675 V3, который может содержать до восьми ускорителей NVIDIA RTX Pro 6000 Blackwell Server Edition. Говорится о поддержке карт NVIDIA SuperNIC и NVIDIA BlueField-3 DPU. Платформа призвана ускорить переход организаций от ИИ-вычислений на базе CPU к средам на основе GPU.

Постоянный URL: http://servernews.ru/1124848
23.06.2025 [16:53], Владимир Мироненко

SK hynix выпустит кастомную HBM4E-память для NVIDIA, Microsoft и Broadcom

Согласно данным The Korea Economic Daily, южнокорейская компания SK hynix заключила контракты на поставку кастомной памяти HBM с NVIDIA, Microsoft и Broadcom, опередив конкурента Samsung Electronics на рынке кастомной HBM, который, по прогнозам TrendForce и Bloomberg Intelligence к 2033 году вырастет до $130 млрд с $18,2 млрд в 2024 году. Ожидается, что поставки SK hynix кастомных чипов начнутся во второй половине 2025 года.

По данным отраслевых источников, Samsung также ведёт переговоры с Broadcom и AMD о поставках кастомной HBM4. Ранее, в ходе квартального отчёта в апреле компания сообщила, что начнёт поставки памяти HBM4 в I половине 2026 года. Для наращивания производства HBM и передовой памяти DRAM компания SK hynix переоборудовала свой завод M15X в Чхонджу (Cheongju), изначально предназначенный для производства флеш-памяти NAND. Объём запланированных инвестиций составляет ₩20 трлн ($14,5 млрд).

Кастомные HBM, предназначенные для удовлетворения конкретных потребностей клиентов, пользуются всё большим спросом, поскольку крупные технологические компании, стремясь оптимизировать производительность своих ИИ-решений, отказываются от использования универсальной памяти. О заключении контрактов стало известно примерно через 10 месяцев после того, как SK hynix объявила о получении запросов на поставку кастомной HBM от «Великолепной семёрки»: Apple, Microsoft, Google, Amazon, NVIDIA, Meta и Tesla.

 Источник изображения: SK hynix

Источник изображения: SK hynix

По словам источника The KED в полупроводниковой отрасли, «учитывая производственные мощности SK hynix и сроки запуска ИИ-сервисов крупными технологическими компаниями, удовлетворить все запросы “Великолепной семёрки” не представляется возможным». Тем не мене, он допустил, что SK hynix с учётом условий рынка может заключить контракты ещё с несколькими клиентами.

Ранее SK hynix сообщила, что с поколением HBM4E она полностью перейдет на модель индивидуального производства. Текущее массовое внедрение сосредоточено вокруг HBM3E, а отрасль готовится в ближайшем будущем к переходу на шестое поколение памяти HBM — HBM4. По словам источников, выпуск кастомной памяти седьмого поколения HBM4E компания освоит во II половине 2026 года, а массовое производство HBM4 начнёт во второй II 2025 года.

Начиная с HBM4, логические кристаллы для памяти SK hynix выпускает TSMC, поскольку усовершенствованный чип требует более продвинутых техпроцессов. До этого компания обходилась собственными мощностями. По данным TrendForce, SK hynix контролирует половину мирового рынка HBM, за ней следуют Samsung и Micron с долями рынка в размере 30 % и 20 % соответственно.

Постоянный URL: http://servernews.ru/1124820
23.06.2025 [16:14], Руслан Авдеев

3data модернизировала московский ЦОД «М8», добавив мощности для колокейшн-клиентов

3data объявила об успешной модернизации дата-центра «М8», находящегося на севере Москвы. Благодаря обновлению инфраструктуры ЦОД увеличилась энергоэффективность площадки — для колокейшн-клиентов высвободилось порядка 15 % дополнительной мощности, сообщает пресс-служба компании.

По словам 3data, ЦОД «М8» стал первым объектом в сети компании, прошедшим «глобальную комплексную модернизацию». С момента ввода в эксплуатацию в 2014 году дата-центр отработал более 10 лет без значимых инцидентов. Обновление площадки своевременно, поскольку в Москве наблюдается дефицит свободных мощностей.

 Источник изображения: 3data

Источник изображения: 3data

Модернизацию провели в несколько этапов для обеспечения непрерывности работы. На первой стадии внимание уделили системе безопасности проекта — доработали видеонаблюдение и СКУД. На следующем этапе за три дня заменили ИБП, установив три модульных ИБП по 100 кВА компании «ИМПУЛЬС». Во время проведения работ ЦОД обеспечили резервным питанием от дизельного генератора. Дополнительно заменили массивы аккумуляторов B.B.BATTERY и увеличили количество АКБ. В результате время автономной работы оборудования ЦОД выросло до 17 мин.

 Источник изображения: 3data

Источник изображения: 3data

В мае 2025 года была модернизирована система кондиционирования: полная замена коснулась фреонопроводов, ресиверов, внешних блоков кондиционеров. Внутренние блоки планируется заменить в ближайшие три-четыре месяца. Предполагается, что такая замена позволит сохранить надёжность и увеличить производительность системы охлаждения. В результате клиенты смогут получить больше мощностей для своего серверного оборудования. Система холодоснабжения Stulz будет заменена на более современный и производительный вариант.

 Источник изображения: 3data

Источник изображения: 3data

По словам компании, плановая модернизация объектов позволяет значительно усовершенствовать технические возможности ЦОД с учётом требований времени к отказоустойчивости и плотности размещения оборудования. Сейчас у 3data в России есть сеть из 24 ЦОД уровня Tier III. В ближайшие годы планируется поэтапная модернизация и других её объектов для повышения производительности и эффективности.

Постоянный URL: http://servernews.ru/1124819
23.06.2025 [13:48], Руслан Авдеев

xAI воспользуется облаком Oracle для обучения и инференса Grok

Oracle частично раскрыла список компаний, использующих облачную инфраструктуру Oracle Cloud Infrastructure (OCI) для обучения ИИ-моделей и инференса. В их числе, несмотря на наличие собственных мощностей, оказался и стартап Илона Маска (Elon Musk) xAI, сообщает Datacenter Dynamics.

xAI намерена использовать ИИ-инфраструктуру OCI для обучения моделей нового поколения, стоящих за чат-ботом Grok. Кроме того, OCI будет применяться и для инференса в интересах xAI. Также модели будут предлагаться через ИИ-сервис OCI, предлагающий доступ к моделям генеративного ИИ. По словам представителей xAI, Grok 3 знаменует собой прорыв в возможностях ИИ, а платформа Oracle ускорит его внедрение в корпоративном секторе.

У xAI есть собственный ИИ-суперкомпьютер Colossus, который будет расширяться. Компания также намерена построить ещё один ЦОД. Правда, xAI столкнулась с судебным иском, связанным с увеличением мощности импровизированной электростанции из газовых генераторов.

 Источник изображения: xAI

Источник изображения: xAI

Помимо xAI клиентами Oracle является множество других компаний. Как сообщил облачный оператор, в их число входят Fireworks AI, Hedra, Numenta, Soniox и даже Meta, у которой тоже есть собственные вычислительные мощности. Представители OCI подчёркивают, что площадка является предпочтительным местом для обучения и инференса в любых масштабах. ИИ-инфраструктура OCI обеспечивает доступ к сверхскоростной сети, «оптимизированному» хранилищу и передовым ускорителям, на которые клиенты полагаются для очередных инноваций. Кроме того, Oracle является участником проекта Stargate.

Постоянный URL: http://servernews.ru/1124813
23.06.2025 [12:51], Руслан Авдеев

Бум ИИ-технологий заставляет Wistron оперативно масштабировать производство серверов

Спрос на ИИ-технологии в мире по-прежнему остаётся устойчивым, а перспективы отрасли — весьма благоприятными. Президент и генеральный директор Wistron Джефф Лин (Jeff Lin) объявил, что большинство клиентов размещают долгосрочные 12-месячные заказы на оборудование компании и востребованность её продуктов останется высокой до мая 2026 года, сообщает DigiTimes. По словам директора, недавно введённый в эксплуатацию AI Smart Campus Wistron в Чжубэе (Zhubei), вероятно, уже столкнётся с дефицитом мощностей в 2026 году.

Открытие кампуса, одновременно являющегося новой штаб-квартирой компании для глобальных операций, состоялось 19 июня. На мероприятии присутствовал ряд руководителей Wistron, а также представители поставщиков разных уровней. Глава NVIDIA Дженсен Хуанг (Jensen Huang), чья компания является ключевым клиентом Wistron, прислал специальное видеопоздравление.

В интервью после мероприятия Джефф Лин сообщил, что новый объект будет использоваться для выпуска ИИ-серверов. Пока осуществляется монтаж оборудования, а производство начнётся после его установки. Исходя из текущих заказов ожидается, что завод выйдет на полную мощность к 2026 году.

В феврале Wistron объявила, что для удовлетворения растущего спроса компания подписала договор с компанией Lien Fa Textile на аренду объекта площадью 56 тыс. м2. Он послужит дополнительной площадкой для выпуска ИИ-серверов. Аренда на 10 лет обойдётся не дороже NT$2,503 млрд ($84 млн).

 Источник изображения: Wistron

Источник изображения: Wistron

Хотя конкретики о параметрах масштабирования кампуса в Чжубэе немного, известно, что с использованием нового арендованного объекта Wistron рассчитывает существенно расширить производство на Тайване. В конце прошлого года уже сообщалось о намерении Wistron расширить мировое присутствие и укрепить производство ИИ-серверов.

Линь признал, что загрузка производственных мощностей произошла неожиданно быстро, заставив компанию активно расширяться. Теперь у неё три производственных площадки в Синьчжу (Hsinchu), увеличиваются штаты исследователей и разработчиков, а также специалистов по продажам. Кроме того, новый головной офис в Тайбэе (Taipei) достроят к 2027 году, но действующий офис в Сичжи (Xizhi) пока сохранят из-за нехватки свободных площадей.

Что касается производства ИИ-серверов за пределами Тайваня, небольшие партии выпускаются лишь в Техасе. Завод выпускает те же модели серверов, что и кампус в Чжубэе, предполагается расширить производство в 2026 году. Компания уже сообщала выделить на расширение производства в США $50 млн.

На вопрос журналистов о возможности переноса выпуска вычислительной техники в США, Лин сообщил, что некоторые клиенты запросили подготовку технико-экономического обоснования. Впрочем, такие обсуждения пока находятся на ранней стадии и никакие решения ещё не приняты. При этом планирование цепочки поставок заметно усложнилось, поскольку приходится учитывать неопределённость тарифной политики США.

Постоянный URL: http://servernews.ru/1124806
23.06.2025 [11:58], Сергей Карасёв

Подземный суперкомпьютер Olivia стал самым мощным в Норвегии

В Норвегии введён в эксплуатацию самый мощный в стране суперкомпьютер — система Olivia, созданная корпорацией HPE. Комплекс расположен в дата-центре Лефдаль (Lefdal Mine Datacenter, LMD) на базе бывшего рудника, а для его охлаждения используется холодная вода из близлежащего фьорда.

Машина построена на платформе HPE Cray Supercomputing EX (EX254n). В её состав входят 252 узла, каждый из которых содержит два 128-ядерных процессора AMD EPYC 9745 (Turin). В сумме это даёт 64 512 CPU-ядер. Кроме того, задействован GPU-кластер с 76 узлами, оснащёнными четырьмя гибридными суперчипами NVIDIA GH200: таким образом, в общей сложности применены 304 ускорителя. Используется интерконнект HPE Slingshot 11. За хранение данных отвечает система HPE Cray ClusterStor E1000 вместимостью 5,3 Пбайт.

В текущей конфигурации GPU-кластер Olivia обладает производительностью 13,2 Пфлопс (FP64) и пиковым быстродействием 16,8 Пфлопс. При этом энергопотребление составляет 219 кВт. Таким образом, машина демонстрирует производительность в 60,274 Гфлопс/Вт.

В июньском рейтинге мощнейших суперкомпьютеров мира TOP500 GPU-комплекс Olivia располагается на 117-й позиции, тогда как в списке самых энергоэффективных суперкомпьютеров GREEN500 он занимает 22-ю строку. CPU-блок Olivia занимает 271-е место в рейтинге с фактической и пиковой FP64-производительностью 4,25 и 4,95 Пфлопс соответственно.

 Источник изображения: Sigma2

Источник изображения: Sigma2

Olivia эксплуатируется государственной компанией Sigma2. Применять суперкомпьютер планируется для проведения исследований в различных областях, включая изменения климата, здравоохранение, ИИ и пр. Суперкомпьютер обладает возможностями для дальнейшего расширения. В частности, количество ядер CPU может быть увеличено до 119 808. Кроме того, могут быть добавлены ещё 224 ускорителя.

Постоянный URL: http://servernews.ru/1124798
23.06.2025 [10:32], Сергей Карасёв

NTT поглотит за $16 млрд дочернюю структуру NTT Data с целью усиления позиций в области ИИ

Японская корпорация Nippon Telegraph and Telephone (NTT) сделала предложение о поглощении дочерней структуры NTT Data, которая специализируется на ИТ-услугах и дата-центрах. Сделка уже получила одобрение, а процесс её закрытия начнётся 26 июня.

NTT является мажоритарным акционером NTT Data с долей 57,7 %. Как сообщалось ранее, в рамках сделки NTT заплатит ¥4000 ($27,65) за каждую акцию NTT Data. Общая сумма транзакции составит ¥2,37 трлн (≈$16,4 млрд). После завершения процедуры NTT Data будет трансформирована в частную структуру.

Предполагается, что сделка упростит корпоративную организацию NTT, а также поможет в укреплении позиций на стремительно развивающемся рынке ИИ. В данной сфере корпорация NTT, примерно треть которой принадлежит государству, конкурирует с KDDI и SoftBank. Между тем Токио подталкивает местные компании к разработке собственных ИИ-платформ, которые могли бы стать альтернативой продуктам американской OpenAI и китайской DeepSeek.

 Источник изображения: NTT

Источник изображения: NTT

Сделка являются частью масштабной программы NTT Global Data Centres (подразделение NTT Data) по инвестированию более $10 млрд до 2027 года в формирование критической инфраструктуры, оптимизированной для ИИ, и развитие цифровой экономики. Будучи третьим по величине оператором ЦОД в мире, NTT Global Data Centers активно расширяет свою экосистему. За последний год компания открыла 10 новых дата-центров в Северной Америке, Европе, на Ближнем Востоке, в Африке и Азиатско-Тихоокеанском регионе, добавив более 370 МВт новых IT-мощностей. В общей сложности компания управляет более чем 150 объектами в более чем 20 странах и регионах.

Постоянный URL: http://servernews.ru/1124800
23.06.2025 [09:05], Сергей Карасёв

Половинка суперчипа: Arm-процессор NVIDIA Grace C1 набирает популярность в телеком-оборудовании, СХД и на периферии

Компания NVIDIA отметила рост популярности своего Arm-процессора Grace C1 среди ключевых ODM-партнёров. Изделие применяется в телекоммуникационном оборудовании, СХД, периферийных и облачных решениях, а также в других системах, где первостепенное значение имеет показатель производительности в расчёте на ватт затрачиваемой энергии.

Архитектура NVIDIA Grace на сегодняшний день представлена в двух основных конфигурациях: это двухпроцессорный Grace Superchip и новый однопроцессорный Grace CPU C1. Последний содержит 72 ядра Arm Neoverse V2 (Armv9) с поддержкой векторных расширений SVE2. Объём кеша L2 составляет 1 Мбайт в расчёте на ядро. Кроме того, есть 114 Мбайт кеша L3. Тактовая частота достигает 3,1 ГГц.

 Источник изображения: NVIDIA

Источник изображения: NVIDIA

Процессор Grace CPU C1 функционирует в связке со 120, 240 или 480 Гбайт памяти LPDDR5X, пропускная способность которой достигает 512 Гбайт/с (384 Гбайт/с для варианта 480 Гбайт). Реализована поддержка четырёх массивов PCIe 5.0 x16, что даёт в общей сложности 64 линии (поддерживается бифуркация). Показатель TDP составляет до 250 Вт (вместе с памятью).

 Источник изображения: NVIDIA

Источник изображения: NVIDIA

По заявлениям NVIDIA, системы на базе Grace CPU C1 демонстрируют двукратное повышение производительности на ватт затрачиваемой энергии по сравнению с сопоставимыми по классу продуктами, построенными на чипах с архитектурой х86. Устройства на основе Grace CPU C1 проектируют такие компании, как Foxconn, Jabil, Lanner, MiTAC, Supermicro и QCT.

В телекоммуникационной отрасли, как отмечается, востребован компьютер NVIDIA Compact Aerial RAN, объединяющий процессор Grace CPU C1 с ускорителем NVIDIA L4 и адаптером NVIDIA ConnectX-7 SmartNIC. Кроме того, Grace CPU C1 применяется в системах хранения WEKA и Supermicro.

Постоянный URL: http://servernews.ru/1124783
23.06.2025 [08:49], Сергей Карасёв

AAEON выпустила одноплатные компьютеры UP TWL и UP TWLS на базе Intel Twin Lake

Компания AAEON пополнила ассортимент одноплатных компьютеров моделями UP TWL и UP TWLS, предназначенными для промышленной автоматизации, периферийных вычислений, IoT-платформ и пр. Устройства выполнены на аппаратной платформе Intel Twin Lake.

Обе новинки доступны в модификациях с чипом Intel Processor N150 (четыре ядра; до 3,6 ГГц; 6 Вт), Intel Processor N250 (четыре ядра; до 3,8 ГГц; 6 Вт) и Core i3-N355 (восемь ядер; до 3,9 ГГц; 15 Вт). В состав перечисленных изделий входит ускоритель Intel UHD Graphics. Объём оперативной памяти LPDDR5 может достигать 8 Гбайт.

 Источник изображений: AAEON

Источник изображений: AAEON

Модель UP TWL располагает разъёмом HDMI 1.4b, тремя портами USB 3.2 Gen2 Type-A, а также сетевым портом 1GbE RJ45 на основе контроллера Realtek RTL8111H CG. Есть 40-контактная колодка GPIO (совместима с Raspberry Pi). Предусмотрен флеш-чип eMMC вместимостью до 64 Гбайт.

В свою очередь, версия UP TWLS также оснащена интерфейсом HDMI 1.4b, тремя портами USB 3.2 Gen2 Type-A и гнездом RJ45 (1GbE), но 40-контактная колодка GPIO отсутствует. Вместо этого применяются 8-контактный коннектор I2C, 10-контактный коннектор SPI, 10-контактный коннектор GPIO, а также 10-контактный коннектор RS-232/422/485 (последовательный порт). Предусмотрен также разъём M.2 E-Key для адаптера Wi-Fi. Вместимость eMMC-памяти достигает 128 Гбайт.

Питание (12 В / 5 А) устройства получают через DC-разъём. Платы имеют размеры 85 × 56 мм. Диапазон рабочих температур простирается от -20 до +70 °C (при использовании активного кулера). Заявлена совместимость с программными платформами Ubuntu 22.04 LTS, Yocto и Windows 10/11. В оснащение входит модель TPM 2.0.

Постоянный URL: http://servernews.ru/1124787

Входит в перечень общественных объединений и религиозных организаций, в отношении которых судом принято вступившее в законную силу решение о ликвидации или запрете деятельности по основаниям, предусмотренным Федеральным законом от 25.07.2002 № 114-ФЗ «О противодействии экстремистской деятельности»;

Система Orphus