Материалы по тегу: nvidia

26.09.2024 [13:58], Сергей Карасёв

Intel кастомизирует процессоры Xeon Granite Rapids для работы с ИИ-ускорителями NVIDIA

Корпорация Intel, по сообщению ресурса HPC Wire, оптимизирует свои новейшие серверные процессоры Xeon 6 поколения Granite Rapids специально для систем, в которых применяются ИИ-ускорители NVIDIA. Тем самым Intel рассчитывает увеличить продажи и улучшить свое финансовое положение.

О новой инициативе рассказал Ронак Сингхал (Ronak Singhal), старший научный сотрудник Intel. По его словам, NVIDIA является лидером на рынке ИИ-ускорителей, поэтому Intel тесно сотрудничает с этой компанией. Задача заключается в том, чтобы предоставить заказчикам, которые развёртывают системы на базе NVIDIA MGX или HGX, полный спектр процессоров Xeon, сертифицированных для работы с указанными платформами. «Это только начало сотрудничества, которое мы будем вести с NVIDIA в течение следующего года», — подчеркнул Сингхал.

 Источник изображения: Intel

Источник изображения: Intel

На фоне квартальных убытков в размере $1,61 млрд и резкого падения стоимости акций Intel ищет способы переориентировать бизнес на продукты с архитектурой x86. Корпорация ранее сообщила о намерении кастомизировать процессоры Xeon 6 для Amazon Web Services (AWS) и намекнула, что будет делать то же самое в интересах Google Cloud. При этом в своё время Intel подставила NVIDIA, изрядно задержав выход Sapphire Rapids, которые используются в системах DGX H100.

Постоянный URL: http://servernews.ru/1111577
26.09.2024 [10:39], Сергей Карасёв

Nebius, бывшая структура Яндекса, запустила первый ИИ-кластер во Франции на базе NVIDIA H200

Nebius, бывшая материнская компания «Яндекса», объявила о развёртывании своего первого вычислительного ИИ-кластера во Франции. Комплекс, предназначенный для нагрузок ИИ, сформирован на базе дата-центра Equinix PA10 в Сен-Дени — в 9 км к северу от центра Парижа.

Новый кластер станет первым объектом Nebius, на котором используются исключительно серверы и стойки собственной разработки. Такие системы проектируются специально с прицелом на применение мощных ускорителей на базе GPU. Благодаря этому, в частности, ускоряется ввод в эксплуатацию. Настройка оборудования и ввод систем в эксплуатацию на площадке Equinix PA10 займут всего два месяца. ЦОД начнёт обрабатывать клиентские рабочие нагрузки в ноябре 2024 года.

Известно, что в составе кластера Nebius задействованы ускорители NVIDIA H200. Тепло, вырабатываемое серверами Nebius, будет использоваться для обогрева городской фермы, раскинувшейся на крыше дата-центра Equinix PA10. Она включает теплицу, в которой выращиваются сезонные фрукты и овощи, и сад.

 Источник изображений: Nebius

Источник изображений: Nebius

Говорится, что запуск парижской площадки является частью стратегии Nebius по созданию крупномасштабной сети ИИ-кластеров по всему миру. Они будут предоставлять клиентам ресурсы для решения задач, связанных с ИИ. В частности, к середине 2025 года Nebius намерена инвестировать более $1 млрд в инфраструктуру ИИ в Европе. Со следующего года компания начнёт внедрение систем на базе ускорителей NVIDIA Blackwell.

«Мы работаем в новой отрасли, которая требует как передовых технологий, так и значительного капитала. Запуск кластера в Париже — это следующий шаг в рамках нашей программы по расширению возможностей ИИ в Европе», — сказал Аркадий Волож, основатель и генеральный директор Nebius.

Постоянный URL: http://servernews.ru/1111557
24.09.2024 [11:32], Руслан Авдеев

Саудовская Аравия начнёт закупать передовые ИИ-чипы в случае снятия американских ограничений в 2025 году

Хотя Саудовская Аравия фактически находится под санкциями США и не может закупать некоторые передовые ИИ-чипы, страна намерена получить американское разрешение на импорт уже в 2025 году. По данным DigiTimes, тогда же начнутся закупки ускорителей вроде NVIDIA H200. Саудовская Аравия уже активно вкладывает средства в развитие собственных вычислительных мощностей и к 2030 году намерена поднять вклад ИИ в национальный ВВП до 12 %.

По данным саудовского ведомства Saudi Data & AI Authority (SDAIA), курирующего вопросы, связанные с ИИ-системами, США рассматривают ослабление торговых ограничений в отношении страны. Не исключается, что новейшие чипы можно будет приобретать в следующем году.

Саудовские власти акцентируют внимание на том, что доступ к новому оборудованию будет содействовать развитию коммерческих операций между Саудовской Аравией и США и даст возможность стране строить собственные современные вычислительные мощности. Кроме того, местные власти в последние три года немало вкладывают в подготовку национальных IT-специалистов и информационные технологии в целом.

 Источник изображения: backer Sha/unsplash.com

Источник изображения: backer Sha/unsplash.com

В частности, Саудовская Аравия немало тратит на развитие локальной ИИ-экосистемы. По данным сентябрьского доклада SDAIA, в рамках плана Vision 2030 вклад ИИ-отрасли в ВВП должен составить к 2030 году до 12 %. Инвестициями займётся фонд национального благосостояния Public Investment Fund (PIF). По мнению экспертов, при сохранении роста инвестиций в генеративный ИИ, шесть стран GCC (Саудовская Аравия, ОАЭ, Кувейт, Катар, Оман и Бахрейн) будут получать по $23,5 млрд экономической выгоды ежегодно, из которых на Саудовскую Аравию придётся $12,2 млрд.

Параллельно американское правительство принимает меры, чтобы ограничить доступ к передовым чипам китайским государственным и коммерческим структурам. В мае 2024 года США расширили санкционное поле, включив в него и многие ближневосточные страны, в том числе Саудовскую Аравию и ОАЭ. Одна из причин заключается в желании КНР развивать тесные связи с Ближним Востоком. В США опасались, что Китай сможет получать современные полупроводники через своих ближневосточных партнёров. Китай является крупнейшим торговым партнёром Саудовской Аравии и крупным инвестором в саудовскую экономику в рамках плана Vision 2030.

 Источник изображения: Aramco Digital

Источник изображения: Aramco Digital

По мере того, как напряжённость между США и Китаем нарастает, критически важные технические сферы тоже становятся пространством для конкуренции, заставляя более мелких игроков принимать ту или иную сторону, и совсем не по доброй воле. По данным руководства саудовского фонда Alat, занимающегося инвестициями в ИИ-технологии и полупроводники вообще, уже поступили запросы о полном отделении от китайских технологических цепочек, иначе под угрозой окажутся отношения с США. При этом в Alat подчеркнули, что США являются не только приоритетным партнёром, но и приоритетным рынком.

Сотрудничают с США и другие крупные местные игроки. Например, Aramco Digital уже объявила о партнёрстве с Cerebras, Groq и Qualcomm для развития ИИ и 5G IoT в стране. Впрочем, эксперты отмечают, что хотя саудовские власти уже приняли меры по ограничению сделок с китайскими бизнесами, если США продолжит курс на ограничение поставок ИИ-чипов в Саудовскую Аравию, та может вновь повернуться лицом к сотрудничеству с Китаем, да и сейчас некоторые планы реализуются. Весной сообщалось, что Tencent увеличит инвестиции в облака на Ближнем Востоке, в том числе в Саудовской Аравии.

Постоянный URL: http://servernews.ru/1111417
19.09.2024 [15:17], Руслан Авдеев

Испанская Solaria и японская Datasection построят в Испании 200-МВт ИИ ЦОД

Занимающаяся «чистой» энергетикой испанская компания Solaria построит дата-центр в Пуэртольяно (Puertollano, Ciudad Real). По данным Datacenter Dynamics, на проходившем в городе мероприятии компания объявила о соглашении с японской Datasection о создании ИИ ЦОД.

Соглашение предполагает поставку до 200 МВт энергии, а также использование до 100 тыс. м2 на территории, принадлежащей в муниципалитете самой Solaria. Имеющиеся объекты будут преобразованы в ЦОД. На первом этапе будут задействованы «чистые комнаты», оставшиеся от производства фотоэлектрических ячеек. В этих залах будут размещать стойки Supermicro, оснащённые ускорителями NVIDIA. Ёмкость первой очереди составит 40 МВт. В Пуэртольяно у Solaria с 2010 года есть собственная солнечная электростанция мощностью 640 кВт.

По словам генерального директора Solaria Дарио Лопеса (Darío López), ЦОД принесёт в район прогресс и благосостояние, создаст более 100 рабочих мест и привлечёт €500 млн ($555 млн) инвестиций. Соглашение придаст импульс работе нового подразделения ЦОД, созданного компанией в мае прошлого года. По словам Лопеса, происходит историческая трансформация бизнес-модели компании. Приветствовали инициативу и власти города. В Datasection, в свою очередь, объявили, что проект будет одним из крупнейших ИИ ЦОД. Как заявляет руководство компании, «Пуэртольяно — беспроигрышный вариант».

 Источник изображения:  Enes/unsplash.com

Источник изображения: Enes/unsplash.com

Основанная в 2002 году Solaria управляет десятками солнечных электростанций в Испании, а также владеет объектами в Португалии, на Сардинии, в материковой Италии, в Греции и Уругвае. У компании есть около 1,7 ГВт действующих мощностей, а к 2026 года она планирует увеличить их до 4,3 ГВт. В мае 2024 года Solaria сообщила о формировании ЦОД-направления. На тот компания располагала 155 МВт доступных подключений к энергосети и запросила у поставщиков ещё 860 МВт, но не уточнила местоположение или спецификации планируемых ЦОД.

Datasection, основанная в 2000 году, предоставляет услуги в сфере Data Science, включая создание инструментов бизнес-аналитики, а также обеспечивает разработку алгоритмов для анализа данных. Портфолио Datasection включает целый ряд компаний, так или иначе связанных с обработкой массивов данных. При этом крупнейшим акционером компании является KDDI, а среди её стратегических партнёров значатся Foxconn, Supermicro и NVIDIA. Она же будет участвовать в создании крупнейшего в Азии ИИ ЦОД на базе суперускорителей NVIDIA GB200 NVL72.

Iberdrola, ещё одна испанская энергокомпания, также сформировала ЦОД-подразделение и намерена построить в Бильбао 200-МВт ИИ ЦОД, предоставив землю и энергию в обмен на долю в будущем предприятии.

Постоянный URL: http://servernews.ru/1111203
17.09.2024 [23:07], Игорь Осколков

Швейцария ввела в эксплуатацию гибридный суперкомпьютер Alps: 11 тыс. NVIDIA GH200, 2 тыс. AMD EPYC Rome и щепотка A100, MI250X и MI300A

Швейцарская высшая техническая школа Цюриха (ETH Zurich) провела церемонию официального запуска суперкомпьютера Alps в Швейцарском национальном суперкомпьютерном центре (CSCS) в Лугано. Система, построенная HPE, уже заняла шестую строчку в последнем рейтинге TOP500 и имеет устоявшеюся FP64-производительность 270 Пфлопс (теоретический пик — 354 Пфлопс). К ноябрю будут введены в строй остальные модули машины, и её максимальная производительность составит порядка 500 Пфлопс.

 Источник изображений: CSCS

Источник изображений: CSCS

В июньском рейтинге TOP500 участвовал раздел из 2688 узлов HPE Cray EX254n с «фантастической четвёркой» NVIDIA Quad GH200. Если точнее, это всё же «старый» вариант ускорителя с H100 (96 Гбайт HBM3), 72-ядерным Arm-процессором Grace и 128 Гбайт LPDDR5x — суммарно 10 752 Grace Hopper. Данный раздел потребляет 5,2 МВт и в Green500 находится на 14 месте. Узлы, конечно же, используют СЖО.

Это основной, но не единственный раздел суперкомпьютера. Ещё в 2020 году HPE развернула 1024 двухпроцессорных узла с 64-ядерными AMD EPYC 7742 (Rome) и 256/512 Гбайт RAM. Его производительность составляет 4,7 Пфлопс. Кроме того, в состав Alps входят 144 узла с одним 64-ядерным AMD EPYC, 128 Гбайт RAM и четырьмя NVIDIA A100 (80 или 96 Гбайт HBM2e).

Наконец, машина получит 24 узла с одним 64-ядерным AMD EPYC, 128 Гбайт RAM и четырьмя AMD Instinct MI250X (128 Гбайт HBM2e) и 128 узлов с четырьмя гибридными ускорителями AMD Instinct MI300A. Большая часть узлов будет объединена интерконнектом HPE Slingshot-11: 200G-подключение на узел или ускоритель. Более точную конфигурацию системы раскроют в ноябре.

Lustre-хранилище для будущей машины обновили ещё в прошлом году. Основной СХД является Cray ClusterStor E1000 с подключением Slingshot-11. Так, было добавлено 100 Пбайт полезной HDD-ёмкости (8480 × 16 Тбайт) с пропускной способностью 1 Тбайт/с (300 тыс. IOPS на запись, 1,5 млн IOPS на чтение) и 5 Пбайт SSD, а также резервные ёмкости. За архивное хранение отвечают две ленточные библиотеки объёмом 130 Пбайт каждая.

Особенностью системы является её геораспределённость (фактически узлы размещены в четырёх местах) и облачная модель использования. Так, метеослужба страны MeteoSwiss получила в своё распоряжение выделенный виртуальный кластер, что уже позволило перейти на использование метеомодели более высокого разрешения, которая лучше отражает сложный рельеф Швейцарии. Кроме того, для подстраховки часть узлов Alps размещена на территории Федеральной политехнической школы Лозанны (EPFL).

Alps приходит на смену суперкомпьютеру Piz Daint (Cray XC50/40, 21,2 Пфлопс), о завершении жизненного цикла которого было объявлено в конце июля 2024 года. В CSCS пока останутся машины Arolla + Tsa (для нужд MeteoSwiss) и Blue Brain 5 (решает задачи реконструкции и симуляции мозга). Alps же помимо традиционных HPC-нагрузок, будет использоваться для разработки ИИ-решений.

Постоянный URL: http://servernews.ru/1111113
13.09.2024 [10:22], Сергей Карасёв

Некогда самый мощный в мире суперкомпьютер Summit уйдёт на покой в ноябре

Высокопроизводительный вычислительный комплекс Summit, установленный в Окриджской национальной лаборатории (ORNL) Министерства энергетики США, будет выведен из эксплуатации в ноябре 2024 года. Обслуживать машину становится всё дороже, а по эффективности она уступает современным суперкомпьютерам.

Summit был запущен в 2018 году и сразу же возглавил рейтинг мощнейших вычислительных систем мира TOP500. Комплекс насчитывает 4608 узлов, каждый из которых оборудован двумя 22-ядерными процессорами IBM POWER9 с частотой 3,07 ГГц и шестью ускорителями NVIDIA Tesla GV100. Узлы соединены через двухканальную сеть Mellanox EDR InfiniBand, что обеспечивает пропускную способность в 200 Гбит/с для каждого сервера. Энергопотребление машины составляет чуть больше 10 МВт.

 Источник изображения: ORNL

Источник изображения: ORNL

FP64-быстродействие Summit достигает 148,6 Пфлопс (Linpack), а пиковая производительность составляет 200,79 Пфлопс. За шесть лет своей работы суперкомпьютер ни разу не выбывал из первой десятки TOP500: так, в нынешнем рейтинге он занимает девятую позицию.

 Источник изображения: ORNL

Источник изображения: ORNL

Отправить Summit на покой планировалось в начале 2024-го. Однако затем была запущена инициатива SummitPLUS, и срок службы вычислительного комплекса увеличился практически на год. Отмечается, что этот суперкомпьютер оказался необычайно продуктивным. Он обеспечил исследователям по всему миру более 200 млн часов работы вычислительных узлов.

В настоящее время ORNL эксплуатирует ряд других суперкомпьютеров, в число которых входит Frontier — самый мощный НРС-комплекс в мире. Его пиковое быстродействие достигает 1714,81 Пфлопс, или более 1,7 Эфлопс. При этом энергопотребление составляет 22 786 кВт: таким образом, система Frontier не только быстрее, но и значительно энергоэффективнее Summit. А весной этого года из-за растущего количества сбоев и протечек СЖО на аукционе был продан 5,34-ПФлопс суперкомпьютер Cheyenne.

Постоянный URL: http://servernews.ru/1110910
13.09.2024 [00:17], Владимир Мироненко

Производительность суперкомпьютера «Сергей Годунов» выросла вдвое — до 114,67 Тфлопс

Группа компаний РСК сообщила о завершении плановой модернизации суперкомпьютера «Сергей Годунов» в Институте математики имени С.Л. Соболева Сибирского отделения Российской академии наук (ИМ СО РАН), благодаря чему его суммарная пиковая FP64-производительность теперь составляет 114,67 Тфлопс: 75,87 Тфлопс на CPU и 38,8 Тфлопс на GPU.

 Источник изображений: РСК

Источник изображений: РСК

Работы по запуску машины были завершены РСК в ноябре 2023 года, а её официальное открытие состоялось в феврале этого года. На тот момент производительность суперкомпьютера составляла 54,4 Тфлопс. Директор ИМ СО РАН Андрей Евгеньевич Миронов отметил, что использование нового суперкомпьютера позволило существенно повысить эффективность научных исследований, и выразил уверенность, что он также будет способствовать развитию новых технологий.

Миронов сообщил, что после запуска суперкомпьютера появилась возможность решать мультидисциплинарные задачи, моделировать объёмные процессы и предсказывать поведение сложных математических систем. По его словам, на суперкомпьютере проводятся вычисления по критически важным проблемам и задачам, среди которых:

  • построение барических аксиальных алгебр и алгебры Грайса;
  • оптимизация параметров математических моделей турбулентных течений с сопряжённым теплообменом на основе технологий глубокого обучения и природоподобных алгоритмов;
  • волновая медицинская томография;
  • моделирование эпидемиологических, экологических, экономических и социальных процессов;
  • моделирование и построение сценариев развития системы биосфера-экономика-социум с учётом безуглеродного и устойчивого развития и изменения климата;
  • решение обратных задач геофизики прямым методом на основе подхода Гельфанда-Левитана-Крейна.
 Источник изображений: РСК

Источник изображений: РСК

Суперкомпьютер «Сергей Годунов» является основным инструментом для проведения исследований и прикладных разработок в Академгородке Новосибирска и создания технологической платформы под эгидой Научного совета Отделения математических наук РАН по математическому моделированию распространения эпидемий с учётом социальных, экономических и экологических процессов.

Он был назван в память об известном советском и российском математике с мировым именем Сергее Константиновиче Годунове. Отечественный суперкомпьютер создан на базе высокоплотной и энергоэффективной платформы «РСК Торнадо» с жидкостным охлаждением. Система включает вычислительные узлы с двумя Intel Xeon Ice Lake-SP, узел на базе четырёх ускорителей NVIDIA A100 и сервер визуализации с большим объёмом памяти: Intel Xeon Platinum 8368, 4 Тбайт RAM, пара NVIDIA RTX 5000 Ada с 32 Гбайт GDDR6.

Постоянный URL: http://servernews.ru/1110903
11.09.2024 [18:55], Игорь Осколков

Oracle анонсировала зеттафлопсный облачный ИИ-суперкомпьютер из 131 тыс. NVIDIA B200

Oracle и NVIDIA анонсировали самый крупный на сегодняшний день облачный ИИ-кластер, состоящий из 131 072 ускорителей NVIDIA B200 (Blackwell). По словам компаний, это первая в мире система производительностью 2,4 Зфлопс (FP8). Кластер заработает в I половине 2025 года, но заказы на bare-metal инстансы и OCI Superclaster компания готова принять уже сейчас. Заказчики также смогут выбрать тип подключения: RoCEv2 (ConnectX-7/8) или InfiniBand (Quantum-2).

По словам компании, новый ИИ-кластер вшестеро крупнее тех, что могут предложить AWS, Microsoft Azure и Google Cloud. Кроме того, компания предлагает и другие кластеры с ускорителями NVIDIA: 32 768 × A100, 16 384 × H100, 65 536 × H200 и 3840 × L40S. А в следующем году обещаны кластеры на основе GB200 NVL72, объединяющие более 100 тыс. ускорителей GB200. В скором времени также появятся и куда более скромные ВМ GPU.A100.1 и GPU.H100.1 с одним ускорителем A100/H100 (80 Гбайт).

Прямо сейчас для заказы доступны инстансы GPU.H200.8, включающие восемь ускорителей H200 (141 Гбайт), 30,7-Тбайт локальное NVMe-хранилище и 200G-подключение. Семейство инстансов на базе NVIDIA Blackwell пока включает лишь два варианта. GPU.B200.8 предлагает восемь ускорителей B200 (192 Гбайт), 30,7-Тбайт локальное NVMe-хранилище и 400G-подключение. Наконец, GPU.GB200 фактически представляет собой суперускоритель GB200 NVL72 и включает 72 ускорителя B200, 36 Arm-процессоров Grace и локальное NVMe-хранилище ёмкостью 533 Тбайт. Агрегированная скорость сетевого подключения составляет 7,2 Тбит/с.

 Источник изображения: Oracle

Источник изображения: Oracle

Для всех новых инстансов Oracle подготовит управляемое Lustre-хранилище с производительностью до 8 Гбит/с на каждый Тбайт. Кроме того, компания предложит расширенные средства мониторинга и управления, помощь в настройке инфраструктуры для достижения желаемого уровня реальной производительности, а также набор оптимизированного ПО для работы с ИИ, в том числе для Arm.

Постоянный URL: http://servernews.ru/1110816
10.09.2024 [14:55], Сергей Карасёв

TACC ввёл в эксплуатацию Arm-суперкомпьютер Vista на базе NVIDIA GH200 для ИИ-задач

Техасский центр передовых вычислений (TACC) при Техасском университете в Остине (США) объявил о том, что мощности нового НРС-комплекса Vista полностью доступны открытому научному сообществу. Суперкомпьютер предназначен для решения ресурсоёмких задач, связанных с ИИ.

Формальный анонс машины Vista состоялся в ноябре 2023 года. Тогда говорилось, что Vista станет связующим звеном между существующим суперкомпьютером TACC Frontera и будущей системой TACC Horizon, проект которой финансируется Национальным научным фондом (NSF).

Vista состоит из двух ключевых частей. Одна из них — кластер из 600 узлов на гибридных суперчипах NVIDIA GH200 Grace Hopper, которые содержат 72-ядерный Arm-процессор NVIDIA Grace и ускоритель H100/H200. Обеспечивается производительность на уровне 20,4 Пфлопс (FP64) и 40,8 Пфлопс на тензорных ядрах. Каждый узел содержит локальный накопитель вместимостью 512 Гбайт, 96 Гбайт памяти HBM3 и 120 Гбайт памяти LPDDR5. Интероконнект — Quantum 2 InfiniBand (400G).

Второй раздел суперкомпьютера объединяет 256 узлов с процессорами NVIDIA Grace CPU Superchip, содержащими два кристалла Grace в одном модуле (144 ядра). Узлы укомплектованы 240 Гбайт памяти LPDDR5 и накопителем на 512 Гбайт. Интерконнект — Quantum 2 InfiniBand (200G). Узлы произведены Gigabyte, а за интеграцию всей системы отвечала Dell.

 Источник изображения: TACC

Источник изображения: TACC

Общее CPU-быстродействие Vista находится на отметке 4,1 Пфлопс. В состав комплекса входит NFS-хранилише VAST Data вместимостью 30 Пбайт. Суперкомпьютер будет использоваться для разработки и применения решений на основе генеративного ИИ в различных секторах, включая биологические науки и здравоохранение.

Постоянный URL: http://servernews.ru/1110711
10.09.2024 [08:59], Руслан Авдеев

Гигаватт на орбите: Lumen Orbit предложила гигантские космические ЦОД с питанием от солнечной энергии и пассивным охлаждением

Пока многие операторы ЦОД бьются за место и ресурсы для своих дата-центров на Земле, стартап Lumen Orbit трудится над созданием гигантских гигаваттных дата-центров на земной орбите. По словам компании, работа уже началась — первый спутник компании отправится в космос в 2025 году. Он, как ожидается, получит на два порядка более мощные ускорители, чем те, что когда-либо отправлялись в космос. Информация о проекте Lumen Orbit появилась ещё весной, но теперь обнародованы новые подробности.

Как сообщается в материалах компании, будущие ЦОД гиперскейл-класса будут серьёзно нагружать энергосети (и уже делают это сегодня), станут потреблять немало питьевой воды, а их работа будет всё хуже сочетаться с законами и правилами регуляторов «западного» мира. Другими словами, многогигаваттные ЦОД будет чрезвычайно трудно строить. Поэтому Lumen Orbit предлагает размещать дата-центры на околоземной орбите, лежащей в плоскости терминатора. Таким образом, солнечные элементы питания будут всегда освещены, а радиаторы пассивного охлаждения всегда в тени. А космическое излучение здесь не так сильно, чтобы быстро выводить из строя электронику.

 Источник изображений: Lumen Orbit

Источник изображений: Lumen Orbit

Одно из важнейших свойств решения Lumen Orbit — возможность почти бесконечного масштабирования из-за минимума регуляторных запретов и ограничений на потребляемые ресурсы, говорит компания. Согласно расчётам, солнечная энергия в космосе будет обходиться в $0,002/кВт∙ч, тогда как электричество в США, Великобритании и Японии сегодня в среднем стоит $0,045, $0,06 и $0,17 за кВт∙ч соответственно. Кроме того, вода в космосе совершенно не понадобится, а системы пассивного охлаждения (путём излучения) будут многократно эффективнее и стабильнее земных аналогов. Не понадобятся и резервные источники питания.

 Источник изображения: Lumen Orbit

Компания уже разработала и начала строительство первого космического аппарата. Разработан концептуальный дизайн микро-ЦОД, развёртывание которых запланировано на 2026 год,. Также планируется запуск крупного дата-центра Hypercluster — это будет возможно, когда начнётся коммерческая эксплуатация кораблей уровня SpaceX Starship. Сообщается, что уже заключены меморандумы о взаимопонимании, предполагающие использование ускорителей NVIDIA H100 в космосе.

В компании утверждают, что для обучения больших языковых моделей вроде Llama 5 или GPT-6 в 2027 году потребуются 5-ГВт кластеры, которые создадут огромную нагрузку на электростанции и энергосети. Но в космосе можно будет создавать компактные модульные 3D-структуры. Передача данных может осуществляться с помощью лазеров. Более того, возможна совместимость с системами вроде Starlink, а когда необходимо — даже переброс данных специальными шаттлами. Об астрономах тоже не забыли — космические ЦОД будут заметны в основном на рассветах и закатах.

Lumen Orbit предлагает отправлять укомплектованные контейнеры с серверами и всем необходимым оборудованием, который имеют универсальный порт для питания, сети, охлаждения и т.д. Через этот порт они подключаются к единой «шине». ЦОД мощностью 5 ГВт потребует развёртывание солнечных элементов размером приблизительно 4 × 4 км. Подходящие панели уже выпускаются и стоят порядка $0,03/Ватт. Тяжёлые ракеты будущего смогут поднимать на орбиту около 100 т. Этого достаточно для доставки модуля с 300 наполовину заполненными стойками (остальное пойдёт на вспомогательные системы).

На 5-Гвт ЦОД ориентировочно потребуется менее 100 запусков при цене до $10/кг, а одной многоразовой ракеты будет достаточно для вывода на орбиту большого ЦОД за два-три месяца. Размещение на оптимальных орбитах и отсутствие некоторых агрессивных факторов влияния от нестабильных температур до окисления воздухом позволят эксплуатировать ЦОД в течение 15 лет, а многие компоненты можно будет использовать и после этого срока, говорит компания.

Впрочем, в намерении Lumen Orbit нет ничего уникального. Ещё в конце 2023 года появлялась информация о том, что Axiom Space намерена построить космический дата-центр. Космический буксир Blue Ring Джеффа Безоса (Jeff Bezos) должен выполнять функции ЦОД, группировку спутников-суперкомпьютеров намерены создать даже итальянские военные, аналогичные проекты вынашивают и другие компании. Lumen Orbit тем временем получила финансовую поддержку от Y Combinator и NVIDIA.

Постоянный URL: http://servernews.ru/1110643
Система Orphus