Лента новостей

23.10.2023 [16:30], Сергей Карасёв

Cloudflare избавляется от BMC на серверных материнских платах

Американская компания Cloudflare, предоставляющая услуги CDN, по сообщению ресурса The Register, приняла решение отказаться от интегрированных BMC-контроллеров на серверных материнских платах. Предполагается, что это в числе прочего снизит затраты на развёртывание масштабных платформ для дата-центров.

BMC, или Baseboard Management Controller, контролирует работу платформы и выполняет ряд важных функций, таких как управление питанием, мониторинг датчиков, возможность удаленного обновления прошивки, регистрация событий, формирование отчетов об ошибках и т.д.

 Источник изображения: The Register

Источник изображения: The Register

Современные серверные материнские платы с поддержкой DDR5 и PCIe 5.0 насчитывают 14 или более слоёв. Вместе с тем для BMC достаточно от восьми до десяти слоёв. Поэтому целесообразно отделить модуль BMC от основной материнской платы, выполнив его в виде отдельного узла OCP DC-SCM (DataCenter-ready Secure Control Module).

Модули DC-SCM можно использовать повторно, что снижает стоимость серверов и сокращает объём «электронного мусора» при обновлении оборудования для ЦОД. Поскольку DC-SCM является отдельным компонентом, к серверу можно добавлять новые модули с целью апгрейда функций без необходимости замены материнской платы.

Cloudflare предлагает собственную версию DC-SCM под названием Project Argus в рамках Open Compute Project (OCP). В основу положен контроллер Aspeed AST2600. При использовании совместимой прошивки OpenBMC обеспечивается богатый набор функций, необходимых для удалённого управления сервером. Project Argus уже используется в 12-м поколении серверов CloudFlare, а производственным партнёром компании выступает Lenovo.

Постоянный URL: https://servernews.ru/1094835
23.10.2023 [16:14], Руслан Авдеев

SK Telecom и Deutsche Telekom разработают большие языковые модели специально для телеком-отрасли

Компании SK Telecom (SKT) и Deutsche Telekom объявили о подписании соглашения о намерениях совместной разработки больших языковых моделей (LLM), специально предназначенных для телекоммуникационного бизнеса. Как сообщает блог IEEE Communication Society, готовые решения позволят легко и быстро создавать LLM под свои нужды и другим телеком-компаниям. Первую версию LLM планируют представить в I квартале 2024 года.

Это первый плод дискуссий, проходивших в июле 2023 года в рамках группы Global Telco AI Alliance, организованной SKT, Deutsche Telekom, E& и Singtel. SKT и Deutsche Telekom намерены взаимодействовать с компаниями, лидирующими в разработках ИИ-систем, включая Anthropic с её Claude 2 и Meta с её Llama2 — новая базовая LLM будет поддерживать разные языки, включая английский, немецкий, корейский и др.

 Источник изображения: Peggy_Marco/pixabay.com

Источник изображения: Peggy_Marco/pixabay.com

Новая языковая модель будет лучше ориентироваться в телеком-специфике, чем LLM общего назначения, поэтому её можно будет использовать, например, в контакт-центрах для помощи живым операторам. В первую очередь это коснётся операторов в Европе, Азии и на Ближнем Востоке — они смогут создавать ИИ-ассистентов с учётом местной специфики. Кроме того, ИИ можно будет применять для мониторинга сетей и выполнения других задач с сопутствующим снижением издержек и ростом эффективности бизнеса в средне- и долгосрочной перспективе. В результате занятые в телеком-бизнесе компании смогут сберечь время и деньги, избежав разработки подобных платформ исключительно собственными силами.

Сотрудничество южнокорейской и немецкой компаний будет способствовать расширению глобальной ИИ-экосистемы. Как подчеркнули в Deutsche Telecom, для того, чтобы по максимуму использовать ИИ в сфере поддержки клиентов, LLM будет тренироваться с использованием уникальных данных. В SKT рассчитывают, что сотрудничество двух компаний позволит им завоевать лидирующие позиции в сфере специализированных ИИ-решений, а объединение усилий, ИИ-технологий и инфраструктуры обеспечит новые возможности многочисленным компаниям в разных отраслях. Ранее SK Telecom вложила $100 млн в стартап Anthropic, чтобы получить кастомную LLM для своих нужд.

Постоянный URL: https://servernews.ru/1094847
23.10.2023 [15:57], Сергей Карасёв

Intel и Submer разрабатывают систему погружного охлаждения для киловаттных процессоров и ускорителей

Компании Intel и Submer сообщили о новом достижении в области разработки систем однофазного иммерсионного (погружения) жидкостного охлаждения: предложенная технология, как утверждается, позволяет эффективно отводить тепло от процессоров с показателем TDP до 1000 Вт.

 Источник изображения: Submer

Источник изображения: Submer

Речь идёт о решении под названием Forced Convection Heat Sink (FCHS) — радиатор с принудительной конвекцией. Говорится, что технология сочетает «эффективность принудительной конвекции с пассивным охлаждением», позволяя отводить тепло от высокопроизводительных CPU и GPU. Система включает массивный радиатор с двумя винтами в одной из торцевых частей. Это является основным отличием от традиционной концепции пассивного иммерсионного охлаждения, основанного на естественной конвекции.

 Источник изображения: Submer

Источник изображения: Submer

«Погружной радиатор, использующий принудительную конвекцию, является ключевой инновацией, позволяющей вывести однофазное погружное охлаждение за пределы существующих барьеров», — заявляет Мохан Джей Кумар (Mohan J Kumar), научный сотрудник Intel. Отмечается, что некоторые элементы новой системы охлаждения могут быть изготовлены методом 3D-печати. Intel и Submer продемонстрировали, что решение способно справляться с охлаждением неназванного процессора Xeon, TDP которого превышает 800 Вт.

Постоянный URL: https://servernews.ru/1094849
22.10.2023 [22:00], Руслан Авдеев

400-Тбит/с транслатлантический интернет-кабель Amitié готов к коммерческой эксплуатации

Возглавляемый Meta проект Amitié с участием ряда других телеком-компаний подошёл к завершению первой стадии и готов к реализации следующего этапа. Как сообщает Datacenter Dynamics, 400-Тбит/c трансатлантический кабель протяжённостью 6800 км, соединяющий Францию и США, готов к коммерческому применению. Изначально строительство Amitié анонсировали в 2020 году, кабель должны были ввести в строй ещё в прошлом году.

Фактически работы по прокладке завершились ещё в июле, но официальный ввод в эксплуатацию состоялся только сейчас. Amitié объединяет 16 оптоволоконных пар. Посадочные станции расположены в Линне близ Бостона (принадлежит дочерней структуре Meta — Edge USA), в Буде (Англия), в также дата-центре Equinix в Бордо (Франция). Meta имеет наибольшую долю в проекте (80 %), а в число партнёров входят Aqua Comms, Microsoft и Vodafone.

Оператором станции в Бордо является телеком-провайдер Orange, владеющий частями кабеля протяжённостью до 22,2 км, тянущимися от побережья Франции. Известно, что компании принадлежит право на использование двух оптоволоконных пар кабеля. По словам представителей Orange, комбинация кабелей Amitié и Dunant обеспечила Франции размещение в сердце межконтинентальных обменов информацией — между Европой и Соединёнными Штатами, а также Азией и Африкой.

 Источник изображения: IntelligentVisualDesing/pixabay.com

Источник изображения: IntelligentVisualDesing/pixabay.com

Задержка при прохождении сигнаоа от Бордо до Нью-Йорка составляет 34 мс. Для сравнения, принадлежащий Google трансатлантический кабель Dunant может предложить 38 мс. В 860 километрах от побережья Франции и 650 километрах от берегов Великобритании имеется дополнительный блок управления, позволяющий эффективно менять настройки передачи сигнала между отдельными посадочными станциями, переключаясь между длинами волн или волокнами.

Постоянный URL: https://servernews.ru/1094821
22.10.2023 [21:44], Руслан Авдеев

Princeton Digital Group (PDG) намерена привлечь $1 млрд на расширение сети ЦОД в Азиатско-Тихоокеанском регионе

Оператор ЦОД Princeton Digital Group (PDG) готовится привлечь $1 млрд заёмных средств. Как сообщает DataCenter Dynamics, компания намерена истратить их на проекты разного профиля для пополнения своего портфолио. Новый раунд инвестиций планируется всего через год после того, как PDG уже привлекла $500 млн в раунде во главе с Mubadala Investment Co из Абу-Даби.

Основанная в 2017 году PDG возникла благодаря инвестициям и организационной помощи частной инвестиционной компании Warburg Pincus. Сегодня PDG вкладывает деньги в дата-центры, занимается их разработкой и управлением в Китае, Сингапуре, Индии, Индонезии, Малайзии и Японии. Всего компания оперирует ЦОД общей ёмкостью 600 МВт, расположенных в 21 городе.

 Источник изображения: Walkerssk/pixabay.com

Источник изображения: Walkerssk/pixabay.com

В прошлом году из $500 млн инвестиций $350 млн поступили от Mubadala Investment Co. Приняли участие в финансовом обеспечении и нынешние акционеры компании — Warburg Pincus и пенсионный фонд Ontario Teachers’ Pension Plan Board. Целью проекта было усиление присутствия компании в Китае, Индии, Сингапуре и Японии, но предполагается ускоренная экспансия и в других частях Азии.

В минувшем мае бизнес приобрёл в малайзийском штате Джохор землю на $450 млн — вскоре после того, как анонсировал планы потратить около $1 млрд на расширение проектов в Малайзии и Индонезии. Землю прибрели для строительства ЦОД гиперскейл-класса, это будет первый дата-центр компании в стране. Всего Prineston Digital планирует инвестировать $421 млн в новый проект, а первая фаза будет реализована ко II кварталу 2024 года.

В августе компания завершила строительство дата-центра на 48 МВт в Токио, а в сентябре 2023 года она ввела в эксплуатацию ЦОД на 22 МВТ в Джакарте (Индонезия). Ранее сообщалось, что Малайзия хочет стать новым IT-хабом Юго-Восточной Азии и зазывает операторов ЦОД принять участие в местных проектах, что PDG только на руку. Можно ожидать, что вскоре PDG станет одним из крупнейших игроков на мировом рынке ЦОД.

Постоянный URL: https://servernews.ru/1094822
22.10.2023 [17:29], Алексей Степин

Sophgo представила 16-ядерный процессор SG2380 с архитектурой RISC-V и встроенным ИИ-ускорителем

Экосистема RISC-V наращивает темпы развития: от скромных SBC с одно- и двухъядерными чипами с производительностью уровня Raspberry Pi до вполне «взрослых» многоядерных решений. Одной из компаний, развивающих это направление, является Sophgo. Сейчас Sophgo совместно с Milk-V анонсировала новую плату, оснащённую 16-ядерным процессором SG2380 с интегрированным ИИ-сопроцессором.

Ранее Sophgo уже дебютировала с любопытной платой Pioneer, оснащённой 64-ядерным процессором с архитектурой RISC-V и даже показала рабочую станцию разработчика Pioneer Box на её основе. Также компания демонстрировала двухсокетный сервер с 128 ядрами RISC-V.

Новинка, Milk-V Oasis, выглядит скромнее, но также весьма небезынтересна. В ней используется 16-ядерный процессор SG2380 с ядрами SiFive Performance P670, работающими на частоте 2,5 ГГц. В дополнение к ним в составе ЦП работает восьмиядерный ИИ-ускоритель на базе SiFive Intelligence X280 с производительностью 20 Топс на вычислениях INT8.

 Источник изображений здесь и далее: Sophgo

Источник изображений здесь и далее: Sophgo

Процессор также располагает собственным GPU Imagination AXT-16-512 с поддержкой Vulkan 1.3, OpenGL 3.0 и OpenGL ES 3.x. Его производительность невысока, всего 0,5 Тфлопс/2 Топс, но для задач, характерных для интегрированной графики, этого достаточно. Видеочасть поддерживает декодирование 10-битного видео в форматах H.265/HEVC, H.264, AV1 и VP9, но аппаратного кодера чип не имеет.

На базе данного процессора Milk-V анонсировала плату Oasis в форм-факторе mini-ITX. Решение обещает до 64 Гбайт памяти LPDDR5 на скорости 5500 МТ/с, поддержку съёмных модулей UFS, полноценный разъём M.2 (PCIe 3.0 x4) и четыре порта SATA. Вывод видео осуществляется с помощью двух портов HDMI (4K@60), порта eDP с поддержкой тачскринов, либо посредством разъёмов MIPI DSI.

Сетевая часть представлена двумя портами 2,5GbE, имеются разъёмы M.2 для установки модулей Wi-Fi 6 и 4G/5G-модема. Имеется полноценный слот PCIe x16 (логически PCIe 3.0 x8), 8 разъёмов DIO, 2 разъёма CAN Bus, а также широкий набор портов USB — два версии 3.0, два версии 2.0, два фронтальных версии 2.0 и порт USB-C с возможностью проброса DP.

Судя по всему, плата предназначена для периферийных ИИ-платформ, робототехники и иных аналогичного рода задач. Также она может заинтересовать энтузиастов и разработчиков ПО для RISC-V в качестве настольной системы, недорогой альтернативы Pioneer. Стоимость новинки стартует от $120, но доступна она будет ещё не скоро — источники называют III квартал 2024 года. Тем не менее, уже можно оформить предварительный заказ.

Постоянный URL: https://servernews.ru/1094826
22.10.2023 [14:06], Сергей Карасёв

Видео дня: строительство 2-Эфлопс суперкомпьютера El Capitan

Ливерморская национальная лаборатория им. Э. Лоуренса (LLNL) Министерства энергетики США опубликовала видео (см. ниже), демонстрирующее процесс сборки вычислительного комплекса El Capitan, которому предстоит стать самым мощным суперкомпьютером мира. В текущем рейтинге TOP500 лидирует система Frontier, установленная в Национальной лаборатории Окриджа (ORNL), также принадлежащей Министерству энергетики США. Быстродействие Frontier достигает 1,194 Эфлопс.

Суперкомпьютер El Capitan сможет демонстрировать производительность более 2 Эфлопс (FP64). Сборка комплекса началась в июле нынешнего года, а ввод в эксплуатацию запланирован на середину 2024-го. Стоимость проекта оценивается приблизительно в $600 млн. В основе El Capitan — платформа HPE Cray Shasta. Применена гибридная архитектура AMD с APU Instinct MI300A: изделие содержит 24 ядра с микроархитектурой Zen 4 общего назначения, блоки CDNA 3 и 128 Гбайт памяти HBM3.

 Источник изображения: LLNL

Источник изображения: LLNL

Отмечается, что в проекте El Capitan задействованы сотни сотрудников LLNL и отраслевых партнёров. Суперкомпьютер состоит из тысяч вычислительных узлов и требует столько же энергии, сколько город среднего размера. В течение нескольких лет специалисты готовили инфраструктуру для El Capitan, создавая подсистемы электропитания и охлаждения, устанавливая компоненты и монтируя сетевые соединения. После запуска суперкомпьютер будет использоваться для решения задач в сферах ядерной энергетики, национальной безопасности, здравоохранения, изменений климата и пр.

Постоянный URL: https://servernews.ru/1094818
22.10.2023 [13:58], Сергей Карасёв

Hyve Solutions представила платформу хранения Hercules 9120 сверхвысокой плотности

Компания Hyve Solutions, подразделение корпорации TD SYNNEX, на мероприятии OCP Global Summit 2023 анонсировала аппаратную платформу Hercules 9120 для формирования хранилищ данных сверхвысокой плотности. Новинка соответствует стандартам OCP Open Edge. Утверждается, что решение обеспечивает преимущества в плане надёжности, доступности и удобства обслуживания.

Стойка Hercules 9120 содержит восемь шасси в форм-факторе 5U, каждое из которых рассчитано на установку 96 HDD. Таким образом, общее количество накопителей в составе системы достигает 768. Заявлена поддержка интерфейса PCIe 5.0. Кроме того, говорится о совместимости с процессорами Intel Xeon Emerald Rapids, которые дебютируют в декабре нынешнего года, а также с чипами AMD EPYC Genoa.

 Источник изображения: Hyve Solutions

Источник изображения: Hyve Solutions

В новой СХД реализована технология Rotational Vibration Interference (RVI), снижающая влияние вибрации дисков на работу платформы в целом. Благодаря этому, как утверждается, в перспективе можно будет применять HDD вместимостью до 50 Тбайт: выпуск таких накопителей ожидается ориентировочно в 2026 году. В этом случае суммарная ёмкость системы будет достигать 38,4 Пбайт.

Платформа Hercules 9120 ориентирована на гиперскейлеров и операторов облачных платформ. Решение подходит для поддержания приложений ИИ, машинного обучения и других задач, предъявляющих высокие требования к СХД.

Постоянный URL: https://servernews.ru/1094817
21.10.2023 [16:44], Сергей Карасёв

Gcore развернула кластер генеративного ИИ с ускорителями NVIDIA

Провайдер облачных и периферийных сервисов Gcore, по сообщению ресурса Datacenter Dynamics, запустил вычислительный кластер для решения задач в области генеративного ИИ. Площадка, расположенная в Люксембурге, использует ускорители NVIDIA.

Ранее Gcore уже развернула в Люксембурге ИИ-платформу на базе Graphcore IPU (Intelligence Processing Unit). Кроме того, компания оперирует такими системами в Амстердаме (Нидерланды) и Уэльсе (Великобритания). Новый кластер позволит клиентам ускорить решение задач в сферах генеративного ИИ и машинного обучения.

Запущенная в Люксембурге площадка объединяет 20 серверов с ускорителями NVIDIA A100. До конца текущего года будут добавлены 128 узлов на базе NVIDIA H100 и ещё 25 серверов с изделиями A100. О текущей и планируемой производительности кластера данных пока нет. Отмечается лишь, что заказчики смогут разворачивать на базе платформы крупномасштабные ИИ-модели.

 Источник изображения: NVIDIA

Источник изображения: NVIDIA

На сегодняшний день Gcore имеет точки присутствия в более чем в 140 регионах на шести континентах, а также более чем 20 облачных локаций. Компания была основана в 2014 году, а услуги CDN и хостинга начала предоставлять в 2016 году.

Постоянный URL: https://servernews.ru/1094797
21.10.2023 [16:09], Сергей Карасёв

В Аргоннской национальной лаборатории запущена ИИ-система Groq

Аргоннская национальная лаборатория Министерства энергетики США сообщила о запуске вычислительного кластера, использующего специализированные ИИ-решения Groq. Ресурсы системы предоставляются исследователям на базе тестовой площадки ALCF (Argonne Leadership Computing Facility).

Groq является разработчиком чипов GroqChip, спроектированных с прицелом на решение задач ИИ и машинного обучения. Эти изделия, наделённые 230 Мбайт памяти SRAM, обеспечивают производительность до 750 TOPS INT8 и до 188 Тфлопс FP16.

 Источник изображения: Аргоннская национальная лаборатория

Источник изображения: Аргоннская национальная лаборатория

Процессоры GroqChip являются основой ускорителей GroqCard с интерфейсом PCIe 4.0 x16. Восемь таких карт входят в состав сервера GroqNode формата 4U. Наконец, до восьми серверов GroqNode используются в кластерах GroqRack. И именно такие узлы являются основой новой ИИ-платформы ALCF. Заявленная производительность каждого узла достигает 48 POPS (INT8) или 12 Пфлопс (FP16).

Экосистема программного и аппаратного обеспечения Groq предназначена для ускорения решения сложных ИИ-задач, в частности, инференса. Исследователи будут применять НРС-платформу при реализации ресурсоёмких научных проектов в таких областях, как визуализация, термоядерная энергия, материаловедение, создание лекарственных препаратов нового поколения и пр. Отмечается, что уникальная архитектура Groq и универсальный компилятор обеспечат повышенную производительность для широкого спектра ИИ-моделей.

В рамках сотрудничества Аргоннская национальная лаборатория и Groq работают над лекарствами от коронавируса, спровоцировавшего пандемию COVID-19: говорится, что время получения результатов сократилось с дней до минут. Создавая модели вируса и помогая исследователям быстро сравнивать их с базой данных, содержащей миллиарды молекул препаратов, модели ИИ позволяют идентифицировать перспективные соединения, которые будут использоваться в клинических терапевтических испытаниях.

Постоянный URL: https://servernews.ru/1094794

Входит в перечень общественных объединений и религиозных организаций, в отношении которых судом принято вступившее в законную силу решение о ликвидации или запрете деятельности по основаниям, предусмотренным Федеральным законом от 25.07.2002 № 114-ФЗ «О противодействии экстремистской деятельности»;

Система Orphus