Лента новостей

29.03.2024 [17:48], Руслан Авдеев

Bain Capital ищет партнёров для продажи части активов китайского оператора Chindata

Американская инвестиционная компания Bain Capital, по слухам, ищет новых партнёров, готовых поддержать китайского оператора дата-центров Chindata. Bloomberg сообщает, что от партнёров ожидают покупки некоторых активов компании.

Сама Bain Capital продолжит получать доходы за обслуживание и поддержку операций на площадках китайской компании, а вырученные от продажи прав собственности на некоторые объекты средства потратит на расширение бизнеса ChinData. Часть полученных денег, вероятно, будет распределена среди инвесторов в качестве дивидендов. Правда, в самой Bain слухи пока не комментируют.

Сегодня Chindata выступает оператором более 17 ЦОД в Китае, Малайзии и Таиланде, причём управлением некитайскими объектами занимается дочернее предприятие — Bridge Data Centers. Впрочем, более 90 % выручки поступает именно из Китая, а крупнейшим клиентом компании является владеющая TikTok китайская ByteDance.

 Источник изображения: Chindata

Источник изображения: Chindata

Основанная в 2015 году компания Chindata куплена Bain Capital в 2019 году у Wangsu Science & Technology Co. и позже объединилась с Bridge Data Centers, уже входившей в портфель Bain. Новый бизнес вышел на IPO в 2020 году, причём Bain оставила себе 42 % акций. Прочие доли принадлежат и другим компаниям, включая южнокорейскую SK Holdings. В этом году ChinData, как ожидается, принесёт $600 млн.

В прошлом году Bain объединила Chindata в рамках сделки стоимостью $3,16 млрд с двумя полностью принадлежавшими Bain дочерними компаниями: BCPE Chivalry Bidco Limited и BCPE Chivalry Merger Sub Limited. На тот момент GDS и EdgeConneX рассматривали возможность инвестиций в Chindata, а поддерживаемая государством China Merchants хотела выкупить оператора за $3,4 млрд, но предложение было отклонено.

Постоянный URL: https://servernews.ru/1102483
29.03.2024 [17:30], Сергей Карасёв

YADRO представила российский 25GbE-коммутатор Kornfeld

Российский разработчик и производитель вычислительной техники YADRO (ООО «КНС групп») анонсировал свой первый высокопроизводительный коммутатор Kornfeld для дата-центров. Устройство поддерживает обработку трафика L2 и L3, а коммутируемая ёмкость достигает 3,2 Тбит/с.

Новинка выполнена в форм-факторе 1U. В основу положен неназванный ASIC с пакетным буфером объёмом 32 Мбайт, процессор Intel Xeon D-1712TR поколения Ice Lake (4C/8T; 2,0–3,1 ГГц; 40 Вт). Установлены два модулям оперативной памяти DDR4 SO-DIMM по 8 Гбайт каждый и M.2 SSD ёмкостью 120 Гбайт.

Коммутатор оборудован 48 портами 10/25GbE SFP28 и восемью портами 25/40/100GbE QSFP28. Для управления служат разъёмы RJ-45 (1GbE и последовательный порт) и два коннектора SFP+ 1/10GbE. Имеется также порт USB Type-A.

 Источник изображения: YADRO

Источник изображения: YADRO

Устройство поддерживает традиционный набор протоколов, включая OSPF, BGP, ECMP, VRRP, MLAG и интерфейсы управления SSH, SNMP, REST API. Поддерживаются протоколы аутентификации TACACS+ и RADIUS, сети VLAN (802.1Q), агрегация LACP, а также LLDP. Коммутатор получил загрузчик ONIE и фирменную NOS Kornfeld.

Новинка имеет размеры 434 × 536 × 44 мм и весит примерно 10 кг. Установлены два блока питания мощностью 800 Вт с возможностью резервирования. За охлаждение отвечают шесть вентиляторов с функцией горячей замены. Диапазон рабочих температур — от +10 до +35 °C. Коммутатор производится на заводе полного цикла «Ядро Фаб Дубна» и соответствуют всем требованиям к отечественному оборудованию согласно ПП878 (ТОРП).

«Kornfeld — это полностью наша разработка, начиная от аппаратной платформы и заканчивая программным обеспечением. Мы стремились создать продукт с оптимальным сочетанием функциональности, производительности и надёжности, который бы максимально подходил для высоконагруженных ЦОД и удовлетворял потребности клиентов в различных сценариях использования, — отмечает директор по продуктам компании YADRO.

Постоянный URL: https://servernews.ru/1102484
29.03.2024 [13:48], Сергей Карасёв

HPE внедрила генеративный ИИ в облачную платформу Aruba Networking Central

Компания HPE объявила о внедрении нескольких больших языковых моделей (LLM) в облачную платформу Aruba Networking Central, которая предоставляет IT-специалистам аналитическую информацию, интуитивно понятную визуализацию данных, средства автоматизации рабочих процессов и пр.

Сообщается, что LLM отвечают за работу функций на основе генеративного ИИ. Это, в частности, чат-бот, интегрированный в поисковый интерфейс. После ввода запроса система выдаёт контекстуализированный ответ, на подготовку которого, как утверждается, уходят доли секунды. При этом ИИ не принимает никакие административные решения самостоятельно.

 Источник изображения: HPE Aruba Networking

Источник изображения: HPE Aruba Networking

Модели обучены на собственных наборах данных компании. Это всевозможные документы службы поддержки, примерно 3 млн запросов клиентов и другие сведения, собранные за годы работы. HPE подчёркивает, что модели помещены в песочницу. При этом реализованы специальные средства, предназначенные для исключения личной и корпоративной информации из запросов, чтобы предотвратить её попадание в будущие наборы обучающих данных.

HPE Aruba Networking собрала телеметрию почти с 4 млн сетевых устройств и более чем с 1 млрд уникальных конечных точек клиентов. В результате было сформировано одно из крупнейших озёр данных в сетевой отрасли. Эта информация используется в сервисах машинного обучения HPE Aruba Networking Central для прогнозного анализа и рекомендаций. Внедрение LLM поможет расширить ИИ-возможности платформы.

На базе LLM, как отмечается, также будет работать функция обобщения документов, которая заработает в апреле нынешнего года. Она позволит клиентам задавать вопросы вида «Как сделать…», после чего система создаст соответствующее руководство и предоставит ссылки на нужную техническую документацию. Это позволит ускорить решение проблем и снизить вероятность ошибок.

Постоянный URL: https://servernews.ru/1102453
29.03.2024 [13:39], Сергей Карасёв

GigaIO представила оптические кабели PCIe 5.0 для развёртывания масштабных ИИ-кластеров

Компания GigaIO, разрабатывающая систему распределённого интерконнекта на базе PCI Express под названием FabreX, представила первые в отрасли оптические кабели QSFP-DD с поддержкой PCIe 5.0.

Отмечается, что оптические кабели обеспечивают ряд преимуществ перед традиционными медными соединениями. Это, в частности, повышенная пропускная способность. Кроме того, длина оптических линий может превышать 3 м, что является ограничением для медных кабелей.

Представленные кабели используют конфигурацию PCIe 5.0 x8 с возможностью агрегации 16 линий. Благодаря этим изделиям упрощается развёртывание высокопроизводительных систем GigaIO SuperNODE, которые позволяют связать воедино до 32 ускорителей посредством упомянутой платформы FabreX.

 Фото: LinkedIn/GigaIO

Фото: LinkedIn/GigaIO

Отмечается, что оптические кабели способны обеспечить передачу данных с высокой скоростью на десятки метров. Таким образом, несколько систем SuperNODE или SuperDuperNODE могут быть объединены в единый кластер для решения наиболее ресурсоёмких задач ИИ.

Медные соединения обычно ограничивают размер кластеров двумя–тремя стойками. В случае оптических кабелей предоставляется гораздо большая гибкость в плане конфигурации оборудования. В результате системы SuperNODE могут быть развёрнуты даже в тех дата-центрах, в которых существуют жёсткие ограничения по мощности и охлаждению в расчёте на стойку. Оптические кабели QSFP-DD с поддержкой PCIe 5.0 станут доступны предстоящим летом.

Постоянный URL: https://servernews.ru/1102450
29.03.2024 [13:24], Сергей Карасёв

Western Digital выпустила HDD серии Red Pro вместимостью 24 Тбайт для NAS

Компания Western Digital, по сообщению ресурса AnandTech, начала поставки своего самого ёмкого HDD серии Red Pro — устройства вместимостью 24 Тбайт. Новинка рассчитана на работу в круглосуточном режиме в составе NAS корпоративного уровня с большим количеством отсеков.

Диск Red Pro на 24 Тбайт поступил в продажу примерно через 20 месяцев после того, как вышла модель на 22 Тбайт. HDD изготовлен в LFF-корпусе по технологии традиционной магнитной записи (CMR). Скорость вращения шпинделя составляет 7200 об/мин, объём буфера — 512 Мбайт. Для подключения служит интерфейс SATA-3.

 Источник изображения: Western Digital

Источник изображения: Western Digital

Накопитель выполнен с применением фирменной технологии OptiNAND, которая использует встроенную флеш-память iNAND для выполнения основных функций по обслуживанию: это позволяет повысить надёжность, оптимизировать производительность и энергопотребление. Встроенный датчик вибрации при вращении (Rotation Vibration, RV) помогает противодействовать эффектам, вызванным повышенной вибрацией при работе в составе NAS. Технология динамического управления высотой полёта головок при сотрясениях повышает надёжность. Благодаря рассеиванию избыточной вибрации по корпусу снижается турбулентность, сохраняется быстродействие и обеспечивается защита данных. Инструмент NASware позволяет точно настраивать параметры диска в соответствии с рабочими нагрузками NAS, что способствует улучшению быстродействия.

Заявленная скорость передачи данных достигает 287 Мбайт/с. Показатель MTBF заявлен на отметке 2,5 млн часов. Среднее энергопотребление в активном режиме составляет 6,4 Вт, в режиме простоя — 3,9 Вт, в режиме сна — 1,2 Вт. Диапазон рабочих температур простирается от 0 до +65 °C. Накопитель имеет габариты 147 × 101,6 × 26,1 мм и массу около 0,67 кг. Предоставляется пятилетняя гарантия.

Постоянный URL: https://servernews.ru/1102448
29.03.2024 [01:29], Владимир Мироненко

Amazon потратит почти $150 млрд на расширение ЦОД, чтобы стать лидером в области ИИ

В ближайшие 15 лет Amazon планирует потратить $148 млрд на дата-центры, что позволит ей справиться с ожидаемым взрывным ростом спроса на приложения ИИ и другие цифровые сервисы, пишет Bloomberg. В прошлом году темпы роста выручки AWS упали до рекордно низкого уровня, поскольку клиенты стремились сократить расходы и откладывали реализацию проектов модернизации. Сейчас их расходы снова начинают расти, и Amazon готовит на будущее землю под расширение ЦОД и договаривается о поставках электроэнергии.

Планируемые затраты Amazon на ЦОД превышают обязательства Microsoft и Google (холдинг Alphabet), хотя ни одна из компаний не раскрывает расходы, связанные с ЦОД, так последовательно, как Amazon, отметил Bloomberg. «Мы значительно расширяем мощности, — сообщил Кевин Миллер (Kevin Miller), вице-президент AWS, курирующий дата-центры компании. — Я думаю, это просто даёт нам возможность стать ближе к клиентам».

Компания планирует расширить существующие ЦОД в Северной Вирджинии и Орегоне, а также развиваться в новых регионах, в том числе в Миссисипи, Саудовской Аравии и Малайзии. Эти усилия в основном направлены на удовлетворение растущего спроса на корпоративные сервисы, такие как хранение файлов и базы данных. Вместе с тем эти мощности наряду с передовыми ускорителями призваны обеспечить огромную вычислительную мощность, необходимую для ожидаемого бума генеративного ИИ.

 Источник изображения: aboutamazon.com

Источник изображения: aboutamazon.com

Развивая свои собственные ИИ-инструменты, чтобы конкурировать с ChatGPT компании OpenAI, и сотрудничая с другими компаниями для обеспечения поддержки ИИ-сервисов на своих серверах, Amazon рассчитывает заработать десятки миллиардов долларов.

В последние годы Amazon была крупнейшим в мире корпоративным покупателем возобновляемой энергии, что является частью её обязательства обеспечить к 2025 году всю деятельность возобновляемой электроэнергией. Но эту цель реализовать не так уж и просто из-за несоответствия между спросом и предложением, которое вносит неразбериху в раздробленную энергосистему США.

Миллер заявил, что компания продолжает оценивать проекты в сфере экологически чистой энергетики, включая использование аккумуляторных батарей и ядерную энергетику, которые позволят заменить электростанции, работающие на ископаемом топливе. Он пообещал найти способ «удовлетворить потребность в энергии благодаря возобновляемой, безуглеродной энергетике».

Постоянный URL: https://servernews.ru/1102447
28.03.2024 [22:01], Владимир Мироненко

Databricks представила открытую LLM DBRX, превосходящую GPT-3.5 Turbo

Американский стартап в сфере аналитики больших данных и машинного обучения Databricks объявил о выходе DBRX, большой языковой модели (LLM) общего назначения, которая, по его словам, превосходит в стандартных бенчмарках все существующие LLM с открытым исходным кодом, а также некоторые проприетарные ИИ-модели.

Стартап заявил, что открывает исходный код модели, чтобы побудить пользователей отказаться от коммерческих альтернатив. Он отметил, что согласно исследованию Andreessen Horowitz LLC, почти 60 % лидеров в области ИИ-технологий заинтересованы в увеличении использования или переходе на open source, если открытые модели после тюнинга примерно соответствуют по производительности проприетарным моделям.

 Источник изображений: Databricks

Источник изображений: Databricks

«Я считаю, что самые ценные данные хранятся внутри предприятий. ИИ как бы исключён из этих сфер, поэтому мы пытаемся реализовать это с помощью моделей с открытым исходным кодом», — цитирует ресурс SiliconANGLE заявление гендиректора Databricks Али Годси (Ali Ghodsi) на брифинге с журналистами. По словам Годси, лучше всего DBRX подходит для сфер, где критически важны управление и безопасность, например, для финансовых услуг и здравоохранения, или там, где важен тон ответов, например, в области самообслуживании клиентов.

DBRX использует архитектуру Mixture of Experts (MoE, набор экспертов), которая делит процесс обучения между несколькими специализированными «экспертными» подсетями. Каждый «эксперт» владеет определёнными навыками, а исходный запрос оптимальным образом распределяется между «экспертами». Вице-президент Databricks по генеративному ИИ, перешедший в компанию вместе с приобретением MosaicML, соучредителем которой он был, заявил, что MoE работает даже лучше человека.

Хотя DBRX с 132 млрд параметром почти в два раза больше Llama 2, она всё равно вдвое быстрее. Также сообщается, что DBRX превзошла существующие LLM с открытым исходным кодом Llama 2 70B и Mixtral-8x7B (тоже MoE), а также запатентованную GPT-3.5 Turbo в тестах на понимание языка, программирование, математику и логику. Обучение модели на общедоступных и лицензированных источниках данных в течение двухмесячного периода обошлось Databricks всего в $10 млн с использованием 3 тыс. ускорителей NVIDIA H100.

По словам компании, при создании приложений генеративного ИИ модель DBRX можно использовать вместе с Databricks Mosaic AI, набором унифицированных инструментов для создания, развёртывания и мониторинга моделей ИИ. Базовая модель DBRX Base и продвинутая модель DBRX Instruct доступны по открытой лицензии для исследований и коммерческого использования на GitHub и Hugging Face. Разработчики могут уже сегодня создавать свои варианты DBRX на основе собственных данных на платформе Databricks.

Постоянный URL: https://servernews.ru/1102428
28.03.2024 [21:03], Руслан Авдеев

Nautilus запустила линейку инфраструктурных решений EcoCore для модульных ЦОД

Nautilus Data Technologies запустила новую серию решений для модульных дата-центров на основе разработанных ранее технологий охлаждения. По данным Datacenter Dynamics, новый проект предлагает варианты для ЦОД ёмкостью до 2,5 МВт. По словам Nautilus, EcoCore расширяет эффективность сборных конструкций и упрощает процесс строительства, позволяя интегрировать рабочее пространство с техническими помещениями и размещать MEP-компоненты (электрику, водоснабжение и вентиляцию) на крыше.

Конструкция использует четыре CDU-установки для кондиционирования, каждая из которых способна отводить до 833 кВт тепла. Система поддерживает как традиционные варианты охлаждения, так и современные жидкостные. Основной модуль электропитания (PEU) обеспечивает мощность 1250 кВт (415 В, три фазы), но есть и точно такой же резервный (N+1).

Новинка будет развёрнута в Start Campus в Синише (Португалия) — впервые за пределами собственных мощностей Nautilus. EcoCore, по словам компании, соответствует запросам Start по организации бесперебойной работы серверов высокой плотности с СЖО. Компании договорились о сотрудничестве в прошлом году и заключили «многомегаваттное» соглашение. Первый модуль EcoCore будет развёрнут в ходе первой фазы строительства кампуса Start. В Nautilus и Start заявляют, что экобезопасные технологии первой задают новый стандарт в индустрии, обеспечивая непревзойдённые эффективность и адаптивность.

 Источник изображения: Nautilus

Источник изображения: Nautilus

Nautilus известна прежде всего проектами плавучих ЦОД и системой охлаждения дата-центров речной или морской водой. Пока компания выступает лишь оператором ЦОД-баржи в Стоктоне (Калифорния), но планирует построить и наземный объект в Мэне. Также в работе находятся и другие проекты в США, Франции и Ирландии. Меморандумы о взаимопонимании заключены в Таиланде и на Филиппинах. Впрочем, появление EcoCore, похоже, указывает на желание стать поставщиком решений для других операторов.

Принадлежащая инвестиционному фонду Davidson Kempner и британской British Pioneer Point Partners компания Start намерена построить 495-МВт кампус площадью 60 га в Португалии. Компании заявили, что Nautilus поставит охладительные системы и для второй фазы проекта, предусматривающего расширение на 120 МВт. Ранее Start оказалась вовлечена в коррупционный скандал.

Постоянный URL: https://servernews.ru/1102425
28.03.2024 [20:42], Сергей Карасёв

Оптика для HBM: стартап Celestial AI получил ещё $175 млн инвестиций, в том числе от AMD и Samsung

Компания Celestial AI, занимающаяся созданием технологий оптического интерконнекта, сообщила о проведении раунда финансирования Series C, в ходе которого привлечено $175 млн. Деньги будут использованы для ускорения разработки и вывода передовых продуктов на коммерческий рынок.

Летом прошлого года Celestial AI объявила о разработке технологии Photonic Fabric. Она ориентирована на ИИ-платформы и системы НРС. Благодаря оптическому интерконнекту нового типа ИИ-чипы могут быть соединены с большим пулом высокопроизводительной памяти HBM3, а в перспективе — и HBM4. Таким образом, решается проблема ограниченного объёма памяти HBM в составе ИИ-ускорителей.

По заявлениям Celestial AI, технология Photonic Fabric обеспечивает повышение пропускной способности и объёма доступной памяти более чем в 25 раз при одновременном снижении задержек и энергопотребления примерно в 10 раз по сравнению с существующими оптическими альтернативами и традиционными медными соединениями. Таким образом, можно масштабировать нагрузки ИИ.

 Источник изображения: Celestial AI

Источник изображения: Celestial AI

В июне 2023 года Celestial AI провела раунд финансирования Series B на сумму в $100 млн. Тогда средства предоставили IAG Capital Partners, Koch Disruptive Technologies (KDT), Temasek Xora Innovation, Samsung Catalyst, Smart Global Holdings (SGH), Porsche Automobil Holding SE, The Engine Fund, imec.xpand, M Ventures и Tyche Partners.

Инвестиционная программа Series C проведена под предводительством Фонда инновационных технологий США (USIT) миллиардера Томаса Талла (Thomas Tull), основателя Legendary Entertainment. В программе также приняли участие AMD Ventures, KDT, Temasek, Xora Innovation, IAG Capital Partners, Samsung Catalyst, SGH, Porsche Automobil Holding SE, Engine Ventures, M-Ventures и Tyche Partners.

Постоянный URL: https://servernews.ru/1102424
28.03.2024 [14:50], Сергей Карасёв

Canonical увеличила срок поддержки LTS-релизов Ubuntu до 12 лет

Компания Canonical объявила о том, что срок поддержки LTS-релизов Ubuntu продлевается ещё на два года — до 12 лет. Новая модель выпуска обновлений будет распространяться на платформу Ubuntu 14.04 LTS и более поздние LTS-редакции, которые выходят раз в два года.

В октябре 2023-го Canonical сообщила, что пользователи Ubuntu смогут получать обновления безопасности и другие критические апдейты ОС в течение десятилетнего периода. При этом срок стандартной поддержки составляет пять лет, тогда как дополнительный период приобретается в рамках платной опции Expanded Security Maintenance (ESM).

 Источник изображения: Canonical

Источник изображения: Canonical

Поддержка Ubuntu 14.04 LTS должна была истечь в апреле 2024 года, но в соответствии с новой схемой она продлится до апреля 2026-го. Основная поддержка, как и прежде, предоставляется в течение пятилетнего срока. Ещё семь лет будут доступны пользователям сервиса Ubuntu Pro. В частности, дополнительные два года поддержки можно приобрести в рамках опции Legacy Support.

«Благодаря Legacy Support мы даём организациям возможность поддерживать их операционные потребности и инвестиции в открытый исходный код, гарантируя, что системы будут получать обновления безопасности в течение многих лет», — говорит Максимилиан Морган (Maximilian Morgan), вице-президент по технической поддержке Canonical.

Таким образом, Ubuntu 16.04 LTS будет получать поддержку до 2028 года, Ubuntu 18.04 LTS — до 2030-го, Ubuntu 20.04 LTS — до 2032-го и т.д. Стоимость новой услуги Canonical пока не раскрывает.

Постоянный URL: https://servernews.ru/1102395
Система Orphus