Лента новостей

04.04.2025 [12:37], Руслан Авдеев

«Агрегатор ускорителей» Parasail анонсировал ИИ-гипероблако

Стартап Parasail привлёк $10 млн стартового капитала и выступил с необычным для рынка ИИ предложением. Компания стала своеобразным «агрегатором ускорителей», создав для инференса сеть, позволяющую свести вместе владельцев вычислительных мощностей и их клиентов с максимальной простотой, сообщает The Next Platform.

Раунд финансирования возглавили Basis Set Ventures, Threshold Ventures, Buckley Ventures и Black Opal Ventures. Компанию основали Майк Генри (Mike Henry), ранее основавший производителя ИИ-решений Mythic и работавший одним из топ-менеджеров в Groq, и Тим Харрис (Tim Harris), генеральный директор Swift Navigation.

Прежний опыт Майка Генри на рынке IT позволил заметить, что в последнее время ландшафт облачных сервисов стремительно меняется — если ранее на нём безраздельно доминировали гиперскейлеры вроде AWS, Microsoft Azure и Google Cloud, то с приходом ИИ они, казалось бы, сохраняют ведущие позиции, но на сцену выходят и новые облачные игроки, чья инфраструктура изначально рассчитана на ИИ-задачи, от обучения до инференса.

В конце 2023 года бизнесмены основали компанию Parasail, которая совсем недавно заявила о себе, заодно собрав $10 млн финансирования. Фактически бизнес рассчитан на клиентов, которые заинтересованы в простом доступе к ИИ-технологиям — он будет связывать тех, кто располагает ими, и тех, кто в них нуждается.

 Источник изображения:  Campaign Creators/unsplash.com

Источник изображения: Campaign Creators/unsplash.com

Parasail намеревается использовать рост облачных ИИ-провайдеров вроде CoreWeave (недавно вышедшей на IPO) и Lambda Labs. Для этого создана сеть AI Deployment Network, объединяющая их вычислительные ресурсы в единую инфраструктуру, которая масштабнее, чем Oracle Cloud Infrastructure (OCI). Компания применяет собственный «движок» для оркестрации процессов в этом гипероблаке.

Ключевым преимуществом является низкая стоимость услуг — утверждается, что компании, желающие отказаться от сервисов вроде OpenAI и Anthropic, могут рассчитывать на экономию в 15–30 раз, а в сравнении с клиентами провайдеров open source моделей — в 2–5 раз. На настройку уходит несколько часов, а инференс после этого можно начать за считанные минуты. Сегодня Parasail предлагает в облаке ресурсы NVIDIA H200, H100 и A100, а также видеокарт NVIDIA GeForce RTX 4090. Цены составляют от $0,65 до $3,25 за час использования.

Parasail столкнулась с проблемой несовместимости инфраструктур: разные облачные платформы используют уникальные подходы к вычислениям, хранению данных, сетевому взаимодействию, а также имеют различия в настройке, биллинге и автоматизации. Хотя Kubernetes и контейнеризация могли бы частично решить эти проблемы, их реализация у разных провайдеров сильно отличается, а Kubernetes изначально не предназначается для работы с несколькими кластерами, регионами или провайдерами одновременно.

Чтобы обойти ограничения, Parasail разработала собственную систему, которая объединяет ускорители из разных облаков в единую глобальную сеть. Их решение позволяет централизованно управлять распределёнными узлами, игнорируя различия в инфраструктуре провайдеров. Если один облачный провайдер выйдет из строя, система автоматически заменяет его ресурсы другими, минимизируя простои. Дополняя эту систему автоматизированным динамическим выделением ускорителей, Parasail создаёт масштабируемую и эффективную глобальную инфраструктуру, способную оперативно адаптироваться к нагрузкам и сбоям.

Оркестрация и оптимизация рабочих нагрузок в ИИ-инфраструктуре усложняются из-за огромного разнообразия моделей, архитектур, типов GPU и ASIC, а также множества способов их комбинирования. Parasail решает эту проблему с помощью гибридного подхода, сочетающего математическое моделирование, ИИ-алгоритмы и участие живых специалистов, что позволяет эффективно масштабироваться даже с небольшой командой.

 Источник изображения: Campaign Creators/unsplash.com

Источник изображения: Campaign Creators/unsplash.com

Закрытое бета-тестирование началось в январе, а позже спрос только вырос до той степени, что Parasail достигла семизначного ежегодного регулярного дохода (ARR). Теперь технология доступна всем, в числе клиентов — производитель чипов SambaNova, ИИ-платформа Oumi, ИИ-стартап Rasa и Elicit, позволяющий автоматизировать научные изыскания.

В будущем стартап намерен быстро расширить штат из 12 работников, рассматриваются и варианты добавления в портфолио новых доступных ускорителей — сейчас там безусловно лидирует NVIDIA, но рынок вполне может измениться.

В то же время отмечается парадоксальная ситуация, когда на рынке наблюдается и дефицит ускорителей, и простой мощностей в некоторых ЦОД одновременно. Предполагается, что дело в плохой оптимизации процессов на рынке ИИ. При этом в компании отмечают, что в данное время спрос на ИИ-приложения «почти бесконечен» и главная проблема — эффективно их использовать. Платформа Parasail для инференса максимально упрощает масштабное внедрение ИИ.

Постоянный URL: https://servernews.ru/1120787
04.04.2025 [11:29], Руслан Авдеев

NVIDIA может переключиться на выполнение заказов только из Китая в преддверии усиления санкций США

Не исключено, что NVIDIA может заставить подождать с выполнением заказов клиентов… всех, кроме представителей китайского бизнеса. Клиенты из Поднебесной, по слухам, заказали ускорители H20 на огромную сумму $16 млрд — до того, как США, возможно, запретит продавать их в КНР, сообщает The Information. По данным китайских инсайдеров, ByteDance, Alibaba Group, Tencent Holdings и др. заказали огромное количество H20 в первые три месяца текущего года.

Имеются данные о том, что таких чипов уже не хватает в Китае, и NVIDIA может сфокусировать усилия на производстве большего количества H20 для удовлетворения спроса огромного рынка до того, как предложенный запрет вступит в действие. Может быть выполнено заказов минимум на $16 млрд — это приведёт к тому, что выпуск прочих чипов компании замедлится и приведёт к ещё большему дефициту передовых ускорителей на рынке. В результате американским и европейским клиентам придётся ждать выполнения своих заказов дольше обычного.

 Источник изображения: Glsun Mall/unsplash.com

Источник изображения: Glsun Mall/unsplash.com

H20 является самым производительным ИИ-ускорителем, допущенным для поставок в Китай в соответствии с американскими экспортными ограничениями, введёнными в октябре 2023 года. Тем не менее, США могут вскоре и вовсе запретить поставки любых ускорителей. В то же время Пекин, по слухам, ужесточает контроль над продажами чипов иностранного производства — соответствующие правила уже действуют. Это предпринимается для того, чтобы китайские компании приобрели ускорители местного производства. В IDC уже заявляли, что китайские власти поддерживают и субсидируют местных производителей для выпуска чипов на архитектуре Arm.

Впервые США ввели связанный с поставками в Китай чипов экспортный контроль в октябре 2022 года для замедления технологического развития Китая. В частности, были запрещены продажи передовых на тот момент ускорителей NVIDIA A100 и H100, специально ослабленные A800 и H800 запретили позже.

После триумфального дебюта open source ИИ-моделей китайского стартапа DeepSeek в январе 2025 года спрос на H20 значительно вырос. И, хотя H20, по некоторым данным, в 15 раз «медленнее», чем новейшие модели серии NVIDIA Blackwell, только их ещё разрешено официально продавать в Китай после ограничений, введённых в октябре 2023 года. Ускорители применяются китайскими компаниями для обучения ИИ-моделей, хотя изначально чипы позиционировались как решения для инференса.

Впрочем, как считают эксперты Moor Insights & Strategy, наращивание производства H20 не повлияет на поставки в США и Европе, поскольку для выпуска современных ускорителей Blackwell используется другой техпроцесс, т.е. другие производственные линии.

Постоянный URL: https://servernews.ru/1120781
04.04.2025 [11:00], Сергей Карасёв

«Тантор Лабс» выступит генеральным партнером PG BootCamp Russia 2025 в Екатеринбурге

Компания «Тантор Лабс» (входит в «Группу Астра») станет генеральным партнёром конференции PG BootCamp Russia 2025, которая пройдёт 10 апреля 2025 года в городе Екатеринбурге.

Мероприятие является частью глобальной инициативы PG BootCamp, имеет официальный статус международного сообщества PostgreSQL и традиционно ориентировано как на опытных, так и на начинающих специалистов, желающих углубить свои знания и получить практические навыки работы с СУБД PostgreSQL.

В программе запланированы лекции и мастер-классы, посвящённые наиболее актуальным для профи темам: оптимизации выполнения запросов, восстановлению данных при сбоях, работе с временными рядами, эффективности администрирования БД, реализации ILM в PostgreSQL и др. Участвовать можно очно или онлайн, в обоих случаях это будет бесплатно.

 Источник изображения: PG BootCamp

Источник изображения: PG BootCamp

«Мы уже не в первый раз выступаем в качестве генерального партнёра PG BootCamp, и для нас большая честь быть в авангарде развития PostgreSQL в России и поддерживать это мероприятие в уникальном некоммерческом формате для русскоязычной аудитории. PostgreSQL — одна из самых популярных СУБД, её сообщество объединяет огромное число энтузиастов вокруг ценностей открытости и инноваций, и официальные комьюнити-мероприятия в нашей стране служат мощным катализатором развития и открывают новые горизонты в построении качественных и масштабируемых решений. Присоединяйтесь к нашей инициативе, черпайте новые знания и вносите свой вклад в развитие этой замечательной СУБД», — заявил Вадим Яценко, генеральный директор компании «Тантор Лабс».

Реклама | ООО «ТАНТОР ЛАБС» ИНН 9701183207 erid: F7NfYUJCUneRHyHaVwhS
Постоянный URL: https://servernews.ru/1120737
04.04.2025 [10:26], Владимир Мироненко

Бенчмарк MLPerf Inference 5.0 показал, что ускорители AMD Instinct MI325X не уступают NVIDIA H200

Консорциум MLCommons опубликовал результаты тестирования различных аппаратных решений в бенчмарке MLPerf Inference 5.0, о чём сообщил ресурс IEEE Spectrum. Он отметил, что ускорители NVIDIA с архитектурой Blackwell превзошли все остальные чипы, но последняя версия ускорителей Instinct от AMD — Instinct MI325X — оказалась на уровне конкурирующего решения NVIDIA H200. Сопоставимые результаты были получены в основном в тестах одной из маломасштабных больших языковых моделей (LLM) — Llama2 70B. Чтобы лучше отражать особенности развития ИИ, консорциум добавил три новых теста MLPerf — всего доступно 11 бенчмарков.

Добавлены два теста для LLM. Популярная и относительно компактная Llama2 70B уже является устоявшимся эталоном MLPerf, но консорциум решил включить тест, имитирующий скорость реагирования, ожидаемую пользователями от чат-ботов. Поэтому был добавлен новый эталон Llama2-70B Interactive, который ужесточает требования к оборудованию: системы должны выдавать не менее 25 токенов в секунду при задержке на ответ не более 450 мс.

С учётом роста популярности «агентного ИИ» в MLPerf решили добавить тестирование LLM с характеристиками, необходимыми для таких задач. В итоге была выбрана Llama3.1 405B. Эта модель имеет широкое контекстное окно — 128 тыс. токенов, что в 30 раз больше, чем у Llama2 70B. Третий новый бенчмарк — RGAT — представляет собой графовую сеть. Он классифицирует информацию в сети. Например, набор данных для тестирования RGAT состоит из научных статей, связанных между собой авторами, учреждениями и областями исследований, что составляет 2 Тбайт данных. RGAT должен классифицировать статьи по почти 3000 темам.

 Источник изображения: IEEE Spectrum

Источник изображения: IEEE Spectrum

В этом раунде тестов поступили заявки от NVIDIA и 15 компаний-партнёров, включая Dell, Google и Supermicro. Оба ускорителя NVIDIA с архитектурой Hopper первого и второго поколения — H100 и H200 — показали хорошие результаты. «Мы смогли добавить ещё 60 % производительности за последний год, — у Hopper, которая была запущена в производство в 2022 году, сообщил Дэйв Сальватор (Dave Salvator), один из директоров NVIDIA. — У неё всё ещё есть некоторый запас производительности». Лидером же оказался B200 с архитектурой Blackwell. B200 содержит на 36 % больше памяти HBM, чем у H200, но, что ещё важнее, он может выполнять ключевые математические операции, используя FP4 вместо FP8 у Hopper.

В тесте Llama3.1 405B система от Supermicro с восемью B200 выдала почти в четыре раза больше токенов в секунду, чем система с восемью H200 от Cisco. И та же система Supermicro была в три раза быстрее самого быстрого сервера на H200 в интерактивной версии Llama2 70B.

NVIDIA использовала суперчип GB200 — сочетание ускорителей Blackwell и процессоров Grace — чтобы продемонстрировать эффективность интерконнекта NVLink, который позволяет работать множеству узлов как один ускоритель. В непроверенном результате, которым компания поделилась с журналистами, стойка GB200 NVL72 выдавала 869 200 токенов в секунду в Llama2 70B. Самая быстрая система текущего раунда MLPerf Inference — сервер NVIDIA B200 — показала 98 443 токена в секунду.

Ускоритель Instinct MI325X позиционируется AMD как конкурент H200. Он имеет ту же архитектуру, что и предшественник MI300, но оснащён увеличенным объёмом памяти HBM с более высокой пропускной способностью — 256 Гбайт и 6 Тбайт/с (рост на 33 % и 13 % соответственно). AMD оптимизировала ПО, что позволило увеличить скорость инференса DeepSeek-R1 в 8 раз. В тесте Llama2 70B компьютеры с восемью MI325X отставали от аналогичных систем на базе H200 всего на 3–7 %. В задачах генерации изображений система MI325X показала отличия в пределах 10 % от системы на H200. Также сообщается, что партнёр AMD, компания Mangoboost, продемонстрировала почти четырёхкратное увеличение производительности в тесте Llama2 70B, запустив вычисления на четырёх узлах.

 Источник изображения: ML Commons

Источник изображения: ML Commons

Intel традиционно использует в тестах только процессорные системы, чтобы показать, что для некоторых рабочих нагрузок GPU не требуются. В этот раз были представлены первые данные по чипам Intel Xeon 6900P и 6700P (Granite Rapids), выпускаемым по техпроцессу Intel 3. Компьютер с двумя Xeon 6 показал результат в 40 285 семплов в секунду в тесте распознавания изображений, что составляет около одной трети производительности системы Cisco с двумя NVIDIA H100. По сравнению с результатами Xeon 5 в октябре 2024 года новый процессор демонстрирует прирост в 80 % в данном тесте и ещё большее ускорение в задачах обнаружения объектов и медицинской визуализации. С 2021 года, когда Intel начала представлять результаты Xeon, её процессоры достигли 11-кратного прироста производительности в тесте ResNet. Intel отказалась от участия в категории ускорителей: её конкурент для H100 — Gaudi 3 — не появился ни в текущих результатах MLPerf, ни в версии 4.1, выпущенной в октябре 2024 года.

Чип Google TPU v6e также продемонстрировал свои возможности, хотя результаты были ограничены задачей генерации изображений. При 5,48 запроса в секунду система с четырьмя TPU показала прирост в 2,5 раза по сравнению с аналогичным компьютером, использующим TPU v5e, в результатах за октябрь 2024 года. Тем не менее 5,48 запроса в секунду — это примерно те же показатели, что и у аналогичного по размеру компьютера Lenovo с NVIDIA H100.

Постоянный URL: https://servernews.ru/1120777
04.04.2025 [10:10], Сергей Карасёв

Tenstorrent представила ИИ-ускорители Blackhole на архитектуре RISC-V

Канадский стартап Tenstorrent анонсировал ИИ-ускорители семейства Blackhole, выполненные в виде двухслотовых карт расширения с интерфейсом PCI Express 5.0 x16. Кроме того, дебютировала рабочая станция TT-QuietBox, оборудованная этими изделиями.

Напомним, ранее Tenstorrent выпустила ИИ-ускорители Wormhole с 72 и 128 ядрами Tensix, каждое из которых содержит пять ядер RISC-V. Объём памяти GDDR6 составляет соответственно 12 и 24 Гбайт. Производительность достигает 262 и 466 Тфлопс на операциях FP8.

В семейство Blackhole вошли модели p100a и p150a/p150b. Первая располагает 120 ядрами Tensix, 16 «большими» ядрами RISC-V, 180 Мбайт памяти SRAM и 28 Гбайт памяти GDDR6 с пропускной способностью 448 Гбайт/с. Изделия p150a/p150b оснащены 140 ядрами Tensix, 16 «большими» ядрами RISC-V, 210 Мбайт памяти SRAM и 32 Гбайт памяти GDDR6 с пропускной способностью 512 Гбайт/с.

 Источник изображений: Tenstorrent

Источник изображений: Tenstorrent

Энергопотребление у всех ускорителей достигает 300 Вт. Тактовая частота ИИ-блока — 1,35 ГГц. Габариты карт составляют 42 × 270 × 111 мм. Модели p100a и p150a наделены активным охлаждением, версия p150b — пассивным. При этом ускорители p150a/p150b оборудованы четырьмя разъёмами QSFP-DD 800G.

Рабочая станция TT-QuietBox несёт на борту четыре карты Blackhole p150. Основой служат материнская плата ASRock Rack SIENAD8-2L2T и процессор AMD EPYC 8124P (Siena) с 16 ядрами (32 потока) с тактовой частотой до 3 ГГц. Объём оперативной памяти DDR5-4800 ECC RDIMM равен 256 Гбайт (8 × 32 Гбайт). Установлен SSD вместимостью 4 Тбайт с интерфейсом PCIe 4.0 x4 (NVMe). Присутствуют по два сетевых порта 10GbE RJ45 (контроллер Intel X710-AT2) и 1GbE RJ45 (Intel i210), четыре порта USB 3.1 Gen1 Type-A (по два спереди и сзади), аналоговый разъём D-Sub.

 Источник изображений: Tenstorrent

Ускоритель Blackhole p100 предлагается по цене около $1000, тогда как обе модификации Blackhole p150 оценены в $1300. Рабочая станция TT-QuietBox Blackhole обойдётся в $12 тыс.

Постоянный URL: https://servernews.ru/1120771
04.04.2025 [09:53], Сергей Карасёв

Jabil представила оптические трансиверы для 1,6-Тбит/с сетей

Компания Jabil анонсировала оптические трансиверы, обеспечивающие скорость передачи данных до 1,6 Тбит/с. Изделия ориентированы на дата-центры, поддерживающие ресурсоёмкие нагрузки ИИ и НРС, а также облачные вычисления. В основу новинок положена технология кремниевой фотоники Intel Silicon Photonics. Соответствующие разработки Jabil приобрела у Intel в конце 2023 года. Трансиверы, по заявления разработчика, позволяют повысить пропускную способность соединений в ЦОД без необходимости внесения изменений в существующую инфраструктуру.

В семейство вошли изделия 1.6T DR8/DR8+/2xDR4/2xDR4+ OSFP PAM4 и 1.6T 2xFR4 OSFP PAM4. Они поддерживают пропускную способность до 200 Гбит/с на линию при использовании восьми линий, что в сумме даёт 1,6 Тбит/с. Говорится о совместимости со стандартами IEEE 802.3-2022, IEEE P802.3dj и OSFP MSA. Заявленное энергопотребление составляет менее 26 Вт. Диапазон рабочих температур простирается от 0 до +70 °C.

 Источник изображения: Jabil

Источник изображения: Jabil

Трансиверы 1.6T DR8/DR8+/2xDR4/2xDR4+ OSFP PAM4 оснащены двумя коннекторами MPO-12. Решения DR8 позволяют передавать данные на расстояние до 500 м, DR8+ — до 2 км. В свою очередь, устройства 1.6T 2xFR4 OSFP PAM4 располагают двумя коннекторами LC, а расстояние при передаче данных может достигать 2 км.

Новинки будет предлагаться со встроенным радиатором для рассеяния тепла или без такового. Трансиверы могут применяться в инфраструктурах с коммутаторами и маршрутизаторами Ethernet и InfiniBand.

Постоянный URL: https://servernews.ru/1120770
04.04.2025 [08:44], Сергей Карасёв

Объём мирового рынка генеративного ИИ в 2024 году вырос более чем в четыре раза, но заработали на нём в основном поставщики оборудования

Компания Gartner подвела итоги исследования глобального рынка генеративного ИИ (GenAI) в 2024 году: расходы достигли $364,96 млрд, что на 336,7 % больше по сравнению с предыдущим годом, когда объём отрасли оценивался в $83,57 млрд. Аналитики полагают, что в дальнейшем затраты продолжат увеличиваться, но темпы роста снизятся.

Gartner учитывает поставки ИИ-серверов и различного оборудования, включая персональные компьютеры с поддержкой ИИ, а также расходы в сегменте ПО и услуг. Основную часть выручки приносят аппаратные решения.

В частности, в 2024 году продажи серверов для задач ИИ, по оценкам, достигли $135,64 млрд — это на 154,7 % больше, чем годом ранее. Всевозможные устройства с функциями ИИ обеспечили $199,6 млрд с ростом на 845,5 % в годовом исчислении. В сегменте ПО отмечен рост на 255,1 % — до $19,16 млрд, тогда как услуги принесли $10,57 млрд, показав прибавку в 177,0 % по отношению к 2023-му.

 Источник изображения: unsplash.com / Steve Johnson

Источник изображения: unsplash.com / Steve Johnson

Аналитики Gartner прогнозируют, что в 2025 году затраты на мировом рынке GenAI увеличатся на 76,4 %, достигнув $643,86 млрд. Причём около 80 % от этой суммы придётся на оборудование. Ожидается, что продажи серверов в годовом исчислении поднимутся на 33,1 %, составив $180,62 млрд. Всевозможные устройства с ИИ принесут $398,32 млрд, показав рост на 99,5 %. В сегменте ПО прогнозируется прибавка в 93,9 % — до $37,16 млрд. Услуги обеспечат около $27,76 млрд с ростом на 162,6 % по сравнению с 2024 годом. В целом, аналитики полагают, что технологии ИИ станут неотъемлемой частью многих бизнес-операций и продуктов для корпоративного и потребительского секторов.

Постоянный URL: https://servernews.ru/1120772
03.04.2025 [19:29], Татьяна Золотова

«РТК ИТ Плюс» пополнила ИТ-экосистему «Лукоморье» тремя новыми продуктами

В экосистему отечественных ИТ-решений «Лукоморье» разработчика программного обеспечения «РТК ИТ Плюс» (входит в ГК «Ростелеком») вошли no-code платформа «Акола», ESM-система «Диво» и система управления пространством «Стрелка». Теперь экосистема состоит из 15 продуктов. В компании надеются, что по итогам 2025 года обновленное «Лукоморье» принесет около 1,5 млрд руб. выручки.

«Акола» запущена в августе 2024 года и позволяет создавать корпоративные веб-приложения и сайты без программирования. В семейство no-code платформы входят ESMP SE — коробочная версия сервис-деска ESMP для малого и среднего бизнеса, а также «Теремок» — корпоративный портал. Разработчик утверждает, что у решения нет «прямых аналогов на отечественном рынке», а также что платформа позволяет запускать новые продукты в четыре раза быстрее и в пять раз дешевле по сравнению с традиционным подходом.

«Диво» (первое название ESMP) состоит из пяти модулей, автоматизирует работу внутренних ИТ-служб. Встроенный ИИ-модуль классифицирует запросы и предлагает решения. В семейство ESM-системы входят портал самообслуживания с интеллектуальным поиском «Диво Портал», сервис-деск «Диво Сервис», система отчетности и визуализации данных «Диво Метрика», лингвистический модуль «Диво Лингво» и платформа для создания чат-ботов «Диво Бот». По словам генерального директора «РТК ИТ Плюс», внедрение «Диво» позволило «Ростелекому» сэкономить 169 млн руб. в рамках импортозамещения.

«Стрелка» (ранее «Интерактивная карта») отвечает за управление рабочим пространством в условиях гибридного формата работы. Система адаптируется к большим офисам и рабочим площадям, а также соответствует требованиям защиты данных госкомпаний. По словам разработчиков, «Стрелка» помогла «Ростелекому», «Теле2» и «ВТБ Капитал» повысить производительность ряда подразделений, процесс размещения персонала стал прозрачнее и занимает меньше времени, сократились конфликты при бронировании переговорных или рабочих мест.

 Источник изображения: «РТК ИТ Плюс»

Источник изображения: «РТК ИТ Плюс»

Сначала экосистема «Лукоморье» развивалась как набор отдельных решений. В семейство продуктов «Яга» (отечественный вариант Jira, Confluence и др.) входят система управления проектами задачами «Яга Задачи», система для совместной работы с информацией «Яга Статьи», система построения отчетности по пространствам «Яга Аналитика», а также планировщик задач для малых команд «Ёжка», маркетплейс плагинов и приложений «Ярмарка» и ИИ-модуль «Сирин». Кроме того, «Лукоморье» включает Professional services, ориентированные на оказание полного цикла консалтинговых услуг.

Выручка «РТК ИТ Плюс» по итогам 2024 года выросла более чем в два раза — до 433,8 млн руб., а штат увеличился на 81 % — до 350 сотрудников. По итогам 2025 года разработчик планирует утроить выручку. Семь разработок компании включены в реестр отечественного программного обеспечения Минцифры.

Постоянный URL: https://servernews.ru/1120754
03.04.2025 [16:47], Руслан Авдеев

Google готовится к аренде ИИ-серверов с ускорителями NVIDIA Blackwell у CoreWeave

Компания Google близка к тому, чтобы согласиться на сделку с CoreWeave. Предполагается, что гиперскейлер будет арендовать у последней серверы, оснащённые ускорителями серии NVIDIA Blackwell, сообщает The Information. Сделка находится на «поздних стадиях» согласования. Благодаря ей Google сможет получить доступ к большему количеству новейших ИИ-ускорителей. Об этом издание сообщает со ссылкой на два анонимных источника, знакомых с вопросом.

Ещё два источника добавили, что Google уже пыталась договориться с конкурентами CoreWeave о доступе к свободным ускорителям — судя по всему, компании не хватает доступных вычислительных мощностей. Возможные партнёры пока не комментируют ситуацию. По информации Seeking Alpha, на момент закрытия торгов в среду акции CoreWeave выросли на 16 %, колебания курсов акций Google и NVIDIA оказались незначительными.

По данным The Information, отдельно Google и CoreWeave ведут переговоры об аренде площадей в дата-центрах последней — там Google сможет разместить тензорные ускорители (TPU) собственной разработки, которые компания довольно успешно внедряет наряду с решениями NVIDIA.

 Источник изображения:  Microsoft Edge/unsplash.com

Источник изображения: Microsoft Edge/unsplash.com

Потенциальное соглашение косвенно свидетельствует о проблемах компаний, желающих пользоваться ускорителями NVIDIA, но не имеющих возможности удовлетворить спрос в полной мере. Уникальные отношения CoreWeave и NVIDIA и возможности оператора ЦОД предоставлять в распоряжение новые ИИ-мощности привлекают крупные облачные сервисы и ключевых ИИ-разработчиков вроде OpenAI и Meta. По данным Investing.com, за последние несколько дней крупные ИИ-структуры вроде xAI и OpenAI публично озвучивали необходимость увеличения доступных вычислительных ресурсов.

Буквально на днях CoreWeave вышла на IPO — правда, планы развития компании могут оказаться под вопросом, поскольку средств привлечено меньше, чем ожидалось, а капитализация её оказалась значительно меньше, чем рассчитывалось.

Постоянный URL: https://servernews.ru/1120744
03.04.2025 [16:42], Владимир Мироненко

Ayar Labs анонсировала фотонный UCIe-чиплет TeraPHY с пропускной способностью 8 Тбит/с

Компания Ayar Labs, занимающаяся разработкой интерконнекта на базе кремниевой фотоники, анонсировала чиплет оптического I/O TeraPHY, способный обеспечить пропускную способность 8 Тбит/с и использующий оптический источник света SuperNova с поддержкой 16 длин волн.

Чиплет поддерживает интерфейс Universal Chiplet Interconnect Express (UCIe), что означает возможность объединения в одном решении чиплетов от разных поставщиков. Ayar Labs отметила, что совместимость со стандартом UCIe позволяет создать более доступную и экономичную экосистему, которая упрощает внедрение передовых оптических технологий, необходимых для масштабирования рабочих ИИ-нагрузок и преодоления ограничений традиционных медных соединений.

 Источник изображений: Ayar Labs

Источник изображений: Ayar Labs

Ayar Labs сообщила, что объединила кремниевую фотонику с производственными процессами CMOS, чтобы обеспечить использование оптических соединений в форм-факторе чиплета в многочиповых корпусах. Это позволяет GPU и другим ускорителям взаимодействовать на широком диапазоне расстояний, от миллиметров до километров, при этом эффективно функционируя как единый гигантский ускоритель. Ранее компания совместно с Fujitsu показал концепт процессора A64FXс UCIe-чиплетом TeraPHY.

Марк Уэйд (Mark Wade), генеральный директор и соучредитель Ayar Labs заявил, что в компании давно увидели потенциал совместно упакованной оптики (CPO), и поэтому занялись внедрением оптических решений в ИИ-приложениях. «Продолжая расширять границы оптических технологий, мы объединяем цепочку поставок, производство, а также процессы тестирования и проверки, необходимые клиентам для масштабного развёртывания этих решений», — подчеркнул он.

Среди партнёров Ayar Labs крупнейшие компании отрасли, включая AMD, Intel, NVIDIA и TSMC. В последнем раунде финансирования, прошедшем в декабре прошлого года, компания привлекла $155 млн. Рыночная стоимость Ayar Labs, по оценкам, составляет $1 млрд.

Постоянный URL: https://servernews.ru/1120741

Входит в перечень общественных объединений и религиозных организаций, в отношении которых судом принято вступившее в законную силу решение о ликвидации или запрете деятельности по основаниям, предусмотренным Федеральным законом от 25.07.2002 № 114-ФЗ «О противодействии экстремистской деятельности»;

Система Orphus