Лента новостей

26.09.2025 [22:57], Владимир Мироненко

На базе RISC-V в России пока активно развиваются только микроконтроллеры

Российский альянс RISC-V, объединяющий крупнейшие компании в области электроники, включая Аквариус», YADRO, «Байкал Электроникс» и др., представил на форуме «Микроэлектроника-2025» планы по внедрению этой архитектуры, передаёт «Коммерсантъ». Согласно данным альянса, с 2024 года российские компании выпустили более 3 млн продуктов на RISC-V-архитектуре.

По количеству запущенных на RISC-V в серию чипов прирост отмечен только у микроконтроллеров — с двух чипов, разработанных АО «Микрон» (ГК «Элемент») и АО «НИИЭТ» в 2024 году, до серии микроконтроллеров BE-U1000 от «Байкал Электроникс» и шести прототипов вышеназванных компаний в 2025 году. На основе этих чипов на текущий момент насчитывается больше десяти моделей изделий против пяти в 2024 году. В 2026 году альянс планирует запустить все объявленные прототипы в серийное производство, увеличив количество новых моделей устройств до более чем 30.

 Источник изображения: «Байкал Электроникс»

Источник изображения: «Байкал Электроникс»

«Байкал Электроникс» также анонсировала выпуск 1-ГГц ИИ-ускорителя Baikal AI производительностью 30 TOPS при 30-Вт энергопотреблении, который получит управляющее RISC-V-ядро. Управляющие ядра на базе этой архитектуры использует, например, Google в своих TPU.

Согласно докладу, на рынке насчитывается четыре линейки лицензированных ядер, разрабатываемых двумя компаниями. Новые ядра появятся не раньше 2026 года. Председатель технологического комитета альянса RISC-V Сергей Якушкин назвал наличие нескольких компаний-разработчиков, а также университетских проектов и ядер с открытым исходным кодом основным преимуществом архитектуры. В связи с этим он отметил снижение риска зависимости от конкретного поставщика для производителей конечных устройств.

Постоянный URL: https://servernews.ru/1129926
26.09.2025 [17:44], Сергей Карасёв

Семь из десяти российских компаний не окупили инвестиции в ИИ

Исследование, проведенное консалтинговой компанией TRIADA Partners (бывшие партнёры и консультанты Mckinsey & Company), говорит о том, что примерно 70 % российских предприятий пока не смогли окупить инвестиции в ИИ, несмотря на то что они были сделаны несколько лет назад.

Аналитики изучили данные по использованию технологий ИИ более 10 крупнейших компаний-клиентов, крупных и средних бизнесов на российском рынке в сегментах горной добычи, металлургии, добычи нефти и строительной отрасли. На этих предприятиях в числе прочего применяются системы на основе генеративного ИИ.

По оценкам экспертов, технологии ИИ в том или ином виде используют в своей работе около 70 % компаний в России. Средний срок окупаемости ИИ-проектов составляет 2–3 года, но по прошествии этого времени многие предприятия по-прежнему не могут компенсировать понесённые затраты.

Вместе с тем стоимость готовых ИИ-решений, включая модель и поддержку, при заказе у сторонних разработчиков может исчисляться десятками и сотнями миллионов рублей. Причём условия соглашения зачастую предполагают, что клиент должен делиться с разработчиком своими данными, что вызывает опасения в плане безопасности. В целом, бюджет на ИИ-проекты в среднем распределяется следующим образом:

  • Затраты на разработку и обучение модели — 25 %;
  • Формирование команды разработчиков и обучение персонала — 25 %;
  • Интеграция в текущую IT-инфраструктуру, включая перестройку IT-ландшафта, закупку облачных ресурсов и лицензий — 15 %;
  • Сбор и обработка данных — 15 %;
  • Инфраструктура для тестирования и эксплуатации, включая энергопотребление — 10 %;
  • Управление изменениями — 5 %;
  • Риск-менеджмент — 5 %.
 Источник изображения: unsplash.com / BoliviaInteligente

Источник изображения: unsplash.com / BoliviaInteligente

Вопрос окупаемости инвестиций в ИИ, по данным TRIADA Partners, наиболее остро стоит у промышленных компаний, организаций из сфер энергетики, госуправления и обороны. Основными препятствиями аналитики называют отсутствие единой стратегии и координации ИИ-проектов, что приводит к конфликтующим решениям, а также несистемность трансформаций.

Эксперты подчёркивают, что одиночные пилотные инициативы «не дают системного эффекта»: для достижения наилучших результатов необходимо охватывать все ключевые и поддерживающие функции — производство, маркетинг, HR, закупки, финансы и пр. Кроме того, в окупаемости инвестиций в технологии ИИ может помочь коммерциализация и вывод собственных разработок на рынок.

«Скорость и повсеместность интеграции ИИ имеет обратную сторону — пока не для всех компаний очевидна эффективность таких технологий, правильный алгоритм их внедрения и использования, что приводит к увеличению сроков окупаемости инвестиций. В сложившейся ситуации бизнес находится в поиске решений оптимизировать затраты», — говорит TRIADA Partners. 

Постоянный URL: https://servernews.ru/1129910
26.09.2025 [16:52], Руслан Авдеев

Fluidstack и Google «склонили» к ИИ ещё одного криптомайнера — Cipher Mining сдаст им ЦОД

Занимающийся криптомайнинговыми и HPC-проектами оператор дата-центров Cipher Mining заключил соглашение о предоставлении мощностей ЦОД ИИ-облаку Fluidstack. Параллельно Google выступит инвестором Cipher. Google и FluidStack уже применили аналогичную схему в договоре с криптомайнером TeraWulf.

В соответствии с договором колокации Cipher обеспечит для FluidStack 168 МВт IT-мощностей (общая мощность 244 МВт). Речь идёт о строящемся в Колорадо-Сити (Техас) кампусе Barber Lake площадью 240 га и мощностью до 500 МВт, аренда которого должна начаться в октябре 2026 года. Десятилетнее соглашение принесёт Cipher $3 млрд. Предусмотрена возможность продления договора на два дополнительных пятилетних периода, в этом случае стоимость контракта составит уже около $7 млрд.

В рамках сделки Google предоставит гарантии по арендным обязательствам Fluidstack на сумму $1,4 млрд для обеспечения долгового финансирования проекта. В ответ Google получает опционы на покупку около 24 млн акций Cipher, в случае их исполнения Google получит долю приблизительно в 5,4 % от акционерного капитала оператора ЦОД. Впрочем, Cipher заявляет, что намерена сохранить полный контроль над проектом и готова при необходимости привлечь внешний капитал для частичного финансирования строительства.

 Источник изображения: Cipher Mining

Источник изображения: Cipher Mining

В Cipher выразили энтузиазм по поводу партнёрства для создания ИИ ЦОД и рассматривают сделку как знаковое событие, которое укрепит позиции компании на растущем рынке HPC. Также ожидается, что сделка станет лишь первой в серии подобных, поскольку Cipher наращивает мощности и укрепляет свои позиции в этом секторе.

В 2021 году компания отделилась от майнингового гиганта Bitfury и вышла на IPO через слияние с компанией Good Works Acquisition Corp. SoftBank инвестировала в Cipher $50 млн, получив право преимущественного выкупа неосвоенного участка Barber Lake. Текущее портофолио Cipher в США включает криптомайнинговые площадки в Одессе (Odessa) и Альборзе (Alborz), а также две площадки в совместной собственности с другими компаниями близ Эндрюса (Andrews), известные как Bear и Chief, передаёт DataCenter Dynamicsc.

Также компания недавно приобрела площадку Reveille в техасском Котулле (Cotulla). Изначально будет обеспечена мощность 70 МВт, но возможно масштабирование до 200 МВт. Сейчас он строит площадку Black Pearl в Западном Техасе, способную обеспечить до 300 МВт. В последней презентации Cipher отмечается, что в 2027 году в Техасе должны заработать площадки Mikeska на 500 МВт близ Брейди (Brady), 500-МВт Milsing близ Хьюстона (Houston) и McLennan на 500 МВт близ Уэйко (Waco). Также отмечена площадка Stingray на 100 МВт.

Постоянный URL: https://servernews.ru/1129890
26.09.2025 [14:54], Владимир Мироненко

Лишь около 10 % российских компаний использует серверы с отечественными процессорами

В России лишь 10 % компаний используют серверы с отечественными процессорами, сообщили «Ведомости» со ссылкой на исследование дистрибутора IT-оборудования и ПО OCS. У 75 % российских компаний установлены серверы на x86-процессорах Intel и AMD. Порядка 34 % применяют серверы с Arm-чипами. Серверы на российских процессорах «Эльбрус» (VLIW) и «Байкал электроникс» (MIPS, Arm и RISC-V) используют лишь 7 % и 5 % респондентов соответственно. Наименее популярна архитектура RISC, она используется всего в 2 % компаний.

Исследование основано на опросе 173 топ-менеджеров крупнейших, крупных и средних компаний металлургической и химической промышленности, телекома, медиарынка, машиностроения, финансов и нефтегазового и угольного комплекса. В опросе можно было выбрать несколько вариантов ответов. По словам представителя OCS, процессоры «Эльбрус» используются в химической отрасли, металлургии, машиностроении, финансах. При этом около половины ответов приходится на представителей химической индустрии, уточнил он. Чипы «Байкал» чаще используют в машиностроении и финансах, добавил собеседник «Ведомостей».

 Источник изображения: mcst.ru

Источник изображения: mcst.ru

В Fplus отметили, что спрос на российские CPU исчисляется сотнями штук, тогда как общий объём рынка серверов в 2024 году составлял около 140 тыс. единиц. У «Эльбруса» и «Байкала» есть определённые шансы повысить свою долю на рынке РФ при условии активной государственной поддержки и интенсивное наращивание количества совместимых ПО и драйверов, считают в OCS. В Fplus добавили, что «Эльбрус» и «Байкал» станут пользоваться спросом, если в стране появятся собственные литографы и производство кристаллов, что позволит производить большое количество процессоров.

Постоянный URL: https://servernews.ru/1129894
26.09.2025 [13:28], Руслан Авдеев

Alibaba Cloud запустит восемь новых ЦОД в Европе, Азии и Северной Америке

Китайский облачный провайдер Alibaba Cloud (Aliyun) готовится открыть восемь новых ЦОД в разных странах. Анонсирован запуск первых объектов в Бразилии, Франции и Нидерландах, а также расширение присутствия в Мексике, Японии, Южной Корее, Малайзии и ОАЭ. По словам компании, ИИ меняет не только технологии, но и сами методы «создания ценности» и стимулирования роста. Стратегическое расширение глобальной инфраструктуры призвано удовлетворить растущий спрос со стороны «дальновидных» клиентов.

В Alibaba Cloud считают, что компания находится в авангарде инноваций в сфере ИИ, развиваясь вместе с клиентами, предлагая комплексные решения на базе искусственного интеллекта и облачных технологий, поддерживающих бизнес в любое время, в любом месте. Компания готова вложить ¥380 млрд ($52,7 млрд) в развитие собственной инфраструктуры, чтобы сохранить лидерские позиции.

 Источник изображения: Alibaba Cloud

Источник изображения: Alibaba Cloud

На сегодня Alibaba Cloud управляет 91 зоной доступности в 29 облачных регионах, включая материковый Китай, Азию, США, Южную Америку, Европу и Ближний Восток. Так, Alibaba вышла на японский рынок в 2016 году, в Токио действуют три зоны доступности. В Сеуле (Южная Корея) имеются две зоны доступности, в Мексике в 2025 году была открыта зона. В Дубае (ОАЭ) Alibaba присутствует с 2016 года, там компания управляет двумя зонами. Также три зоны имеются в Куала-Лумпуре (Малайзия).

 Источник изображения: Alibaba Cloud

Источник изображения: Alibaba Cloud

Ранее в сентябре компания опубликовала финансовый отчёт за I квартал 2026 финансового года, согласно которому совокупная выручка подразделения Alibaba Cloud Intelligence Group составила $4,662 млрд, на 26 % выше год к году. При этом, как сообщают в Alibaba, год к году выручка от ИИ сохранила «трёхзначный» рост — подобный рост сохраняется уже восемь кварталов подряд. Кварталом ранее выручка облачного подразделения составила $4,152 млрд, увеличившись в годовом исчислении на 18 %.

Постоянный URL: https://servernews.ru/1129898
26.09.2025 [13:01], Руслан Авдеев

OpenAI заказала у CoreWeave ИИ-мощности ещё на $6,5 млрд — общая сумма контрактов выросла до $22,4 млрд

CoreWeave расширила партнёрские отношения с OpenAI, заключив новое соглашение на сумму $6,5 млрд. Таким образом, общая сумма контрактов с OpenAI достигла $22,4 млрд, сообщает Reuters. Речь идёт уже о третьей крупном заказе OpenAI мощностей у CoreWeave в этом году. Первоначальный договор на $11,9 млрд заключили в марте 2025 года, в мае последовало новое соглашение на $4 млрд. Партнёры продолжают углублять сотрудничество, поскольку OpenAI ищет всё новые вычислительные мощности.

Объявление последовало за анонсом, обещающим крупные обновления инфраструктурного проекта Stargate, курируемого OpenAI. На днях компания объявила, что намерена открыть в США пять новых ЦОД совместно с Oracle и SoftBank. В компании утверждают, что совокупная мощность пяти новых площадок, флагманского объекта в техасском Абилине (Abilene и проектов с CoreWeave составит до 7 ГВт, а инвестиции — более $400 млрд в следующие три года.

В CoreWeave заявляют, что предложение на рынке очень отстаёт от спроса. В компании стремятся диверсифицировать свои партнёрские отношения, сократив зависимость от Microsoft, которая некогда была эксклюзивным поставщиком инфраструктуры для создателей ChatGPT. В 2024 году на инфраструктуру для Microsoft (в интересах OpenAI) приходилось 62 % выручки CoreWeave. Однако разлад между OpenAI и Microsoft усиливается, так что последняя теперь намерена самостоятельно наращивать ИИ-мощности. CoreWeave же обещает «квартал диверсификации» с привлечением «действительно замечательных, известных и кредитоспособных клиентов».

 Источник изображения: engin akyurt / Unsplash

Источник изображения: engin akyurt / Unsplash

Ранее на этой неделе NVIDIA заявила, что намерена инвестировать до $100 млрд в OpenAI и поставит ей ИИ-ускорители для дата-центров, это знаменует собой объединение крупнейших отраслевых бизнесов в гонке ИИ. Сделка NVIDIA и OpenAI обеспечит первой долю в капитале одного из крупнейших клиентов и уже вызвала опасения у антимонопольных органов. Более того, NVIDIA также инвестировала и в CoreWeave, она владеет более 5 % компании и является вторым по величине её клиентом (15 %). CoreWeave, в свою очередь, приобрела немало оборудования NVIDIA и подписала с компанией соглашение на $6,3 млрд, согласно которому производитель чипов гарантированно выкупит все облачные мощности, не проданные клиентам до апреля 2032 года.

Постоянный URL: https://servernews.ru/1129885
26.09.2025 [11:35], Сергей Карасёв

Стартап FuriosaAI представил ИИ-сервер NXT RNGD с производительностью 4 Пфлопс

Южнокорейский стартап FuriosaAI анонсировал высокопроизводительный сервер NXT RNGD для ресурсоёмких нагрузок ИИ. Утверждается, что в сценариях частного облака и локальных дата-центров новинка обеспечивает большую эффективность и меньшую стоимость владения по сравнению с решениями, оборудованными ускорителями на базе GPU.

Система NXT RNGD заключена в корпус форм-фактора 4U. Она оснащена восемью специализированными ускорителями RNGD, которые выполнены в виде карт расширения PCIe 5.0 x16. Каждая из карт располагает 48 Гбайт памяти HBM3 с пропускной способностью до 1,5 Тбайт/с и 256 Мбайт памяти SRAM (384 Тбайт/с). Таким образом, суммарный объём памяти HBM3 составляет 384 Гбайт.

 Источник изображения: FuriosaAI

Источник изображения: FuriosaAI

Ускорители RNGD обладают ИИ-производительностью до 512 Тфлопс в режиме FP8 и до 512 TOPS в режиме INT8. Таким образом, сервер NXT RNGD демонстрирует показатели до 4 Пфлопс и 4 тыс. TOPS соответственно. При этом общая потребляемая мощность составляет 3 кВт против 10,2 кВт у NVIDIA DGX H100. Таким образом, как отмечает FuriosaAI, стандартная серверная стойка мощностью 15 кВт способна вместить до пяти систем NXT RNGD, в то время как в случае NVIDIA DGX H100 может поддерживаться работа только одной машины.

Среди других преимуществ платформы NXT RNGD разработчик называет простоту и удобство развёртывания в любом месте (в том числе с ограничениями по доступной мощности), суверенитет данных (подходит для приложений с обработкой конфиденциальной информации), гибкость в плане новых вариантов использования (доступен комплект SDK) и существенное снижение совокупной стоимости владения. В настоящее время сервер предлагается для тестирования клиентам по всему миру. Приём заказов на NXT RNGD начнётся в 2026 году.

Постоянный URL: https://servernews.ru/1129883
26.09.2025 [10:33], Руслан Авдеев

Media Stream AI построит в Манчестере 2-МВт ИИ ЦОД с охлаждением водой из местного канала

Британская медиакомпания Media Stream AI (MSAI) намерена открыть в Солфорде (Salford, Большой Манчестер) дата-центр в популярном «творческом» районе Media City. Объект мощностью 2 МВт будет использовать для охлаждения воду из канала Рочдейл (Rochdale), сообщает Datacenter Dynamics.

Система охлаждения будет состоять из замкнутого контура с теплообменниками и драйкулеров. При поддержке Lenovo объект стоимостью £50 млн ($67,3 млн) сможет обеспечить плотность стоек на уровне 30–60 кВт при PUE менее 1,2. На площадке планируется разместить 1,1 тыс. ускорителей NVIDIA H200 в составе серверов Lenovo ThinkSystem с СЖО Neptune. В будущем возможно расширение до 2,3 тыс. ускорителей. Объект должен заработать в I квартале 2026 года. Компания намерена создать там же собственную виртуальную продакшн-студию и робототехническую лабораторию.

Media Stream AI рассчитывает предоставлять ИИ-сервисы медиакомпаниям и работникам творческих профессий. На сайте стартапа объявлено, что он намерен предоставить доступ к ускорителям NVIDIA L4, A10G, A4000, A5000, A100, H100 и L40. Также компания намерена развернуть к концу 2026 года площадки в Германии и Франции. Более того, MSAI заключила соглашение с властями Ямайки о строительстве и эксплуатации первого на острове ИИ ЦОД.

 Источник изображения: Jonny Gios/unsplash.com

Источник изображения: Jonny Gios/unsplash.com

Прецеденты использования похожих систем охлаждения есть. Например, Digital Realty использует для охлаждения ЦОД во Франции и Великобритании проточную речную воду. Green Mountain намерена развернуть систему охлаждения речной водой на своём новом объекте в Германии. Речное охлаждение также используют Denv-R во Франции и Nautilus в Калифорнии.

Наконец, сеть европейских супермаркетов Lidl объявила, что один из её ЦОД в Германии тоже использует охлаждение речной водой, а норвежский оператор дата-центров Polar утверждает, что для охлаждения одного из своих ЦОД намерен использовать близлежащую реку. Участвуют в подобных проектах и гиперскейлеры. Площадка Google в Финляндии использует для охлаждения и морскую воду.

Постоянный URL: https://servernews.ru/1129830
26.09.2025 [09:53], Сергей Карасёв

Сервер хранения AIC SB407-VA допускает установку 60 накопителей LFF SATA/SAS

Компания AIC представила сервер хранения данных SB407-VA, выполненный в форм-факторе 4U на аппаратной платформе Intel. Новинка допускает установку в общей сложности 70 накопителей разных типов, что позволяет сформировать массив большой ёмкости для таких задач, как аналитика данных, периферийные ИИ-приложения и пр.

Сервер может комплектоваться двумя процессорами Xeon Sapphire Rapids или Emerald Rapids. Доступны 16 слотов для модулей DDR5-5600/4800 суммарным объёмом до 4 Тбайт (3DS RDIMM). Предусмотрены четыре слота расширения PCIe x16 и один разъём PCIe x8: во всех случаях могут монтироваться карты формата FHHL.

 Источник изображений: AIC

Источник изображений: AIC

Предусмотрены посадочные места для 60 накопителей LFF с интерфейсом SATA/SAS и возможностью горячей замены. Кроме того, могут быть установлены восемь SFF-устройств в конфигурации 6 × NMVe (PCIe 4.0) и 2 × SATA с поддержкой горячей замены. Плюс к этому есть два коннектора M.2 M Key 2280 для SSD с интерфейсом PCIe 4.0.

Модель AIC SB407-VA наделена контроллером Aspeed AST2600. Реализованы два сетевых порта 1GbE на базе Broadcom BCM5720 и выделенный сетевой порт управления 1GbE на основе Realtek RTL8211FS. Во фронтальной части расположен один порт USB3.0 Type-A, в тыльной — три гнезда RJ45 для сетевых кабелей, два разъёма USB 3.1 Gen1 Type-A и коннектор D-Sub.

Габариты составляют 434 × 853 × 176 мм. Питание обеспечивают четыре блока мощностью 800 Вт с сертификатом 80 Plus Platinum/Titanium. Задействовано воздушное охлаждение, а диапазон рабочих температур простирается от 0 до +35 °C.

Постоянный URL: https://servernews.ru/1129879
26.09.2025 [08:59], Сергей Карасёв

Индустриальный компьютер Biostar EdgeComp MU-N150 на базе Intel Twin Lake выполнен в корпусе объёмом 0,6 л

Компания Biostar анонсировала компьютер небольшого форм-фактора EdgeComp MU-N150, ориентированный на использование в коммерческой и индустриальной сферах. Устройство может применяться в системах автоматизации и периферийных вычислений, в различных терминалах и пр. Аппаратной основой служит платформа Intel Twin Lake.

Новинка заключена в корпус объёмом примерно 0,6 л с габаритами 117,8 × 114,7 × 49 мм. Устройство весит около 0,75 кг. Установлен чип Intel Processor N150 (четыре ядра; до 3,6 ГГц; 6 Вт) с графическим ускорителем Intel UHD Graphics. Компьютер довольствуется пассивным охлаждением, а ребристая верхняя панель улучшает рассеяние тепла. Диапазон рабочих температур — от 0 до +50 °C.

 Источник изображений: Biostar

Источник изображений: Biostar

Поддерживается до 16 Гбайт ОЗУ DDR5-4800 в виде одного модуля SO-DIMM. Есть коннектор M.2 Key M 2242/2280 для SSD с интерфейсом PCIe 3.0 x4 (NVMe) и разъём M.2 Key E 2230 (PCIe 3.0 x1 + USB 2.0) для адаптера Wi-Fi/Bluetooth. На базе контроллера Intel I226V реализованы два сетевых порта 2.5GbE. В оснащение также входит звуковой кодек ALC897.

Во фронтальной части расположены два порта USB 3.2, разъём USB Type-C (DP), последовательный порт (RS232) и 3,5-мм аудиогнездо. Сзади находятся два порта USB 2.0, интерфейсы HDMI 2.0 и DP++1.4 с поддержкой видео с разрешением до 4096 × 2160 пикселей (60 Гц), два гнезда RJ45 для сетевых кабелей и DC-разъём для подачи питание (в комплект поставки входит адаптер мощностью 60 Вт). Возможен вывод изображения одновременно на три дисплея. Заявлена совместимость с Windows 10/11 и Ubuntu.

Постоянный URL: https://servernews.ru/1129847
Система Orphus