Материалы по тегу: hardware

26.02.2026 [00:30], Владимир Мироненко

Nebius увеличила квартальную выручку на 547 %, чуть не дотянув до прогноза Уолл-стрит

Провайдер облачных ИИ-сервисов Nebius (ранее Yandex N.V.) объявил неаудированные финансовые результаты за IV квартал и весь 2025 год, закончившийся 31 декабря 2025 года. Квартальная выручка компании выросла на 547 % до $227,7 млн, что оказалось немного ниже прогноза аналитиков размере $242,79 млн (по данным intellectia.ai). Как отметил ресурс MarketBeat, разница невелика и к тому же компенсируется прогнозом устойчивого роста. Тем не менее, после объявления финансовых результатов акции компании упали на 5 %.

Значительный рост выручки обусловлен высокими показателями в основном облачном бизнесе компании в сфере ИИ благодаря массовому переходу на облачные ИИ-сервисы и контрактам с гиперскейлерами, включая Microsoft и Meta. Выручка от основного бизнеса выросла на 802 % до $214 млн. Росту способствовали высокий уровень загрузки мощностей, выгодные ценами и дисциплинированное исполнение заказов, подчеркнули аналитики Zacks Investment Research. Компания сообщила, что в IV квартале снова распродала все свои мощности, поскольку спрос продолжал опережать доступное предложение.

Следует также отметить, что компания достигла положительной скорректированной EBITDA в размере $15 млн в IV квартале, тогда как годом ранее этот показатель составлял –$63,9 млн. Маржа скорректированной EBITDA выросла до 24 % с 19 % в III квартале.

 Источник изображения: Nebius

Источник изображения: Nebius

Nebius сообщила о скорректированном чистом убытке в IV квартале 2025 года в размере –$173 млн, что на 151 % больше, чем убыток в размере –$69 млн, понесенный годом ранее. Убытки компании увеличились, поскольку она активно инвестировала в расширение мощностей, разработку продуктов и приобретение ускорителей. Однако убытки обусловлены исключительно капитальными затратами и расширением, поскольку операционные показатели улучшились.

Что касается показателей за весь 2025 год, то выручка Nebius выросла на 479 % до $529,8 млн. Убыток по скорректированной EBITDA сократился с –$226,3 млн до –$64,9 млн (–71 %). Скорректированные убытки увеличились на 87 % с –$238,5 млн в 2024 году до –$446,7 млн. В 2026 году компания прогнозирует выручку в пределах $3–$3,4 млрд. Прогноз по годовой регулярной выручке (ARR, Annual Recurring Revenue) к концу 2026 года составляет $7–$9 млрд.

На 2026 год компания прогнозирует скорректированную маржу EBITDA на уровне примерно 40 %. Однако она ожидает, что показатель EBIT останется убыточным, поскольку компания продолжает реализацию планов расширения мощностей, развёртывания ускорителей и инвестиций в исследования и разработки для значительного укрепления своей технологической базы и будущих продуктов в области ИИ. Nebius считает, что эти инвестиции обеспечивают привлекательную доходность, и компания по-прежнему привержена своей среднесрочной целевой отметке EBIT в 20-30 % с потенциалом дальнейшего роста.

В 2026 году компания планирует инвестировать от $16 до $20 млрд в капитальные затраты. Компания ускорила свои планы по наращиванию мощностей, объявив о строительстве 9 новых ЦОД и обеспечив более 2 ГВт законтрактованной электроэнергии с прогнозом превышения отметки в 3 ГВт. Nebius по-прежнему планирует обеспечить от 800 МВт до 1 ГВт доступной мощности ЦОД к концу 2026 года.

Постоянный URL: http://servernews.ru/1137425
26.02.2026 [00:10], Андрей Крупин

Дефицитные места в московском ЦОД выставят на биржу

Оператор сети дата-центров 3data намерен заявить о себе на Бирже ЦТС и заняться предоставлением услуг московского ЦОД через биржевую площадку При этом в коммерческих дата-центрах Москвы и Санкт-Петербурга уже давно наблюдается дефицит стойко-мест. Старт торгов запланирован на 5 марта.

Как передаёт IT Channel News, в качестве начального лота будут выставлены услуги 3data по размещению оборудования (сolocation) в московском центре обработки данных «М8», не так давно претерпевшем масштабную техническую модернизацию. По мнению компании, использование биржевого механизма позволит минимизировать риски, связанные с отсутствием прозрачности формирования цен, и предоставит участникам рынка равную возможность приобретения услуг ЦОД на условиях свободной конкуренции.

 Источник изображения: 3data.ru

Источник изображения: 3data.ru

3data основана в 2013 году и является одним из крупнейших операторов коммерческих дата-центров в России. В отличие от других игроков рынка компания придерживается концепция «ЦОД шаговой доступности», предполагающей размещение вычислительных площадок не в промзонах, а в деловых районах, рядом с офисами клиентов. В настоящий момент 3data располагает 24 собственными дата-центрами, расположенными в Москве, Московской области, Екатеринбурге, Ставрополе, Новосибирске, Владивостоке и Южно-Сахалинске.

Постоянный URL: http://servernews.ru/1137424
25.02.2026 [17:31], Владимир Мироненко

Axelera AI привлекла $250 млн для разработки европейских ИИ-чипов

Производитель ИИ-чипов Axelera AI из Эйндховена (Нидерланды) привлёк $250 млн в рамках раунда финансирования, который возглавил европейский венчурный фонд Innovation Industries. Наряду с имеющимися инвесторами в нём также приняли участие BlackRock и SiteGround Capital в качестве новых инвесторов. Это одна из крупнейших инвестиций на сегодняшний день в европейскую компанию по производству ИИ-чипов, отметило агентство Reuters.

Генеральный директор Фабрицио Дель Маффео (Fabrizio Del Maffeo) указал в своём заявлении, что компания использует привлечённые средства для расширения производства своего чипа Europa, запуск которого запланирован до июня, а также для дальнейшей разработки ПО, упрощающего использование чипов для клиентов.

 Источник изображений: Axelera AI

Источник изображений: Axelera AI

У Axelera «большой портфель возможностей, требующих инвестиций, и этот портфель растет», — заявил Фабрицио Дель Маффео в интервью Bloomberg. По его словам, клиенты ищут более доступные вычислительные ресурсы, более высокую эффективность и способы сокращения расходов на дорогостоящую ИИ-инфраструктуру.

Дель Маффео сообщил, что инференс может осуществляться на децентрализованной архитектуре, которая потребляет меньше энергии. Большие потребности крупных ЦОД в энергии, необходимой для обеспечения вычислительных мощностей для обучения ИИ-моделей, подвергаются критике на фоне опасений по поводу перегрузки электросетей и резкого роста цен на электроэнергию для потребителей, отметил Bloomberg.

С момента основания в июле 2021 года Axelera AI привлекла более $450 млн в виде акционерного капитала, грантов и венчурного кредитования. В частности, в марте 2025 года Axelera получила грант в размере €61,6 млн ($66 млн) от EuroHPC JU в рамках проекта Digital Autonomy with RISC-V for Europe (DARE) по разработке передового чипа Titania для использования в так называемых ИИ-фабриках. Ожидается, что этот чип появится в 2027 году.

Компания отметила, что финансовый раунд прошёл в тот момент, когда она начала поставки своему 500-му глобальному клиенту в области физического и периферийного ИИ в таких отраслях, как оборона и общественная безопасность, промышленное производство, розничная торговля, агротехнологии, робототехника и безопасность. По словам Axelera AI, её клиентская база за последний год увеличилась более чем втрое.

Постоянный URL: http://servernews.ru/1137397
25.02.2026 [16:39], Руслан Авдеев

STACK и AWS построят за $12 млрд «ответственный» ИИ ЦОД на северо-западе Луизианы

STACK Infrastructure обнародовала планы строительства многопрофильного дата-центра стоимостью $12 млрд на северо-западе Луизианы — в округах Каддо (Caddo Parish) и Божер (Bossier Parish). Партнёром компании выступила Amazon при поддержке региональных представителей публичного сектора, сообщает Converge Digest. По данным STACK, скоординированные инвестиции в несколько кампусов расширят возможности местной цифровой инфраструктуры и выступят драйверами экономической активности в регионе в долгосрочной перспективе.

Проект связан с кампусами по обоим берегам Ред-Ривер (Red River). Планируется поддержка ИИ ЦОД и облачных мощностей нового поколения. После ввода кампусов в эксплуатацию будет обеспечено более 540 рабочих мест на постоянной основе, с полной занятостью. Местные власти заявляют, что новые объекты принесут в бюджет штата и муниципалитетов миллионы долларов. Кроме того, будет финансироваться и модернизация местной инфраструктуры, в т.ч. систем водоснабжения, водоотведения и электроснабжения.

STACK намерена финансировать все инфраструктурные расходы, необходимые для поддержки работы ЦОД. При развитии будут учитываться имеющиеся мощности коммунальных компаний и уже запланированные улучшения энергосистемы. Эти шаги направлены на повышение надёжности и обеспечение долгосрочной стабильности местных тарифов. Дополнительно в соответствии с принципами «ответственного строительства» STACK будут внедряться программы оптимизации водопотребления.

 Источник изобрапжения: Michael Sanchez/unsplash.com

Источник изобрапжения: Michael Sanchez/unsplash.com

AWS и другие поставщики облачных сервисов активно диверсифицируют географическое присутствие за пределами классических рынков ЦОД вроде Северной Вирджинии, осваивая вторичные рынки, где есть земля, энергия, ВОЛС и прочая инфраструктура. STACK Infrastructure уже создала глобальную сеть ЦОД в Северной Америке, EMEA и Азиатско-Тихоокеанском регионе. Компания предлагает решения под заказ для гиперскейлеров и ИИ-сервисов.

Основная специализация — на крупномасштабных кампусах с поэтапными схемами расширения. В последние годы компания расширила присутствие в Северной Вирджинии, Кремниевой долины, Портленда, Торонто, Милана, Осло и Токио, с акцентом на регионы с доступом к возобновляемыми источниками энергии, высокой плотностью оптоволоконных сетей, а также налаженным контактам с коммунальными структурами, способными обеспечить энергией высокопроизводительные ЦОД.

Так, помимо проекта STACK-Amazon, Meta строит гигаваттный ИИ ЦОД Hyperion в округе Ричленд (Richland Parish), для которого построят ЛЭП за $1,2 млрд и газовую электростанцию, а прочие операторы дата-центров рассматривают использование площадок на севере Луизианы, связанных с региональной инфраструктурой передачи данных и расположенных недалеко от технопарка National Cyber Research Park в округе Божер.

Постоянный URL: http://servernews.ru/1137392
25.02.2026 [12:12], Владимир Мироненко

AMD поставит Meta✴ ускорители и процессоры на 6 ГВт, а Meta✴ получит акции AMD на $100 млрд

AMD и Meta заключили соглашение с целью развёртывания ИИ-инфраструктуры Meta следующего поколения мощностью 6 ГВт на базе нескольких поколений ускорителей AMD Instinct. Соглашение расширяет существующее стратегическое партнёрство компаний, координируя их планы развития в области кремниевых компонентов, систем и ПО для создания ИИ-платформ, специально разработанных для рабочих нагрузок Meta.

Соглашение рассчитано на несколько лет с поэтапной реализацией. Изначально планируется развернуть 1 ГВт во II половине 2026 года. AMD поставит кастомные ускорители AMD Instinct на базе MI450, созданные с учётом нагрузок Meta, а также процессоры AMD EPYC Venice, работающие под управлением ПО ROCm и построенные на стоечной архитектуре AMD Helios AI. Helios была разработана совместно AMD и Meta в рамках проекта Open Compute Project (OCP) — двухсекционная стойка включает в себя процессоры EPYC Venice, ускорители MI455X и DPU Pensando Vulcano, обеспечивая производительность 2,9 Эфлопс в формате FP4 на стойку. Meta также станет «ведущим заказчиком» процессоров AMD EPYC Venice и EPYC Verano, выпуск последних запланирован на 2027 год.

 Источник изображения: ***

Источник изображения: Meta

В рамках сделки AMD выпустила для Meta варрант на приобретение до 160 млн акций обыкновенного акционерного капитала AMD по цене 1¢/шт., привязанный к достижению определённых показателей, связанных с поставками Instinct. Первый транш предоставляется после поставок оборудования на 1 ГВт, а последующие транши будут предоставляться по мере дальнейших поставок. Предоставление прав на покупку акций также привязано к достижению AMD определённых пороговых значений цены акций, а исполнение прав — к достижению Meta ключевых технических и коммерческих целей. Последняя партия акций будет реализована, если все запланированные заказы будут выполнены, а цена акций AMD превысит $600. По данным Wall Street Journal, общая стоимость сделки может превысить $100 млрд, пишет SiliconANGLE.

«Это многолетнее сотрудничество, охватывающее несколько поколений, в рамках которого используются ускорители Instinct, процессоры EPYC и ИИ-системы стоечного масштаба, согласовывает наши планы по созданию высокопроизводительной, энергоэффективной инфраструктуры, оптимизированной для рабочих нагрузок Meta, ускоряя одно из крупнейших развёртываний ИИ в отрасли и ставя AMD в центр глобального развития ИИ», — отметила гендиректор AMD Лиза Су (Lisa Su). Марк Цукерберг (Mark Zuckerberg), основатель и генеральный директор Meta, назвал соглашение важным шагом для Meta по диверсификации её вычислительных ресурсов. «Я ожидаю, что AMD останется важным партнёром на долгие годы», — заявил он.

Как отметил ресурс Data Center Dynamics, это соглашение во многом похоже на сделку AMD с OpenAI, заключённую в октябре 2025 года, в соответствии с условиями которой AMD поставит OpenAI ускорители общей мощностью 6 ГВт. Ожидается, что поставки начнутся во II половине 2026 года, при этом OpenAI заявила о строительстве ЦОД мощностью 1 ГВт с использованием чипов MI450. На прошлой неделе Meta подписала соглашение с NVIDIA о поставке нескольких поколений ускорителей, в рамках которого она будет использовать её Arm-процессоры чипов наряду с «миллионами» ускорителей Blackwell и Rubin, а также сетевой платформой Ethernet Spectrum-X.

Постоянный URL: http://servernews.ru/1137375
25.02.2026 [11:55], Сергей Карасёв

Akash Systems начала поставки первых в мире GPU-серверов с алмазным охлаждением

Компания Akash Systems, базирующаяся в Сан-Франциско (Калифорния, США), объявила о начале поставок первых в мире ИИ-серверов, оснащённых системой алмазного охлаждения Diamond Cooling. Заказчиком выступил NxtGen AI PVT Ltd — крупнейший в Индии государственный облачный провайдер.

Технология Diamond Cooling основана на применении синтетических алмазов. Этот материал обладает самой высокой теплопроводностью из всех известных соединений. Akash Systems подчёркивает, что синтетические алмазы способны отводить тепло от чипов в пять раз эффективнее по сравнению с медью, что открывает качественно новые возможности в плане охлаждения современного оборудования высокой плотности для дата-центров, ориентированных на задачи ИИ и НРС.

 Источник изображения: Akash Systems

Источник изображения: Akash Systems

Akash Systems поставляет серверы на базе NVIDIA H200, для охлаждения которых применяется система Diamond Cooling. В отличие от стандартных ЦОД, оборудование в которых функционирует при температурах от +24 до +29 °C, серверы с технологией Diamond Cooled способны обеспечивать максимальную производительность при температуре окружающей среды до +50 °C. Благодаря этому снижаются общие требования к системам охлаждения дата-центров, что позволяет уменьшить эксплуатационные расходы.

 Источник изображения: Akash Systems

Источник изображения: Akash Systems

Среди одного из ключевых преимуществ Diamond Cooling разработчики называют устранение теплового троттлинга: это обеспечивает наилучшее быстродействие при выполнении ресурсоёмких задач, таких как обучение больших языковых моделей (LLM) и инференс. Кроме того, достигается повышение производительности (Флопс/Вт) до 15 % на каждый сервер. Плюс к этому существенно сокращается общее энергопотребление ЦОД, поскольку отпадает необходимость в интенсивном охлаждении.

«Система Diamond Cooling решает две самые сложные проблемы в гонке ИИ — повышение энергоэффективности и сокращение капиталовложений. В ситуации, когда увеличение вычислительной мощности на 1–2 % имеет большое значение, повышение на 15 % фактически меняет правила игры», — говорит доктор Феликс Эджекам (Felix Ejeckam), соучредитель и генеральный директор Akash Systems.

Постоянный URL: http://servernews.ru/1137363
24.02.2026 [23:00], Владимир Мироненко

SambaNova представила ИИ-ускоритель SN50 и объявила о расширении партнёрства с Intel

SambaNova представила ИИ-ускорители пятого поколения SN50 на основе фирменных RDU (Reconfigurable Dataflow Unit), которые, по словам компании, «обеспечивает непревзойденное сочетание сверхнизкой задержки, высокой пропускной способности и энергоэффективной производительности для рабочих нагрузок ИИ-инференса, коренным образом меняя экономику генерации токенов». Кроме того, объявлено об инвестициях и сотрудничестве с Intel, которая передумала покупать SambaNova целиком.

Как отметил The Register, новый чип представляет собой значительное улучшение по сравнению с SN40L 2023 года. По данным компании, SN50 обеспечивает в 2,5 раза более высокую производительность при 16-бит вычислениях (1,6 Пфлопс) и в 5 раз более высокую производительность в режиме FP8 (3,2 Пфлопс). В основе SN50 лежит архитектура потоковой обработки данных (SambaNova DataFlow). Как и в предшественнике, в SN50 используется трёхуровневая иерархия памяти, которая сочетает в себе DDR5, HBM и SRAM, что позволяет платформам на основе новинки поддерживать ИИ-модели с 10 трлн параметров и длиной контекста до 10 млн токенов.

 Источник изображений: SambaNova

Источник изображений: SambaNova

Каждый RDU оснащен 432 Мбайт SRAM, 64 Гбайт HBM2E с пропускной способностью 1,8 Тбайт/с и от 256 Гбайт до 2 Тбайт памяти DDR5. Доступность HBM2E и конфигурируемый объём DDR5 позволят повысить привлекательность и доступность SN50 на фоне дефицита памяти. Каждый ускоритель получил интерконнект со скоростью 2,2 Тбайт/с (в каждую сторону) для связи с другими чипами через коммутируемую фабрику.

Как утверждает SambaNova, по сравнению с ускорителем NVIDIA B200, SN50 обеспечивает в 5 раз большую максимальную скорость генерации токенов на пользователя и более чем в 3 раза большую пропускную способность для агентного инференса, что было продемонстрировано на примере ряда моделей, таких как Meta Llama 3.3 70B. Архитектура позволяет эффективно разгружать KV-кеш и переключаться между моделям в HBM и SRAM в режиме «горячей замены» за миллисекунды, что крайне важно для агентных рабочих нагрузок, часто переключающихся между несколькими ИИ-моделями.

Также в SN50 входные токены могут кешироваться в памяти, сокращая время предварительной обработки и время ожидания первого токена (TTFT) для запросов. Такое сочетание производительности, эффективности и масштабируемости обеспечивает преимущество в совокупной стоимости владения (TCO), по словам компании, не имеющее аналогов на рынке, для поставщиков сервисов инференса, использующих такие модели, как OpenAI GPT-OSS, с восьмикратной экономией по сравнению с NVIDIA B200. SN50 ориентирован и на такие приложения, как голосовые помощники на основе ИИ, требующие сверхнизкой задержки для работы в режиме реального времени. По заявлению компании, он сможет обеспечить работу тысяч одновременных сессий.

Также была представлена 20-кВт система SambaRack SN50, которая объединяет 16 чипов SN50. SambaRack могут масштабироваться до кластера из 256 ускорителей с пропускной способностью интерконнекта в несколько Тбайт/с, что сокращает время обработки запросов и поддерживает большие размеры пакетов. В результате можно развёртывать модели с более высокой пропускной способностью и быстродействием. Поставки SN50 клиентам начнутся во II половине 2026 года.

Раннее SambaNova сообщила о привлечении более $350 млн в рамках переподписанного раунда финансирования серии E, возглавляемого частной инвестиционной компанией Vista Equity Partners при партнёрстве с Cambium Capital. В нём также приняло «активное участие» инвестиционное подразделение Intel — Intel Capital, сообщил SiliconANGLE. Также SambaNova заявила о сотрудничестве с Intel в разработке новых высокопроизводительных и экономически эффективных систем для выполнения ИИ-задач. Цель — предоставить предприятиям альтернативу GPU, которые сегодня используются в большинстве рабочих нагрузок.

Intel инвестирует в стартап, чтобы ускорить развёртывание нового «облачного решения для ИИ» на базе существующей платформы SambaNova Cloud. Обновлённая платформа, оптимизированная для многомодальных LLM, получит процессоры Xeon, а также GPU, сетевые и иные решения Intel, в том числе в области СХД. Идёт ли речь о создании специализированных моделей Xeon, как это было в случае NVIDIA, не уточняется. В дальнейшем Intel и SambaNova планируют совместно продвигать и продавать новую платформу, используя существующие связи Intel с предприятиями и партнёрские каналы.

Партнёрство несёт выгоду обеим компаниям. SambaNova сможет воспользоваться глобальным охватом и производственной базой Intel для масштабирования своих ИИ-ускорителей, а Intel получит шанс наконец-то заявить о себе на ИИ-рынке. До сих пор Intel не могла конкурировать с NVIDIA и другими производителями чипов, такими как AMD, в ИИ-сфере. Чипы SN50 от SambaNova в сочетании с процессорами Intel Xeon потенциально могут изменить эту ситуацию.

Стоит отметить, что у Intel, которая сама чувствует себя не лучшим образом, есть довольно крупная сделка с NVIDIA. Компания также предлагает собственные GPU для инференса, пусть и значительно более простые в сравнении с SN50, и даже странные гибриды из ускорителей Habana Gaudi 3 и NVIDIA B200. Наконец, имеется и сделка с AWS по выпуску кастомных Xeon 6 и неких ИИ-ускорителей. Что касается старых «коллег» SambaNova в деле борьбы с NVIDIA, то Groq в итоге была поглощена последней, а Cerebras, наконец, подписала заметную сделку с действительно крупным игроком на рынке ИИ — OpenAI.

Постоянный URL: http://servernews.ru/1137350
24.02.2026 [17:48], Андрей Крупин

Российский рынок модульных ЦОД в 2025 году вырос на 20 %

Российский разработчик и производитель модульных центров обработки данных GreenMDC рассказал о положении дел на рынке и тенденциях развития отрасли. По оценкам GreenMDC, в 2025 году объем рынка модульных ЦОД в России увеличился на 20 %, при этом рост спроса со стороны заказчиков составил около 30 %. Размеры модульных дата-центров также продолжают увеличиваться: в 2025 году они стали достигать 50–100 стоек, а в некоторых случаях — доходить до 500 стоек и более.

Одной из главных тенденций прошедшего года стало изменение параметров IT-инфраструктуры. Если 2–3 года назад максимальная нагрузка на стойку составляла 10–15 кВт, то в 2025 году наметился переход к более высокоплотному оборудованию. Началась реализация объектов с уровнем нагрузки 25 кВт на серверный шкаф и выше. Одновременно с ростом мощностей продолжился тренд на использование Edge-ЦОД. Заказчики всё чаще стали отказываться от размещения данных в крупных централизованных дата-центрах в пользу локальных решений, приближенных к конечному потребителю. Это обеспечивает максимальную скорость передачи данных, что критично для работы многих современных систем.

 Источник изображения: пресс-служба GreenMDC / greenmdc.com

Источник изображения: пресс-служба GreenMDC / greenmdc.com

В течение года активный интерес к модульным центрам обработки данных проявляли крупные промышленные предприятия, геологоразведочные организации, государственные структуры, а также научно-исследовательские институты, внедряющие упомянутые вычислительные комплексы с целью оптимизации производственных процессов и «умного» управления системами. Заметный спрос сформировал сектор ретейла и логистики, что во многом объясняется ростом популярности маркетплейсов. Подобного класса дата-центры часто используют в складских комплексах для аналитики, управления, унификации и оптимизации различных процессов. Часто необходимость в модульных ЦОД возникает для аналитики дорожного движения.

Постоянный URL: http://servernews.ru/1137336
24.02.2026 [16:32], Владимир Мироненко

Pure Storage сменила имя на Everpure и приобрела 1touch для управления данными в эпоху ИИ

Pure Storage провела ребрендинг, сменив название на Everpure, а также объявила о приобретении стартапа 1touch, специализирующегося на контекстной аналитике данных, переходя от продажи флеш-массивов к позиционированию себя как полноценной платформы управления данными для эпохи ИИ.

«[Название] Everpure отражает ту компанию, которой мы стали, помогая предприятиям раскрыть весь потенциал своих данных. Она воплощает в себе мощь нашей архитектуры Enterprise Data Cloud и адаптивность Evergreen, укрепляя то, что всегда отличало нас, поскольку мы переосмысливаем важные рынки», — заявил генеральный директор Everpure Чарльз Джанкарло (Charles Giancarlo). Как сообщает Blocks & Files, компания «осознала», что в эпоху аналитики и ИИ клиентам необходимо управление данными, а не просто массивы хранения и информация на них. И Джанкарло неоднократно говорил об этом, касаясь темы архитектуры.

Компания сообщила, что стратегия Everpure решает две основные проблемы предприятий, позволяя клиентам создавать собственное корпоративное облако данных. Первая проблема заключается в том, что клиенты управляют своими наборами данных с помощью людей, а не ПО, что делает управление непоследовательным, трудоёмким и подверженным ошибкам. Вторая же заключается в том, что традиционная архитектура корпоративного хранения данных, разработанная для операционных систем учёта, не оптимизирована для обслуживания систем ИИ и аналитики.

 Источник изображения: Everpure

Источник изображения: Everpure

«Теперь мы можем не только автоматизировать хранение данных для наших клиентов, но и помочь им лучше управлять глобальными корпоративными данными в масштабе. С помощью Everpure Fusion и нашей архитектуры Enterprise Data Cloud предприятия могут применять управление на основе политик для всех рабочих нагрузок, выходя за рамки традиционного хранения и стандартизируя, защищая и интеллектуально управляя своими наборами данных», — сообщила Everpure.

Everpure стремится обеспечить полное управление жизненным циклом данных, их конвейерную обработку для ИИ и аналитики, характеристику и обогащение, присвоение тегов, онтологию, семантику и автономный информационный слой во всех хранилищах Pure. В этом поможет приобретение 1touch. Теперь у Everpure будет интеллектуальная плоскость управления, охватывающая локальные среды — ЦОД и периферию — и публичные облачные среды, предоставляемая как услуга, пишет Blocks & Files.

Как сообщила Everpure, «технология 1touch решает общекорпоративные проблемы с данными, повышая киберустойчивость, укрепляя суверенитет данных и соответствие нормативным требованиям, а также обеспечивая более глубокую классификацию и контекстуализацию данных для подготовки к ИИ». Компания отметила, что приобретение 1touch поможет расширить возможности управления, добавив в платформу Everpure функции обнаружения данных и семантического контекста. «Благодаря интеграции хранилища с возможностями 1touch по обнаружению, классификации, контекстуализации и обогащению данных во всех наборах данных и в любой среде — от SaaS до периферии — Everpure обеспечит готовность корпоративных данных к использованию ИИ на самом источнике», — сообщила Everpure.

 Источник изображения: Everpure

Источник изображения: Everpure

По данным Blocks & Files, 1touch привлекла $3,5 млн в рамках посевного финансирования, за которым последовал раунд A в июне 2020 года на сумму $14 млн, а также ещё $14 млн в рамках раунда B в мае 2023 года — в общей сложности $31,5 млн. В марте 2025 года 1touch сообщила о 500-% росте новых заказов в годовом исчислении, нулевом оттоке клиентов и растущем списке клиентов из списка Fortune 500. Также ею была заключена многомиллионная сделка с одной из трех крупнейших мировых компаний, выпускающих кредитные карты, которая использует 1touch.io для управления конфиденциальными данными. На основе ПО Inventa было разработано решение для анализа и оркестрации данных под названием Kontextual, которое было запущено в ноябре 2025 года.

Постоянный URL: http://servernews.ru/1137324
24.02.2026 [12:16], Сергей Карасёв

Lenovo представила индустриальные мини-компьютеры ThinkEdge на платформе Intel для ИИ-задач

Lenovo анонсировала новые компьютеры ThinkEdge небольшого форм-фактора, предназначенные для решения ИИ-задач на периферии. Дебютировали модели ThinkEdge SE10n Gen 2, ThinkEdge SE30n Gen 2 и ThinkEdge SE60n Gen 2 на аппаратной платформе Intel. Кроме того, Lenovo представила свой первый промышленный ПК моноблочного типа — устройство ThinkEdge SE50a.

ThinkEdge SE10n Gen 2 — это компактный интеллектуальный шлюз с пассивным охлаждением. Максимальная конфигурация включает чип Intel Core 3 Processor N355 (восемь ядер; до 3,9 ГГц) поколения Twin Lake и 16 Гбайт памяти DDR5 (один слот SO-DIMM). Имеется коннектор M.2 для SSD. Во фронтальной части расположены по два порта USB 2.0 и USB 3.1 (10 Гбит/с), комбинированный аудиоразъём, два последовательных порта RS-232/422/485. Сзади находятся ещё два порта USB 3.1, интерфейсы DP1.4 и HDMI 2.0b, два сетевых порта 2.5GbE. Говорится о сертификации MIL-STD- 810H и IP50 (опционально). Габариты составляют 179 × 135 × 34,5 мм, масса — 1,5 кг.

 Источник изображений: Lenovo

Источник изображений: Lenovo

Модель ThinkEdge SE30n Gen 2, в свою очередь, оснащается процессором Intel Raptor Lake — вплоть до Core 7 150U (десять ядер; до 5,4 ГГц). Поддерживается до 48 Гбайт памяти DDR5-4800. Есть коннектор M.2 для NVMe SSD и опциональный разъём M.2 для SATA SSD. Могут быть установлены модули Wi-Fi 6E / Bluetooth 5.4 и 4G/5G. Спереди доступны два порта USB 2.0, два последовательных порта RS-232/422/485 и аудиогнездо, сзади — четыре порта USB 3.1, два разъёма USB 3.0 (5 Гбит/с), четыре интерфейса HDMI 2.0b, по одному сетевому порту 1GbE и 2.5GbE. Размеры — 174 × 125 × 38,7 мм, масса — 1,1 кг.

Компьютер ThinkEdge SE60n Gen 2 — производительная edge-система, предназначенная для решения более сложных задач в области ИИ. Её максимальная конфигурация включает процессор Intel Core Ultra 7 265H семейства Arrow Lake с 16 ядрами и тактовой частотой до 5,3 ГГц. Доступны два слота SO-DIMM для модулей DDR5-5600 суммарным объёмом до 64 Гбайт, коннектор M.2 для NVMe SSD и опциональный разъём M.2 для SATA SSD. Спереди находятся по два порта USB 2.0 и RS232/422/485, сзади — четыре порта USB 3.0, два интерфейса HDMI 2.0, разъём DP 1.2, два сетевых порта 2.5GbE, два аудиогнезда. Устройство имеет размеры 240 × 150 × 59 мм и весит 2,3 кг. Возможно подключение дополнительного блока расширения с набором вспомогательных интерфейсов (4 × RS232 + 2 × USB 2.0, 4 × LAN PoE IEEE 802.3af + 2 × USB 2.0, 4 × LAN + 2 × USB 2.0 или 4 × USB 3.0 + 3 × USB 2.0).

Наконец, моноблок ThinkEdge SE50a предлагается в вариантах с дисплеем размером 12,1″ (1024 × 768 точек), 15,6″ (1920 × 1080 пикселей) и 21,5″ (1920 × 1080 точек). Устанавливается чип Intel Core 7. Объём памяти DDR5-4800 составляет до 32 Гбайт. Имеются коннекторы M.2 Key M 2280 (PCIe x4) и M.2 Key B 2242 (SATA) для SSD, а также M.2 Key E 2230 для адаптера Wi-Fi 6E / Bluetooth 5.4. Реализованы три порта USB 3.2, по одному разъёму USB 2.0 и USB Type-C, два сетевых порта 2.5GbE и последовательный порт RS-232/422/485. В оснащение включён звуковой кодек Realtek ALC888S.

Все новинки могут работать с ОС Windows 11 IoT и Ubuntu. Устройства ThinkEdge SE30n Gen 2 и ThinkEdge SE60n Gen 2 поступят в продажу в апреле нынешнего года. Выход ThinkEdge SE50n ожидается в июне, а ThinkEdge SE10n Gen 2 — в июле.

Постоянный URL: http://servernews.ru/1137304

Входит в перечень общественных объединений и религиозных организаций, в отношении которых судом принято вступившее в законную силу решение о ликвидации или запрете деятельности по основаниям, предусмотренным Федеральным законом от 25.07.2002 № 114-ФЗ «О противодействии экстремистской деятельности»;