Материалы по тегу:
|
03.02.2026 [17:15], Руслан Авдеев
OpenAI не устроили чипы NVIDIA для инференса, теперь она ищет альтернативыПо данным многочисленных отраслевых источников, компания OpenAI недовольна некоторыми ИИ-чипами NVIDIA и с прошлого года ищет им альтернативы. Потенциально это усложнит отношения между крупнейшими игроками рынка на фоне бума ИИ, сообщает Reuters. Изменения стратегии OpenAI связаны с усилением акцента на инференсе. NVIDIA доминирует в нише ускорителей для обучения ИИ-моделей, но теперь инференс стал отдельным рынком с сильной конкуренцией. Решение OpenAI — вызов доминированию NVIDIA в сфере ИИ и препятствие $100-млрд сделки между компаниями, обеспечивающей разработчику чипов долю в ИИ-стартапе в обмен на доступ к передовым ускорителям. Предполагалось, что сделка будет закрыта за недели, но вместо этого переговоры ведутся месяцами. В то же время OpenAI заключила соглашение с AMD и Cerebras (её в своё время даже хотели купить) для получения «альтернативных» чипов, а также разрабатывает собственный ИИ-ускоритель при участии Broadcom. Amazon тоже не прочь предоставить OpenAI собственные ускорители, равно как и Google. Изменение планов OpenAI изменило и потребности в вычислительных мощностях и замедлило переговоры с NVIDIA. В минувшую субботу глава NVIDIA Дженсен Хуанг (Jensen Huang) опроверг слухи о проблемах с OpenAI, назвав их «чепухой» и подчеркнув, что клиенты продолжают выбирать NVIDIA для инференса, поскольку компания обеспечивает наилучшее соотношение производительности и совокупной стоимости владения, причём в больших масштабах. Отдельно представитель OpenAI заявлял, что компания полагается на NVIDIA для поставок большинства чипов для инференса, причём именно NVIDIA обеспечивает наилучшую производительность на каждый вложенный доллар. Глава OpenAI Сэм Альтман (Sam Altman) отметил, что NVIDIA выпускает «лучшие чипы в мире» и есть надежда, что OpenAI останется её «гигантским» клиентом очень долгое время. При этом, как сообщает Reuters со ссылкой на семь источников, OpenAI не удовлетворена производительностью инференса, на которую способны чипы NVIDIA. В частности, речь идёт о специализированных задачах вроде разработки ПО с помощью ИИ и коммуникаций ИИ с другим ПО. По данным одного из источников, компании понадобится новое аппаратное обеспечение, которое в конечном счёте обеспечит в будущем порядка 10 % вычислительных мощностей для инференса. OpenAI обсуждала возможности работы с ИИ-стартапами, включая Cerebras и Groq для обеспечения чипов с более быстрым инференсом, но NVIDIA фактически поглотила Groq на $20 млрд, что привело к прекращению переговоров с компанией. Хотя формально речь идёт неэксклюзивном лицензировании технологий Groq, что в теории позволяет сторонним компаниям получить доступ к решениям Groq, фактически все разработчики перешли в NVIDIA, а оставшаяся небольшая команда отвечает за выполнение облачных контрактов с имеющимися заказчиками. Чипы NVIDIA хорошо подходят для обработки больших объёмов данных при обучении больших ИИ-моделей вроде тех, что стоят за ChatGPT. Тем не менее прогресс требует массового использования уже обученных моделей для дальнейшего инференса и ИИ-рассуждений. Как сообщается, OpenAI с 2025 года ищет альтернативы ускорителям NVIDIA с упором на компании, создающие чипы с большими объёмами интегрированной SRAM. Maia 200 от Microsoft, по-видимому, компании не очень подходит. Инференс моделей более требователен к памяти, чем обучение, а вычислительная нагрузка, наоборот, не так велика. В тоге нередко на доступ к данным уходит больше времени, чем на расчёты. NVIDIA и AMD полагаются на внешнюю память, что замедляет соответствующие процессы общения с чат-ботами. В OpenAI проблемы отметили при эксплуатации системы Codex, активно продвигаемой компанией для создания кода. В компании считают, что некоторые слабости системы связаны именно с оборудованием NVIDIA. Конкуренты OpenAI полагаются на альтернативное оборудование. Anthropic активно использует AWS Trainium и Google TPU, а Google уже много лет использует свои TPU, которые с недавних пор готова отдавать на сторону. TPU оптимизированы в том числе для инференса и в некоторых отношениях более производительны, чем GPU общего назначения AMD и NVIDIA. Когда OpenAI недвусмысленно выразила отношение к технологиям NVIDIA, та предложила компаниям, создающим ускорители с упором на SRAM, включая Cerebras и Groq, купить их бизнес. Cerebras отказалась и заключила прямую сделку с OpenAI. Groq вела переговоры с OpenAI о предоставлении вычислительных мощностей, что вызвало интерес у инвесторов, оценивших капитализацию компании на уровне $14 млрд.
03.02.2026 [15:41], Владимир Мироненко
Snowflake теперь будет сотрудничать с OpenAI напрямую, минуя MicrosoftКомпания Snowflake, специализирующаяся на облачных решениях для обработки данных с использованием ИИ, объявила о заключении партнёрского соглашения с OpenAI на сумму $200 млн с целью разработки и внедрения специализированных ИИ-решений для общих корпоративных клиентов. Сделка знаменует переход от прежнего доступа клиентов Snowflake к OpenAI при посредничестве Microsoft к прямым отношениям Snowflake с OpenAI. В рамках партнёрства модели OpenAI будут доступны в управляемом сервисе Snowflake Cortex AI и Snowflake Intelligence, что позволит 12,6 тыс. клиентов Snowflake создавать и развёртывать приложения и ИИ-агентов непосредственно на управляемых корпоративных данных во всех трёх основных публичных облаках. Эта сделка позиционирует OpenAI как одного из основных поставщиков моделей на платформе Snowflake, наряду с Anthropic, Meta✴ и Mistral AI, отметил ресурс SiliconANGLE. Как указано в пресс-релизе, основные преимущества партнёрства включают:
Партнёрство также распространяется на взаимное использование технологий внутри компаний. В Snowflake заявили, что OpenAI использует Snowflake в качестве платформы данных для отслеживания экспериментов и аналитики, а Snowflake задействует ChatGPT Enterprise для повышения производительности труда своих сотрудников и принятия решений. Сообщается, что несколько клиентов, включая платформу для дизайна Canva и производителя фитнес-браслетов WHOOP, уже используют совместное предложение для ускорения исследований, аналитики и принятия внутренних решений. Напомним, что в начале декабря Snowflake объявила о сделке с ИИ-лабораторией Anthropic на сумму $200 млн с целью обеспечения доступа клиентов к агентному ИИ в дополнение к их существующим данным. Объявление о сделке Snowflake и OpenAI сделано на фоне усиления конкуренции на рынке данных и ИИ, отметило агентство Reuters. Конкурент Snowflake — компания Databricks продолжает агрессивно масштабироваться. Недавно она привлекла $4 млрд инвестиций при оценке рыночной стоимости в $134 млрд для финансирования развития своей платформы Agent Bricks и растущего набора продуктов ИИ.
03.02.2026 [15:23], Руслан Авдеев
Сделка на триллион с четвертью: SpaceX приобрела xAIКомпания SpaceX Илона Маска (Elon Musk) приобрела основанный им же ИИ-стартап xAI. Рекордная сделка позволит реализовать амбиции мультимиллиардера в сфере освоения космоса и искусственного интеллекта. По данным Reuters, это одно из самых амбициозных слияний в технологическом секторе. По словам Маска, речь идёт не просто об очередной главе, а об очередном томе в истории SpaceX и xAI: «создать разумное солнце, чтобы понять Вселенную и распространить свет сознания до звёзд». По словам источника Reuters, в ходе сделки стоимость SpaceX оценивалась в $1 трлн, а xAI — $250 млрд. Сообщается, что инвесторы xAI получат акции SpaceX в обмен на акции xAI, по 0,1433 акции за каждую. Не исключается, что некоторые топ-менеджеры предпочтут обменять имеющиеся у них ценные бумаги на наличные, по $75,46 за акцию. Сделка ставит новый рекорд на рынке слияний и поглощений. Прежний более 25 лет удерживала Vodafone, в 2000 году купившая Mannesmann, тогда поглощение оценивалось в $203 млрд. Акции объединённой компании, согласно ожиданиям некоторых источников, будут оценены в $527/шт. Последние оценки капитализации SpaceX и xAI до сделки составляли $800 млрд и $230 млрд соответственно. По словам источников, знакомых с ситуацией, в этом году объединённая компания планирует IPO, и её оценка может составить по его результатам $1,5 трлн.
Источник изображения: xAI Сделка — очередной шаг Маска на пути создания мегакорпорации-экосистемы, также включающей Tesla, Neuralink и Boring Company. У Маска уже есть опыт объединения подконтрольных ему предприятий: в 2025 году xAI поглотила социальную сеть X, в результате ИИ-стартап получил доступ к данным и медиаресурсам социальной платформы. В 2016 году акции Tesla использовались для покупки компании SolarCity, занимавшейся солнечной энергетикой. Конечно, сделка может привлечь пристальное внимание регуляторов и инвесторов, учитывая то, что Маск занимает руководящие роли в нескольких связанных компаниях. Кроме того, не исключено перемещение из компании в компанию специалистов, патентованных технологий и даже контрактов. SpaceX имеет контракты на миллиарды долларов с NASA, Министерством обороны США и другими американскими спецслужбами, которые в той или иной мере имеют полномочия по проверке подобных сделок на предмет угрозы национальной безопасности и других рисков. Стоит отметить, что слияние SpaceX и xAI происходит весьма своевременно. На днях появилась новость, что SpaceX попросила разрешение на запуск до 1 млн спутников для формирования космических ЦОД мощностью в сотни гигаватт. Компетенции xAI в этой сфере окажутся весьма кстати.
03.02.2026 [14:51], Андрей Крупин
«Байкал Электроникс» открыл свободный доступ к документации на серийный микроконтроллер Baikal-UРоссийский разработчик микропроцессоров «Байкал Электроникс» запустил публичный портал, содержащий полный комплект документации на серийный микроконтроллер Baikal-U (BE-U1000). На площадке представлены сведения технического характера, принципиальные схемы, чертежи печатных плат, SDK, API и прочая информация для разработчиков устройств на базе упомянутого изделия. BE-U1000 представляет собой трёхъядерный 32-бит микроконтроллер общего назначения, в основу которого положена архитектура RISC-V. Характеристики устройства позволяют применять его в индустрии интернета вещей, автоматизированных системах управления технологическими процессами, машиностроении, робототехнике, промышленной автоматике, управлении электродвигателями и других отраслях. Изделие включено в реестр Минпромторга РФ и подходит для программ импортозамещения, а также государственных закупок.
Микроконтроллер Baikal-U (источник изображения: baikalelectronics.ru) По словам компании «Байкал Электроникс», размещённая в открытом доступе документация призвана упростить процесс разработки аппаратных решений на базе отечественного микроконтроллера Baikal-U, сократить время интеграции и сделать работу удобной для инженерных команд, технологических партнёров, сообществ разработчиков и образовательных проектов. ![]() Портал будет регулярно обновляться и дополняться — планируется публикация новых практических примеров применения Baikal-U и прикладных заметок, а также дальнейшее улучшение пользовательского опыта при работе с продуктами компании.
03.02.2026 [14:45], Руслан Авдеев
Спутник-платформа RuVDS для разработки космического ПО успешно выведен на орбитуРазработанный ОКБ «Пятое поколение» (АО «ОКБ5») материнский космический аппарат Mule 4T успешно вывел на орбиту спутник-платформу RUVDSSat1 российского хостинг-провайдера RuVDS, предназначенную для тестирования ПО в космосе и выполнения других испытательных задач. Все спутники формата TriSAT, в том числе RUVDSSat1, управляются ОКБ с Земли. Пуск всех аппаратов TriSAT состоялся 28 декабря 2025 года с помощью ракеты-носителя «Союз-2.1б». С этого дня до начала февраля RUVDSSat1 был пристыкован к Mule 4T и функционировал в сервисном режиме. После расстыковки с материнским аппаратом руководство проекта начало испытания аппаратов в самостоятельном полёте. По словам главы RuVDS, с февраля начался самостоятельный орбитальный этап проекта — цель первого этапа достигнута, на орбиту доставлены «лучшие статьи техноэнтузиастов». На следующих этапах планируется предоставить разработчикам ПО для спутников доступ к RUVDSSat1. Пока проводится подготовка, после неё аппарат начнёт выполнять обязанности «спутника-платформы». Расчётный срок службы аппарата RUVDSSat1 составляет 1 год. По словам ОКБ «Пятое поколение», пуск можно назвать успешным в полной мере, поскольку Mule 4T штатно вывел нагрузку на целевые орбиты. Принадлежащий RUVDS спутник перешёл к автономной работе и лётных испытаний. Пока ОКБ ожидает подтверждения лётных характеристик по результатам программы испытаний. Возможные отклонения параметров и режимов, получив телеметрию, проанализирует наземная команда. Миссия, в рамках которой планируется реализовать несколько инициатив, направленных на отработку перспективных IT-решений для космоса, носит научно-исследовательский характер. Компания RuVDS известна необычными проектами. Например, ещё в 2024 году сообщалось, что она развернёт ЦОД на дрейфующей льдине в Арктике, сбросив оборудование с борта самолёта. Летом 2025 года она запустила виртуальный ЦОД на мощностях «Ростелекома» в Заполярье. А свой первый т.н. тайнисат компания запустила в 2023 году.
03.02.2026 [12:31], Руслан Авдеев
Индия объявила 20 лет налоговых каникул для гиперскейлеров, использующих местные ЦОД для обслуживания зарубежных облачных клиентовИндия анонсировала 20 лет налоговых льгот для гиперскейлеров, использующих дата-центры, расположенные в стране, для обслуживания клиентов со всего мира, сообщает CNBC. Предполагается, что такое предложение может привлечь связанные с ИИ бизнесы в активно развивающийся регион. Правда, стремление многих стран к цифровому суверенитету может помешать этим планам. По словам экспертов, стоимость инфраструктуры ЦОД в Индии и без того невысока, а в совокупности с налоговыми каникулами использование индийских ЦОД для гиперскейлеров станет ещё привлекательнее в сравнении с хабами в Сингапуре, ОАЭ и Ирландии. По мнению экспертов, это изменит положение Индии — она станет не только «рынком потребления» услуг ЦОД, но и глобальным хабом для облачных и ИИ-вычислений. Пока же гиперскейлеры сталкиваются со значительными рисками, связанными с корпоративными налогами, если имеют в Индии «значительное экономическое присутствие». Сегодня работа ЦОД иностранных гиперскейлеров в Индии рассматриваются как «постоянное представительство», а прибыль от этой деятельности облагается налогом в 35 %, не считая дополнительных сборов. Теперь облачные сервисы, предоставляемые зарубежными гиперскейлерами с использованием дата-центров, принадлежащих местным застройщикам и управляемых ими же, будут пользоваться налоговыми каникулами до 2047 года. Ожидается, что это ускорит инвестиции в ЦОД. Пока роль Индии в мировой гонке ИИ была ограничена, поскольку стране недостаёт ИИ-моделей местного происхождения, производства чипов и больших ЦОД в сравнении с США и Китаем. Предложенные налоговые каникулы и инвестиции, которые они, вероятно, принесут, могут усилить роль Индии в глобальной гонке технологий искусственного интеллекта. Многие техногиганты уровня Microsoft уже анонсировали миллиардные инвестиции в местную ИИ-инфраструктуру. Ещё более крупные инвестиции готовит Amazon. Помимо попыток привлечь гиперскейлеров, Индия имеет большие амбиции в сфере ИИ-полупроводников, поощряя их разработку и производство в стране. Налоговые каникулы должны сыграть на руку местным IT-компаниям и облачным бизнесам вроде Infosys, Wipro, TCS, HCL Tech и Jio, равно как и местным строителям ЦОД. Среди выгодоприобретателей от налоговых каникул, вероятно, будет Google, совместно с местной AdaniConneX намеренная построить дата-центр за $15 млрд на территории нового ИИ-хаба на юге Индии. В последние годы спрос на ЦОД значительно вырос, в основном в связи с масштабированием ИИ-задач, требующих огромных вычислительных мощностей, электроэнергии, охлаждения и сетевой инфраструктуры. В глобальный рынок ЦОД в 2025 году вложили более $61 млрд. Сегодня мощность индийских ЦОД составляет около 1,2 ГВт, но в следующие пять лет рынок должен преодолеть отметку в 3 ГВт. Согласно январскому докладу JLL, мировая мощность ЦОД составила около 100 ГВт и должна удвоиться до 200 ГВт к 2030 году благодаря буму ИИ. В Индии считают, что налоговые каникулы уберут крупнейшее препятствие для выхода зарубежных гиперскейлеров на индийский рынок. По мнению экспертов, поскольку рынки Азиатско-Тихоокеанского региона уровня Японии, Австралии, Китая и Сингапура достигли «зрелости», а Сингапур, ко всему прочему, ещё и страдает от дефицита земли и других ресурсов, Индия может стать новым перспективным местом для развития инфраструктуры ЦОД. В стране много места для крупномасштабных строек ЦОД, а в сравнении с ИИ-хабами в Европе, цены на электричество довольно невысоки. С учётом растущих возможностей развития возобновляемой энергии, критической для питания дата-центров, модель индийского технологического рывка выглядит вполне убедительно. Как заявляют индийские эксперты, налоговые каникулы для зарубежных облачных компаний могут стать катализатором крупных глобальных инвестиций, увеличения экспортной выручки и приведут к созданию долгосрочных рабочих мест и других возможностей.
03.02.2026 [11:40], Сергей Карасёв
Giga Computing представила материнские платы для рабочих станций на базе Intel Xeon 600Компания Giga Computing, подразделение Gigabyte Group, анонсировала одни из первых материнских плат для построения рабочих станций на новейшей аппаратной платформе Intel Xeon 600. Дебютировали модели MW94-RP0 и MW54-HP0 на наборе логики Intel W890 с возможностью установки одного процессора в исполнении LGA 4710-2 (Socket E2) с показателем TDP до 350 Вт. Модель MW54-HP0 получила четырёхканальную подсистему памяти DDR5 (восемь слотов с поддержкой RDIMM-6400 и MRDIMM-8000) и 80 линий PCIe 5.0. Реализованы восемь портов SATA-3, три коннектора M.2 2280 (PCIe 4.0 x4), пять слотов PCIe 5.0 x16, два сетевых порта 2.5GbE на основе Intel I226-LM и выделенный сетевой порт управления 1GbE. В набор разъёмов входят один порт USB 3.2 Gen2x2 Type-C (20 Гбит/с), пять портов USB 3.2 Gen2x1 Type-A (10 Гбит/с), аналоговый интерфейс D-Sub, последовательный порт, три гнезда RJ45 и набор аудиогнёзд.
Источник изображений: Giga Computing В свою очередь, плата MW94-RP0 располагает восьмиканальной подсистемой памяти (восемь слотов для модулей DDR5) и 128 линиями PCIe 5.0. В оснащение входят два разъёма MCIO 8i (4 × NVMe; PCIe 5.0), один коннектор SlimSAS 8i (2 × NVMe; PCIe 4.0), два коннектора SlimSAS 4i (8 × SATA), четыре разъёма M.2 2280/22110 (PCIe 5.0 x4), шесть слотов PCIe 5.0 x16, два сетевых порта 10GbE на базе Intel X710-AT2 и выделенный сетевой порт управления 1GbE. Интерфейсный блок содержит один порт USB 3.2 Gen2x2 Type-C и три порта USB 3.2 Gen2x1 Type-A, разъём D-Sub, последовательный порт, три гнезда RJ45 и аудиогнёзда на 3,5 мм. ![]() Обе новинки укомплектованы контроллером ASPEED AST2600 и звуковым кодеком Realtek ALC897 HD Audio. Диапазон рабочих температур — от +10 до +40 °C. Плата MW54-HP0 выполнена в форм-факторе ATX с размерами 304,8 × 244 мм, версия MW94-RP0 — E-ATX с габаритами 304,8 × 330,2 мм.
03.02.2026 [11:33], Сергей Карасёв
86 P-ядер, 128 линий PCIe 5.0 и 8 каналов DDR5-6400/8800: Intel представила чипы Xeon 600 для рабочих станцийКорпорация Intel представила процессоры семейства Xeon 600 для рабочих станций. В основу чипов положена архитектура Xeon 6700P Granite Rapids. Изделия приходят на смену Xeon W-2500/W-3500 (Sapphire/Emerald Rapids), которые дебютировали летом 2024 года. Процессоры Xeon 600 содержат вычислительные ядра Redwood Cove, количество которых варьируется от 12 до 86. Для сравнения, решения Xeon W-3500 насчитывают максимум 60 ядер. Важно отметить, что задействованы исключительно производительные Р-ядра (энергоэффективные Е-ядра в конструкцию не входят). Благодаря технологии многопоточности возможна обработка одновременно до 172 потоков инструкций. Базовая тактовая частота у новых CPU варьируется от 2,0 ГГц до 3,5 ГГц, а частота в турбо-режиме — от 4,6 до 4,9 ГГц. Объём кеша третьего уровня составляет от 48 до 336 Мбайт, показатель TDP — от 150 до 350 Вт. В серию вошли модели с разблокированным множителем для разгона («Х» в обозначении). Чипы Xeon 630 начального уровня предлагает четыре канала памяти DDR5 и 80 линий PCIe 5.0, в то время как более мощные процессоры Xeon 650/670/690 содержат восемь каналов памяти и 128 линий PCIe 5.0. Говорится о возможности использования модулей RDIMM-6400 и MRDIMM-8000 (только Xeon 670/690). Максимально допустимый объём ОЗУ составляет 4 Тбайт. Реализована поддержка CXL 2.0, что позволяет формировать дополнительны пулы памяти. По заявлениям Intel, по сравнению с процессорами для рабочих станций предыдущего поколения прирост производительности в однопоточном режиме у Xeon 600 составляет до 9 %, в многопоточном режиме — до 61 %. Улучшения затронули встроенный аппаратный ускоритель Intel AMX (Advanced Matrix Extensions), предназначенный для повышения производительности в задачах ИИ, глубокого обучения и анализа данных. Если ранее он поддерживал операции INT8 и BFloat16, то теперь добавлен режим FP16. Среди прочего упомянуты технологии Intel vPro Enterprise и Intel Deep Learning Boost.
В паре с процессорами Xeon 600 будет использоваться новый набор логики Intel W890. Для подключения к CPU служит канал DMI 4.0 x8, обеспечивающий пропускную способность немногим менее 16 Гбайт/с. Чипсет предусматривает поддержку интерфейса USB 3.2 Gen 2×2 (20 Гбит/с), портов SATA-3, дополнительных линий PCIe 4.0, сетевых интерфейсов 1GbE и 2,5GbE, а также Wi-Fi 7. При заказе процессоров Xeon 600 корпорация Intel призывают клиентов убедиться, что новая платформа подходит для их рабочих нагрузок. Чипы поступят в продажу в конце марта по цене от $499 до $7699. Некоторые модели будут доступны в коробочной версии: это изделия Xeon 654 (18 ядер), Xeon 658X (24 ядра), Xeon 676X (32 ядра), Xeon 678X (48 ядер) и Xeon 696X (64 ядра). Материнские платы на чипсете W890 готовят такие компании, как ASUS, Supermicro и Gigabyte. Готовые системы на основе Xeon 600 предложат Dell, HP, Supermicro, Boxx, Pudget Systems и другие поставщики. Вместе с тем, как отмечает The Register, время для анонса Xeon 600 выбрано не совсем удачно. Чипы выходят на рынок на фоне проблем с цепочками поставок, из-за которых резко подскочили цены на память. Так, комплект из восьми модулей DDR5 RDIMM на 32 Гбайт каждый обойдётся более чем в $4000: это примерно на $1500 больше, чем шестью месяцами ранее. Сформировавшаяся ситуация может негативно отразиться на спросе на Xeon 600 среди потребителей.
03.02.2026 [08:38], Владимир Мироненко
VDURA предложила программу Flash Relief Program для смягчения дефицита флеш-памятиVDURA, заявившая, что теперь SSD корпоративного класса уже в 16 раз дороже HDD аналогичной ёмкости, анонсировала программу Flash Relief Program, в рамках которой клиенты получат доступ к хранилищам, по ёмкости и быстродействию не уступающие массивам VAST Data и WEKA, но вполовину дешевле с точки зрения TCO. В условиях дефицита NAND-памяти цены на SSD выросли в два-три раза, а гибридная архитектура VDURA, использующая накопители разных типов, обеспечивает превосходную производительность и ёмкость при вдвое меньшей стоимости, заявила компания.
Источник изображения: VDURA Как сообщает VDURA, клиенту достаточно предоставить требования к конфигурации файлового хранилища VAST, WEKA или любой другой высокопроизводительной All-Flash СХД, включая требования по производительность (пропускная способность, IOPS, задержка) и требования к ёмкости (сырая, полезная, эффективная), а VDURA в течение 24 ч. предоставит конкурирующее предложение, которое:
VDURA называет следующие преимущества своего продукта:
Предложение VDURA заключается в том, что её гибридная параллельная ФС на основе SSD/HDD может компенсировать рост цен на SSD лучше, чем что-либо, предлагаемое производителями массивов All-Flash, отметил ресурс Blocks & Files. Если цены на SSD продолжат расти и не будет решена проблема дефицита, подобные заявления могут заставить потенциальных покупателей массивов All-Flash переключиться на гибридные системы СХД с автоматическим многоуровневым хранением данных. И даже использование б/у SSD, как предлагает VAST Data, вряд ли поможет в такой ситуации.
02.02.2026 [23:44], Андрей Крупин
Экология в приоритете: проект энергоэффективного ЦОД МТС получил прописку в федеральном реестре углеродных единицКомпания «Мобильные ТелеСистемы» сообщила о регистрации проекта «Строительство ЦОД с энергоэффективной системой охлаждения на площадке ПАО "МТС"» в российском национальном реестре углеродных единиц. Проект энергоэффективного дата-центра реализован МТС на территории модульного ЦОД в Тосненском районе Ленинградской области. В основе проектного решения лежит использование энергоэффективной адиабатической системы охлаждения для сокращения показателей удельного потребления энергоресурсов на единицу произведённого холода. Ожидается, что в перспективе до 2032 года проект позволит сократить выбросы парниковых газов совокупным объёмом 1375 тонн СО2-эквивалента. «Ленинградский модульный ЦОД МТС — первый климатический проект в российской телеком-отрасли. Согласно углеродной стратегии, наша цель — снижение углеродоемкости на 60 % к 2030 году по сравнению с 2021 годом, и мы рассчитываем, что тиражирование строительства современных ЦОД повысит энергоэффективность компании за счёт снижения потребления электроэнергии. Регистрация проекта в реестре — важный шаг к достижению стратегических задач МТС в области управления выбросами парниковых газов и углеродного менеджмента», — говорится в заявлении оператора. |
|



