Лента новостей

26.10.2025 [23:55], Владимир Мироненко

Amazon проморгала рынок и теперь её клиенты бегут за ИИ в облака конкурентов

Amazon, стоящая у истоков облачного бизнеса, уже не первый год отстаёт от конкурентов по темпам его роста. И на ИИ-рынке, по общему мнению, она оказалась в роли догоняющей на фоне стремительного роста конкурентов, пишет агентство Bloomberg. На прошлой неделе стало известно, что Google Cloud предоставит Anthropic до 1 млн своих ИИ-чипов TPU, что свидетельствует об углублении партнёрства Google с быстрорастущим ИИ-стартапом и наносит удар по Amazon, инвестировавшей в Anthropic миллиарды долларов.

AWS по-прежнему лидирует на облачном рынке, но Microsoft наращивает объём корпоративных продаж быстрее, чем Amazon. В прошлом году, по оценке Gartner, облачное AWS заняла 38 % корпоративных расходов на услуги облачной инфраструктуры, тогда как ещё в 2018 году, по данным компании, у «дочки» Amazon было почти 50 % этого рынка.

 Источник изображений: AWS

Источник изображений: AWS

Чтобы выяснить причины сложившейся ситуации, агентство Bloomberg провело опрос аналитиков в области облачных вычислений и финансов, а также у компаний, которые используют или перепродают облачные решения Amazon, и среди 23 нынешних и бывших сотрудника AWS, работающих в сфере разработки, управления продуктами, маркетинга, продаж и поддержки. Одной из главных причин, тормозящих работу AWS, а также влияющих на гибкость, они назвали внутреннюю бюрократию. Респонденты отметили слабый старт компании в области ИИ, а также то, что она стала менее привлекательной для стартапов.

Вместе с тем AWS верна своей давней стратегии на фоне быстро меняющегося рынка. Участники опроса признают, что AWS сохраняет значительные преимущества и лояльность клиентов, но опасаются, что компания теряет свои позиции в погоне за конкурентами, которых когда-то опережала. На следующей неделе Amazon объявит квартальные финансовые результаты, которые, как ожидается, покажут рост облачного бизнеса на 18 % до $32 млрд, что уступает показателю роста годом ранее (19 %).

Сказался и серьёзный рост конкуренции на облачном рынке в последние пару лет. Oracle, которую когда-то считали аутсайдером в облачной индустрии, теперь заключает многомиллиардные контракты в области ИИ, хотя и не все верят в её успех. Также наращивают мощности Google и неооблака. Дэйв Маккарти (Dave McCarthy), консультант IDC, отметил, что выбор облачных предложений, ранее ограничивавшийся сервисами Amazon и Microsoft, стал гораздо больше, и это не сулит ничего хорошего Amazon. «Это создаёт новое конкурентное давление, которого раньше не было», — подчеркнул он.

Стремясь вернуть себе инициативу, AWS реорганизовала команды по инжинирингу и продажам, провела кадровые перестановки в руководстве, а также отказалась от некоторых собственных правил разработки ради ускорения вывода продуктов на рынок и попыталась сократить бюрократию, возникшую после масштабного набора сотрудников во время пандемии. Кроме того, в этом месяце AWS выпустила Quick Suite, призванный заменить её предыдущий основной ИИ-инструмент для корпоративных клиентов, и в декабре ожидается запуск ряда новых и обновлённых ИИ-сервисов.

Представитель Amazon Селена Шен (Selena Shen) сообщила в электронном письме Bloomberg, что AWS по-прежнему лидирует на рынке облачных технологиях с большим отрывом, а её ИИ-сервисы, такие как Amazon Bedrock, SageMaker и Kiro, пользуются спросом у клиентов, в том числе из-за выгодного соотношении цены и производительности фирменных ИИ-ускорителей Trainium2.

Amazon заключила за последнее время крупные сделки с широким кругом клиентов, включая Delta Air Lines, Volkswagen, Управление общих служб США (GSA) и State Farm, отметила Шен. «Если вы посмотрите на любой список самых инновационных или быстрорастущих стартапов мира, вы обнаружите, что подавляющее большинство из них в значительной степени разворачивают рабочие нагрузки в AWS», — добавила она, ссылаясь, среди прочего, на списки Forbes и CNBC. Тем не менее, по общему мнению, оставаясь лидером в области облачной инфраструктуры, AWS отстаёт от своих конкурентов в плане привлечения бизнеса, создающего или использующего ИИ-модели.

В частности, AWS не поверила в то, что Anthropic сможет монетизировать свои разработки, поэтому стартап в поисках необходимых вычислительных мощностей обратился к Google Cloud. Когда стартап привлёк инвестиции в начале 2023 года, среди инвесторов была и Google. Лишь в сентябре Amazon спохватилась и инвестировала в Anthropic первый из двух запланированных траншей в размере $4 млрд, обязав Anthropic использовать AWS и собственные чипы Amazon, а также предлагать клиентам Amazon модели Claude. Объём инвестиций шокировал ветеранов Amazon, знавших, что компания крайне не любит платить за что-либо по рыночным ценам. Некоторые посчитали это отчаянием, пишет Bloomberg.

Amazon долгое время гордилась тем, что работает в режиме стартапа, предоставляя свободу независимым командам. Но этот принцип оказался неэффективным при разработке ИИ-моделей, поскольку научные и инженерные подразделения AWS, розничный отдел Amazon и группы Alexa и устройств занимались схожей, иногда дублирующей работой по обучению собственных ИИ-моделей. На конференции AWS re:Invent в ноябре 2023 года компания сделала упор на ИИ, а чуть позже развернула собственного ИИ-ассистента Amazon Q, который, по словам аналитиков, не принёс ничего революционного рынку, уже переполненному чат-ботами.

Amazon провела реорганизацию и централизовала большинство работ по разработке передовых моделей, однако развитие AWS замедлилось. В том числе из-за усложнения иерархии после всплеска найма в результате пандемии. В условиях растущей бюрократии принятие решений происходило не так быстро, как раньше. Кроме того, поскольку ПО AWS стало критически важным для крупных корпоративных и государственных клиентов, в компании установили процедуры, призванные снизить риск того, что невнимательный или недовольный сотрудник может сломать что-то важное — это тоже замедляет работу. В некоторых случах часть сотрудников даже заставили получать разрешения на отправку писем высшему руководству.

Шен сообщила, что с 2024 года AWS наняла множество новых руководителей и продвигает по службе тех, кто «демонстрирует производительность и готовность к следующему уровню», и что культура AWS остаётся сильной. Сменивший Адама Селипски (Adam Selipsky) на посту гендиректора AWS Мэтт Гарман (Matt Garman), пользующийся большим доверием разработчиков, частично вернул культуру прошлого. От руководителей продуктов требуется открытое признание ошибок и извлечённых уроков, идеи сотрудников принимаются в виде коротких питчей, а сами разработчики ПО работают посменно, обрабатывая запросы поддержки и инциденты по своим продуктам, чтобы понять потребности клиентов. Кроме того, Гарман завершил или прекратила разработку около трёх десятков устаревших и непопулярных продуктов, перенаправив силы на разработку ИИ-инструментов.

Тем не менее, сотрудники выражают обеспокоенность тем, что Amazon теряет привлекательность для стартапов. AWS, как известно, помогла зарождению Netflix, но в последние годы порой отдавала приоритет корпорациям с большими расходами, не желая тратить силы на стартапы, которые могут и не стать долгосрочными богатыми клиентами. По словам аналитиков и стартап-консультантов, Google, используя свою известность, инженеров и навыки в передовых ИИ-инструментах, смогла привлечь многих ведущих стартапов в этой сфере. «Если вы сегодня не привлекаете местные стартапы в сфере ИИ, которые в ближайшие пару лет вырастут в пять-десять раз, это может стать реальной проблемой для бизнеса», — сказал Джош Бек (Josh Beck), аналитик Raymond James. Шен же назвала AWS «лучшим выбором для стартапов», приведя в пример Perplexity и Cursor.

Но, к примеру, Пит Шваб (Pete Schwab), основатель стартапа Stronghold Labs в области ИИ-анализа видео, выбрал для своего детища площадку Google из-за её ориентации на небольших разработчиков и качества внутренних ИИ-моделей, хотя сам до этого 10 лет проработал в Amazon. AWS «раньше гораздо лучше привлекала таких людей, как мы», — сказал Шваб. Существующие клиенты AWS сейчас также обращаются к услугам её конкурентов, особенно в ИИ-сфере. Например, Grammarly, пользуется AWS, но для ИИ-решений использует модели OpenAI, в том числе в Microsoft Azure, а также Meta Llama, поскольку AWS Bedrock не отвечает ценовым и другим потребностям компании, заявил технический директор стартапа.

В начале этого месяца компания представила Quick Suite — чат-бот и набор ИИ-агентов, предназначенных для анализа данных, создания отчётов или резюмирования веб-контента, которые ориентированы на офисных сотрудников. В этой области компания не добилась особого успеха. Руководители в частном порядке признают, что, в отличие от Google и Microsoft, которые могут демонстрировать свои ИИ-инструменты миллиардам клиентов поисковой системы или пользователей ПК, естественный охват AWS ограничен гораздо более узким сообществом разработчиков.

Для этой аудитории AWS продолжает расширять возможности Bedrock. Bedrock считается самым успешным ИИ-продуктом компании, число пользователей которого исчисляется десятками тысяч. По словам клиентов и партнёров, отделы продаж сделали увеличение их количества приоритетом. Однако Amazon может преуспеть в эпоху ИИ, просто выступая в качестве поставщика инфраструктуры для других компаний и управляя ею экономически эффективно. По мнению аналитиков, большая часть корпоративных проектов в области ИИ носит экспериментальный характер. Если проект получит более широкую поддержку, экономия средств и надёжная инфраструктура (если не учитывать недавний сбой) — два основных преимущества AWS — станут ещё важнее, утверждают руководители компании.

Постоянный URL: https://servernews.ru/1131411
26.10.2025 [14:20], Сергей Карасёв

d-Matrix представила систему SquadRack для ИИ-инференса со сверхнизкой задержкой

Компания d-Matrix анонсировала систему SquadRack — стоечное решение для пакетного инференса со сверхнизкой задержкой. Это, как утверждается, первый в отрасли продукт данного класса. В его разработке приняли участие специалисты Arista, Broadcom и Supermicro.

В основу SquadRack положена серверная платформа Supermicro X14 AI. Судя по изображениям, используется модель SYS-522GA-NRT, которая допускает установку двух процессоров Intel Xeon 6900 (Granite Rapids) и 24 модулей оперативной памяти DDR5-8800. Доступны 24 фронтальных отсека для SFF-накопителей U.2/U.3 (NVMe). Устройство выполнено в форм-факторе 5U.

Система SquadRack предусматривает использование ускорителей d-Matrix Corsair. Их архитектура основана на модифицированных ячейках SRAM для вычислений в памяти (DIMC), работающих на скорости около 150 Тбайт/с. По заявлениям d-Matrix, решение обеспечивает непревзойдённую производительность ИИ-инференса: быстродействие достигает 2,4 Пфлопс (8-бит вычисления). Кроме того, задействованы IO-карты d-Matrix JetStream, предназначенные для распределения нагрузок инференса. Одна такая карта может обслуживать до четырёх экземпляров Corsair, обеспечивая сетевую задержку на уровне 2 мкс.

 Источник изображения: d-Matrix

Источник изображения: d-Matrix

Решение SquadRack также оборудовано PCIe-коммутаторами Broadcom для масштабирования в пределах одного узла. В свою очередь, связь между узлами обеспечивают коммутаторы Arista Leaf Ethernet, подключённые к картам JetStream. Применяется программный стек d-Matrix Aviator.

В одну стойку могут быть установлены до восьми экземпляров SquadRack, что позволяет с высокой скоростью обрабатывать модели ИИ, насчитывающие до 100 млрд параметров. В целом, возможно масштабирование до сотен узлов в нескольких серверных стойках.

Постоянный URL: https://servernews.ru/1131408
26.10.2025 [14:15], Сергей Карасёв

Micron представила 192-Гбайт модули памяти SOCAMM2 для ИИ-серверов

Компания Micron Technology анонсировала компактные модули оперативной памяти SOCAMM2 (Small Outline Compression Attached Memory Modules), предназначенные для использования в серверах для задачи ИИ. Изделия, выполненные на энергоэффективных чипах LPDDR5X, имеют ёмкость 192 Гбайт.

Модули SOCAMM первого поколения были анонсированы в марте нынешнего года. Их размеры составляют 14 × 90 мм. При изготовлении применяется техпроцесс DRAM 1β (пятое поколение 10-нм класса), а объём равен 128 Гбайт. Решения SOCAMM2 производятся по наиболее передовой технологии Micron — DRAM 1γ (шестое поколение памяти 10-нм класса). По сравнению с оригинальными модулями ёмкость SOCAMM2 увеличилась в полтора раза при сохранении прежних габаритных размеров. Энергетическая эффективность при этом повысилась более чем на 20 %. По сравнению с сопоставимыми по классу решениями DDR5 RDIMM энергоэффективность улучшена более чем на 66 %. Заявленная скорость передачи данных достигает 9,6 Гбит/с на контакт.

 Источник изображения: Micron

Источник изображения: Micron

Таким образом, по заявлениям Micron, технологии, положенные в основу SOCAMM2, превращают маломощную память LPDDR5X, изначально разработанную для смартфонов, в эффективные решения для дата-центров. При этом модульная конструкция SOCAMM2 и инновационная технология стекирования повышают удобство обслуживания и облегчают проектирование серверов с жидкостным охлаждением.

Пробные поставки образцов новой памяти уже начались. Micron принимает активное участие в разработке спецификации JEDEC SOCAMM2 и тесно сотрудничает с отраслевыми партнёрами с целью вывода решений на коммерческий рынок. Пока что модули SOCAMM используются в NVIDIA GB300.

Постоянный URL: https://servernews.ru/1131403
25.10.2025 [22:49], Сергей Карасёв

Микрооблако с микро-EPYC: Supermicro представила 20-узловой сервер на базе процессоров AMD Grado

Компания Supermicro анонсировала сервер 6U20N MicroBlade (MBA-315R-1G x20), построенный на аппаратной платформе AMD. Система может применяться для решения таких задач, как облачные вычисления, ИИ-инференс, веб-хостинг, потоковая передача видео и пр.

 Источник изображений: Supermicro

Источник изображений: Supermicro

Устройство, выполненное в форм-факторе 6U, имеет 20-узловую конфигурацию. Каждый узел может нести на борту один процессор EPYC 4005 Grado с 16 вычислительными ядрами (32 потока) и показателем TDP до 170 Вт. Применяется воздушное охлаждение. Доступны четыре слота для модулей оперативной памяти DDR5-5600 суммарным объёмом до 192 Гбайт.

Каждый узел оснащён двумя сетевыми интерфейсами 25GbE на базе Mellanox ConnectX-4, контроллером Aspeed AST2500 BMC и двумя коннекторами M.2 для SSD (NVMe). Опционально могут устанавливаться два накопителя U.2 (NVMe). Кроме того, возможен монтаж GPU-ускорителя формата FHHL с интерфейсом PCIe 5.0.

Сервер 6U20N MicroBlade может нести на борту два Ethernet-коммутатора и два модуля управления. Питание обеспечивают восемь блоков мощностью 2200/3000 Вт с сертификатом 80 Plus Titanium. Диапазон рабочих температур простирается от +10 до +35 °C. В одну серверную стойку стандарта 48U могут быть установлены до восьми таких систем, что в сумме даст 160 вычислительных узлов.

В целом, как отмечается, серверы MicroBlade на процессорах EPYC 4005 построены на основе уникальной модульной архитектуры Supermicro, которая обеспечивает сокращение количества кабелей до 95 %, экономию пространства до 70 % и снижение энергопотребления на 30 % по сравнению с традиционными серверами типоразмера 1U.

Постоянный URL: https://servernews.ru/1131380
25.10.2025 [22:25], Сергей Карасёв

К масштабному сбою AWS привела ошибка в средствах автоматизации DNS

Компания Amazon опубликовала развёрнутый отчёт о причинах масштабного сбоя в работе облака Amazon Web Services (AWS). Проблемы, затронувшие многочисленные сервисы, возникли из-за ошибки в программном обеспечении для автоматизации.

Сбой произошел в регионе us-east-1 в Северной Вирджинии. Утверждалось, что первопричиной проблем стала ошибка DNS. В общей сложности были затронуты более 110 собственных служб AWS. По данным сайта Downdetector, который отслеживает сбои в работе интернета, от пользователей по всему миру поступили более 8,1 млн сообщений о проблемах. Пострадали такие платформы, как Signal, Snapchat, Roblox, Duolingo, Apple Music, Apple TV, Lyft, Fortnite, Disney+, Venmo, Doordash, Hulu и многие другие.

Как сообщает Amazon, сбой возник из-за неполадок в работе DynamoDB, с которой связаны сотни тысяч записей DNS, необходимых для работы огромного гетерогенного парка балансировщиков нагрузки в каждом регионе. При этом применяются средства автоматизации для обновления записей DNS и устранения любых проблем.

 Источник изображения: Amazon

Источник изображения: Amazon

Однако 20 октября система управления DNS для DynamoDB в ЦОД Amazon в Северной Вирджинии оказалась в состоянии гонки (race condition), в результате чего DNS-запись для региональной точки подключения к DynamoDB (dynamodb.us-east-1.amazonaws.com) оказалась пустой, хотя резервирование систем DNS как раз должно было предотвратить подобную ситуацию. Устранить неполадку самостоятельно система автоматизации не смогла, поэтому пришлось привлечь к решению проблемы специалистов. При этом DynamoDB оказалась недоступна для десятков собственных сервисов AWS и бесчисленного множества клиентских служб и приложений, которые используют её в своей работе, что привело к каскадным сбоям онлайн-сервисов.

Amazon временно отключила систему автоматизации DNS для DynamoDB по всему миру, пообещав исправить в ней баги и добавив новые проверки. Также дополнительные механизмы контроля и новые системы проверки получат балансировщики NLB и службы EC2. Впрочем, эксперты отмечают, что данный инцидент наглядно показал, насколько мир может быть зависимым от единых точек отказа. Это касается не только AWS, но и других крупных облачных провайдеров, на инфраструктуру которых полагается огромное количество интернет-сервисов.

Постоянный URL: https://servernews.ru/1131379
24.10.2025 [22:50], Владимир Мироненко

ИИ помог Google перенести 30 тыс. внутренних нагрузок на Arm-процессоры Axion, на очереди ещё 70 тыс.

Google объявила, что портировала около 30 тыс. внутренних нагрузок на Arm-архитектуру и планирует перенести ещё порядка 70 тыс. Помогает ей в этом ИИ, но пока не слишком успешно. При этом целиком отказываться от x86-процессоров в пользу собственных Arm-чипов Axion компания пока не планирует. YouTube, Gmail и BigQuery уже работают как на системах с x86, так и c Arm. В процессе портирования приходится уделять внимание архитектурным различиям, таким как особенности работы с числами с плавающей запятой, параллелизм, платформенно-зависимые технологии и производительность.

Специалисты Google рассказали, что сначала они перенесли некоторые из ключевых задач, такие как F1, Spanner и Bigtable, используя стандартные методы разработки ПО с привлечением инженеров. Оказалось, что современные компиляторы и инструменты, такие как санитайзеры и фаззеры, избавили разработчиков от множества сюрпризов. Большая часть времени по факту ушла на исправление тестов, обновление сложных систем сборки и развёртывания, как правило, для самых старых и самых нагруженных сервисов, устранение проблем с массовым развёртыванием в рабочих средах и принятие мер по предотвращению дестабилизации критически важных систем.

 Источник изображения: Google

Источник изображения: Google

30 тыс. приложений — это достаточно большой объём кода для того, чтобы задуматься об автоматизации задач. Поэтому компания создала новый мультиагентный ИИ-инструмент CogniPort для исправления ошибок сборки и тестирования. Он успешно справлялся с проблемами примерно в 30 % случаев и лучше всего — с исправлениями тестов, платформенно-зависимыми особенностями и особенностями представления данных. Эффективность не впечатляет, но Google предстоит портировать ещё десятки тысяч нагрузок. пакетов.

 Источник изображения: Google

Источник изображения: Google

Кроме того, компания внедрила новую систему непрерывного мониторинга и развёртывания мультиархитектурных нагрузок CHAMP (Continuous Health Monitoring Platform), которая автоматически отбрасывает задачи, работа которых на Arm сопровождается проблемами вроде циклических сбоев или недостаточной производительности, для последующих отладки и профилирования. Чем больше будет запущено нагрузок, тем лучше Borg, управляющий кластерами внутри Google, сможет распределять задачи таким образом, чтобы эффективно использовать Arm-серверы.

Это позволит сэкономить затраты, поскольку по словам Google, системы на базе Axion обеспечивают на 65 % лучшее соотношение цены и производительности, чем экземпляры на базе x86, а также на 60 % более высокую энергоэффективность. Ранее Google, по неофициальным данным, высказывала недовольство показателем TCO последних поколений Intel Xeon. Возможно, это побудило компанию заняться созданием собственного процессора.

 Источник изображения: Google

Источник изображения: Google

Первой на этот путь, тоже ради улучшения TCO, ступила Amazon, которая разработала уже четыре поколения Arm-процессоров Graviton. В прошлом году компания похвасталась, что у неё есть уже 2 млн этих чипов. Alibaba Cloud в 2021 году представила свой первый Arm-процессор Yitian 710. У Microsoft с прошлого года есть собственные Arm-чипы Cobalt 100, на которые также возложена часть внутренних нагрузок.

Наконец, Oracle два года назад сообщила о завершении миграции всех своих облачных сервисов на Arm, включая флагманскую СУБД. Oracle использует процессоры компании Ampere Computing, в которой она владела заметной долей до сделки с SoftBank. Все эти процессоры позволили Arm занять четверть рынка серверных CPU, однако решающую роль сыграло внедрение NVIDIA GB200/GB300. Arm также заключила стратегическое соглашение с Meta, чтобы помочь последней с оптимизацией ПО.

Постоянный URL: https://servernews.ru/1131359
24.10.2025 [20:32], Андрей Крупин

Компания «Хоулмонт» представила xDbStream — инструмент для синхронизации данных между СУБД любого типа

Российская компания «Хоулмонт», специализирующаяся на разработке корпоративного ПО для коммерческого сектора и государственных структур, выпустила на рынок xDbStream — продукт для универсальной синхронизации данных между любыми СУБД. Решение позволяет проводить миграцию критически важных ERP-систем по методологии Parallel Running без остановки бизнес-процессов.

Инструмент xDbStream построен на базе Java-платформы Jmix и включает два компонента: сервер для однонаправленной отложенной репликации между СУБД различного типа и модуль мониторинга консистентности данных. Программа позволяет настраивать потоки репликации, вести мониторинг производительности, обнаруживать и разрешать конфликты репликации, синхронизировать часть данных в случае сбоя. Доступны различные способы поиска изменений (чтение журналов транзакций, сканирование по меткам времени, сравнение образов, обработка событий/триггеров), маппинга (простой SQL, Groovy-скрипты, вызовы внешних сервисов для преобразования данных «на лету») и репликации (обработка простых таблиц, сложных графов, M:N-связей).

 Источник изображения: «Хоулмонт» / haulmont.ru

Источник изображения: «Хоулмонт» / haulmont.ru

Продукт поддерживает стандартные JDBC-драйверы для подключения к большинству современных и устаревших СУБД, а также многопоточную обработку данных. Кроме того, он позволяет в режиме реального времени анализировать расхождения между старой и новой базами данных на основании правил и настроек пользователя. Утверждается, что xDbStream обеспечивает 100-процентную совместимость с любыми типами СУБД и автоматическое разрешение 95 % конфликтов репликации.

По словам разработчика, с помощью xDbStream можно не только заменить устаревшую ERP-систему, но и разработать композитную платформу управления ресурсами предприятия из модулей от разных поставщиков, провести начальную миграцию данных или поддерживать консистентность данных в системах разных подразделений, например, головного офиса и филиалов. Также продукт может использоваться для решения задач по замене иностранного и устаревшего ПО, которые сейчас очень актуальны для многих организаций.

Постоянный URL: https://servernews.ru/1131371
24.10.2025 [20:00], Сергей Карасёв

Модуль расширения QNAP TL-R6020Sep-RP рассчитан на 60 накопителей LFF суммарной ёмкостью 1 Пбайт

Компания QNAP Systems анонсировала модуль расширения TL-R6020Sep-RP, рассчитанный на подключение к сетевым хранилищам NAS. Устройство, предназначенное для монтажа в стойку, выполнено в форм-факторе 4U и оборудовано 60 посадочными местами для LFF-накопителей.

Новинка позволяет использовать HDD с интерфейсом SATA-3 или SAS-3. Суммарная вместимость может превышать 1 Пбайт. Загрузка накопителей осуществляется через верхнюю часть корпуса.

Реализованы четыре высокоскоростных порта Mini-SAS HD (SFF-8644). При этом технология Broadcom SAS DataBolt отвечает за оптимизацию процессов передачи данных и повышение общей производительности: в частности, два канала на 6 Гбит/с могут быть объединены для удвоения пропускной способности.

 Источник изображения: QNAP

Источник изображения: QNAP

В зависимости от конфигурации к одному NAS могут быть подключены до четырёх полок TL-R6020Sep-RP. В сумме это обеспечит возможность установки до 240 накопителей общей вместимостью свыше 4 Пбайт. В таких массивах QNAP рекомендует использовать четырёхпортовую SAS-карту расширения QXP-1630S-3816 с интерфейсом PCIe 4.0 х8. Кроме того, говорится о совместимости с двухпортовыми картами QXP-830S-3808 и QXP-820S-B3408.

Устройство имеет размеры 176 × 482 × 750 мм и весит 25,2 кг без установленных накопителей. Диапазон рабочих температур простирается от 0 до +40 °C. Питание обеспечивают два блока мощностью 1300 Вт каждый. Применена система воздушного охлаждения с шестью вентиляторами диаметром 120 мм. Стандартная гарантия производителя составляет пять лет.

Постоянный URL: https://servernews.ru/1131355
24.10.2025 [18:49], Андрей Крупин

Платформа VK WorkSpace дополнилась средствами управления проектами

Российский разработчик корпоративного ПО VK Tech (входит в экосистему VK) сообщил о включении в состав платформы для корпоративных коммуникаций и совместной работы команд VK WorkSpace набора инструментов для управления проектами.

Рабочее окружение VK WorkSpace для управления проектами включает базу знаний, менеджер задач с поддержкой различных представлений (канбан-досок, диаграмм Ганта и таблиц), средства аналитики, а также инструменты для документирования бизнес-процессов, фиксирования результатов встреч, хранения документов, регламентов, инструкций, презентаций и прочей корпоративной информации. Поддерживается импортирование данных из других систем управления проектами, например, таких как Jira и Confluence.

 Источник изображения: Ofspace LLC / unsplash.com

Источник изображения: Ofspace LLC / unsplash.com

В числе прочего реализованные в VK WorkSpace инструменты управления проектами позволяют руководителю отслеживать эффективность работы компании на стратегическом и тактическом уровнях. В частности, доступны функции построения OKR (Objectives and Key Results) и дерева целей, каскадирования этих целей на департаменты, установка и мониторинг KPI. На операционном уровне можно транслировать цели в конкретные задачи, распределять их между исполнителями и отслеживать выполнение в режиме реального времени.

Кроме того, поддерживаются сложные сценарии автоматизации. Их можно собирать в графическом редакторе или реализовывать скриптами, чтобы автоматически назначать исполнителей, изменять статусы задач по заданным условиям, отправлять уведомления, создавать связанные задачи и многое другое.

Постоянный URL: https://servernews.ru/1131364
24.10.2025 [17:25], Руслан Авдеев

Broadwing Energy будет закачивать под землю углеродные выбросы 400-МВт газовой электростанции, которая запитает ЦОД Google

Google объявила о первом в своём роде соглашении о поддержке в Иллинойсе газовой электростанции Broadwing Energy, использующей технологию захвата углеродных выбросов (CCS) с последующим захоронением глубоко под землёй, сообщает пресс-служба компании. Это соответствует стратегии IT-гиганта по продвижению и коммерциализации экобезопасных технологий. Реализуемый с Broadwing проект является первым в рамках долгосрочного сотрудничества с девелопером Low Carbon Infrastructure (LCI), принадлежащим I Squared Capital.

Электростанция в Декейтере (Decatur, Иллинойс) будет улавливать и хранить порядка 90 % собственных выбросов CO2. Большую часть вырабатываемой энергии купит Google для своих ЦОД, обеспечив таким образом базовую нагрузку и подключение к региональной энергосети. В Google рассчитывают, что это ускорит процесс удешевления CSS-технологий по всему миру, поспособствовав увеличению генерирующих мощностей с одновременным сокращением выбросов. Похожий проект в прошлом году анонсировала Microsoft, заключившая сделку со шведской Stockholm Exergi.

Американские операторы ЦОД нередко получают как минимум часть потребляемой энергии от газовых электростанций. Технология улавливания и хранения углеродных выбросов (CCS) позволяет значительно сократить выбросы на таких энергетических объектах и обеспечить поставки «чистого» электричества. Международное энергетическое агентство (IEA) и многие другие организации сходятся во мнении о том, что такое решение — весьма ценный инструмент, позволяющий значительно сократить выбросы генерирующих мощностей и промышленных объектов (например, при производстве стали и цемента).

 Источник изображения: Broadwing

Источник изображения: Broadwing

Проект Broadwing реализуется на объекте компании Archer Daniels Midland (ADM), имеющей почти десять лет опыта безопасного захоронения CO2 при производстве этанола. На площадке построят новую электростанцию мощностью более 400 МВт, а выбрасываемый углекислый газ будет отправляться в хранилища класса IV, принадлежащие ADM и одобренные Агентством по охране окружающей среды США (EPA). Хранилища расположены на глубине более 1,5 км под землёй. Старт коммерческой эксплуатации объекта намечен на 2030 год.

Объект Broadwing проектируется с учётом жёстких стандартов безопасности и охраны окружающей среды. Для отчётности будут использоваться новые стандарты EAC для CCS, обеспечивающие точную количественную оценку выбросов. В Google подчёркивают, что ответственное использование потенциала ИИ потребует внедрения широкого спектра решений. Компания не только развивает портфолио передовых экобезопасных энергетических технологий, но и помогает бизнесам эффективно управлять выбросами в ключевых секторах вроде транспорта и энергетики.

По словам Google, только в 2024 году пять её продуктов на основе ИИ помогли пользователям в совокупности сократить выбросы CO2 на 26 млн т — это приблизительно равно выбросам от годового потребления энергии более чем 3,5 млн домохозяйств в США, говорит компания. Впрочем, в июле сообщалось, что углеродные выбросы Google выросли на 1515 % за 14 лет, но компания уверяет, что экоактивисты искажают факты.

Постоянный URL: https://servernews.ru/1131339

Входит в перечень общественных объединений и религиозных организаций, в отношении которых судом принято вступившее в законную силу решение о ликвидации или запрете деятельности по основаниям, предусмотренным Федеральным законом от 25.07.2002 № 114-ФЗ «О противодействии экстремистской деятельности»;

Система Orphus