Материалы по тегу:

03.12.2025 [09:33], Владимир Мироненко

Foxconn поможет Google c TPU-серверами, а Google поможет Foxconn с «умными» роботами

Foxconn получила крупный заказ Google на поставку TPU-узлов, сообщил ресурс Taiwan Economic Daily со ссылкой на информированные источники. С учётом того, что Meta планирует использовать ИИ-ускорители TPU в своих ИИ ЦОД в 2027 году, у Foxconn появилась возможность укрепить партнёрство с обоими гиперскейлерами. Да и самой Google уже сейчас катастрофически не хватает TPU для собственного облака. Foxconn уже является ключевым поставщиком платформ NVIDIA, хотя последняя всё больше ужесточает контроль над производством.

По данным источников, ИИ-серверы для Google в основном поставляются в виде стоек с TPU. В этом году Google анонсировала тензорный ускоритель седьмого поколения TPU v7 Ironwood, первый чип компании, специально созданный для инференса, хотя область его применения также включает обучение крупномасштабных моделей и сложное обучение с подкреплением (RL). На его базе можно создавать кластеры (Pod) с объединением в единый вычислительный комплекс до 9216 чипов.

По собственным данным Foxconn, он уже способна выпускать более 1000 ИИ-стоек в неделю. К концу 2026 года компания планирует увеличить этот показатель до более 2000 ед./нед. Также планы Foxconn включают расширение присутствия в США, где компания намерена не только осуществлять сборку серверов, но и наладить производство ключевых компонентов, таких как кабели, сетевое оборудование, системы теплоотвода и электропитания.

 Источник изображения: Google

Источник изображения: Google

Помимо выпуска ASIC-серверов, сотрудничество Foxconn и Google включает создание роботов, управляемых ИИ. Foxconn заключила партнерство с Intrinsic, робототехнической компанией, входящей в состав Alphabet, материнской компании Google, с целью создания совместного предприятия в США для строительства завода по выпуску роботов с поддержкой ИИ.

Партнёры планируют интегрировать ИИ-платформу Intrinsic и интеллектуальную производственную платформу Foxconn для создания адаптивных интеллектуальных робототехнических решений, что ещё больше повысит эффективность производственных объектов Foxconn и всей её экосистемы.

В прошлом месяце Google выпустила большую языковую модель Gemini 3, которая, как утверждается, превзошла OpenAI GPT-5 по нескольким ключевым показателям и ИИ-модели других конкурентов, что также способствовало росту популярности TPU. Согласно данным инсайдеров, Google призвала цепочку поставок ускориться в связи с предстоящим поступлением новых крупных заказов на TPU.

Постоянный URL: http://servernews.ru/1133272
03.12.2025 [09:09], Руслан Авдеев

Пять нониллионов IPv6-адресов: радиолюбителям попросили выделить «немного» интернет-пространства

В эпоху зарождения интернета радиолюбителям предоставили более 16 млн IPv4-адресов. Теперь же Инженерному совету интернета (IETF) предложили выделить тому же сообществу пять нониллионов IPv6-адресов, сообщает The Register. Правда, неправительственная организация радиолюбителей Amateur Radio Digital Communications (ARDC), которая получила IPv4-блок (44/8) ещё в 1981 году, продала в 2019 году четверть своих адресов компании Amazon за $108 млн, которая неплохо зарабатывает на сдаче их в аренду.

Региональные интернет-регистраторы (RIR) требуют от желающих получить IP-адреса обоснование в их потребности, наличие инфраструктуры для их использования, а также соответствие ряду других критериев. «Произвольная» раздача IP-адресов, как это было сорок лет назад, сегодня случается довольно редко.

В проекте для IETF отмечается, что радиолюбители «выстроили практики и процедуры вокруг 44/8», и по различным причинам любительскому сообществу было бы нецелесообразно использовать RIR для получения IPv6-блоак для будущих потребностей. Тем не менее предлагается, чтобы Администрация адресного пространства интернет (IANA) зарезервировало блок IPv6-адресов 44::/16 и взаимодействовало по этому поводу с RIR.

 Источник изображения: LinkedIn Sales Solutions/unsplash.com

Источник изображения: LinkedIn Sales Solutions/unsplash.com

Как отметил на днях представитель APNIC, в настоящее время все пять RIR работают над обновлением политики, определяющей их роли и прочие параметры работы. На этом фоне запрос в IETF о передаче IANA определённого IP-блока конкретной организации, скорее всего, тут же упрётся в вопрос регулирования создания новых глобальных реестров. Радиолюбители просят блок из 2112 адресов — речь идёт о «всего» пяти нониллионов из 340 ундециллионов (2128) доступных.

Идею назвали необычной, но стоящей рассмотрения, поскольку у сообщества радиолюбителей весьма богатая история интересных проектов, данные которых позже нередко находят применение в других сферах. Также подчёркивается, что предложение по-своему опережает время, особенно в свете того, что человечество создаёт всё больше сетей в космосе, из-за чего неплохо бы заранее продумать, как радиосети с высокой задержкой сигнала будут взаимодействовать с остальным интернетом. Кроме того, даже APNIC считает, что IPv6 на практике оказался не так уж и нужен — перспективы перехода на протокол не особенно привлекательны из-за меняющейся структуры глобальной сети.

Постоянный URL: http://servernews.ru/1133257
03.12.2025 [01:28], Владимир Мироненко

AWS «сдалась на милость» NVIDIA: анонсированы ИИ-ускорители Trainium4 с шиной NVLink Fusion

AWS готовит Arm-процессоры Graviton5, которые составят компанию ИИ-ускорителям Trainium4 с интерконнектом NVLink Fusion, фирменными EFA-адаптерам и DPU Nitro 6 с движком Nitro Isolation Engine. Но что более важно, все они будут «упакованы» в стойки стандарта NVIDIA MGX.

Amazon и NVIDIA объявили о долгосрочном партнёрстве, в рамках которого ИИ-ускорители Trainium4 получит шину NVIDIA NVLink Fusion шестого поколения (по-видимому, 3,6 Тбайт/с в дуплексе), которая позволит создать стоечную платформу нового поколения, причём, что интересно, на базе архитектуры NVIDIA MGX, которая передана в OCP. Пикантность ситуации в том, что AWS годами практически игнорировала OCP, самостоятельно создавая стойки, их компоненты, включая СЖО, и архитектуру ИИ ЦОД в целом. Даже в нынешнем поколении стоек с GB300 NVL72 отказалась от референсного дизайна NVIDIA.

NVIDIA же напирает на то, что для гиперскейлерам крайне трудно заниматься кастомными решениями — циклы разработки стоечной архитектуры занимают много времени, поскольку помимо проектирования специализированного ИИ-чипа, гиперскейлеры должны озаботиться вертикальным и горизонтальным масштабированием, интерконнектами, хранилищем, а также самой конструкцией стойки, включая лотки, охлаждение, питание и ПО.

 Источник изображения: NVIDIA

Источник изображения: NVIDIA

Вместе с тем управление цепочкой поставок отличается высокой сложностью, так как требуется обеспечить согласованную работу десятков поставщиков, ответственных за десятки тысяч компонентов. И даже одна задержка поставки или замена одного компонента может поставить под угрозу весь проект. Платформа NVIDIA если не устраняет целиком, то хотя бы смягчает эти проблемы, предлагая готовые стандартизированные решения, которые могут поставлять множество игроков рынка.

 Источник изображения: NVIDIA

Источник изображения: NVIDIA

По словам NVIDIA, в отличие от других подходов к масштабированию сетей, NVLink — проверенная и широко распространённая технология. В сочетании с фирменным ПО NVLink Switch обеспечивает увеличение производительности и дохода от ИИ-инференса до трёх раз, объединяя 72 ускорителя в одном домене. Пользователи, внедрившие NVLink Fusion, могут использовать любую часть платформы — каждый компонент может помочь им быстро масштабироваться для удовлетворения требований интенсивного инференса и обучения моделей агентного ИИ, говорит NVIDIA.

Что касается самих ускорителей Trainium4, то в сравнении с Trainium3 они будут вшестеро быстрее в FP4-расчётах, втрое быстрее в FP8-вычислениях, а пропускная способность памяти будет увеличена вчетверо. Впрочем, пока собственные ускорители Amazon не всегда могут составить конкуренцию чипам NVIDIA.

Постоянный URL: http://servernews.ru/1133290
02.12.2025 [18:20], Сергей Карасёв

Российская ИИ-система Delta Sprut XL поддерживает до 25 GPU

Российская компания Delta Computers представила OCP-систему Delta Sprut XL, предназначенную для ресурсоёмких нагрузок, таких как обучение ИИ-моделей, инференс, научное моделирование и задачи HPC. В основу новинки положена аппаратная платформа Intel Xeon 6.

 Источник изображений: Delta Computers

Источник изображений: Delta Computers

CPU-секция допускает установку двух процессоров Sierra Forest-SP или Granite Rapids-SP с показателем TDP до 330 и 350 Вт соответственно: в первом случае могут быть задействованы в общей сложности до 288 E-ядер, во втором — до 172 P-ядер. Доступны 32 слота для модулей оперативной памяти DDR5-6400 RDIMM или DDR5-8000 MRDIMM суммарным объёмом до 8 Тбайт.

Могут быть установлены четыре SFF-накопителя U.2 толщиной 15 мм с интерфейсом PCIe 5.0 (NVMe) или восемь таких SSD толщиной 7 мм. Кроме того, есть два коннектора M2.2280 (PCIe). Реализованы четыре слота PCIe 5.0 x16 для карт типоразмера HHHL и слот OCP 3.0 (PCIe 5.0). Присутствуют разъёмы USB 3.0 Type-A и miniDP, а также выделенный сетевой порт управления 1GbE.

В системе Delta Sprut XL ускорители на базе GPU устанавливаются в отдельные модули. В общей сложности могут использоваться до 20 карт NVIDIA H200 или до 25 экземпляров NVIDIA RTX Pro 6000 Blackwell Server Edition. Каждый квартет NVIDIA H200 объединён при помощи NVLink.

«Delta Computers представляет GPGPU-платформу, способную консолидировать до 20 ускорителей NVIDIA H200 в одном кластере. При этом необходимость использования InfiniBand или 400GbE появляется лишь в случае потребности у заказчика в ещё большем количестве ускорителей — при таком сценарии предусмотрены отдельные слоты расширения для объединения нескольких платформ Delta Sprut XL в единый кластер», — отмечает компания.

Питание обеспечивается посредством централизованного шинопровода OCP на 12 или 48 В. Применено встроенное ПО Delta BMC, предназначенное для мониторинга (сбор телеметрии, отслеживание состояния платформы, её модулей и компонентов) и удалённого администрирования серверного оборудования. Эта прошивка включена в реестр Минцифры РФ и сертифицирована ФСТЭК.

Постоянный URL: http://servernews.ru/1133261
02.12.2025 [18:18], Руслан Авдеев

Утечка бюджетного отчёта Великобритании произошла из-за ошибок в настройках плагина для WordPress и хостинга

Управление бюджетной ответственности Великобритании (Office for Budget Responsibility, OBR) обвинило в утечке государственного бюджетного отчёта Economic and Fiscal Outlook (EFO) ошибки в конфигурации сайта на движке WordPress, сообщает The Register. В докладе отмечается, что WordPress может быть сложен в настройке, а при работе с ним легко допустить ошибки.

Фактически данные были раскрыты из-за непонимания работы плагина Download Monitor для WordPress и неверной настройки сервера, что вкупе позволило получить прямой доступ к файлу путём подбора URL. Плагин формирует простые и предсказуемые ссылки на файлы, что само по себе не является большой проблемой. Однако отсутствие на хостинге WP Engine блокировки прямого доступа к файлам стало второй ошибкой, приведшей к утечке. В результате документ до официальной публикации получили не только госслужащие, но и посторонние.

26 ноября, чуть позже 06:00 некие пользователи начали предпринимать десятки попыток найти отчёт по прямым URL с семи уникальных IP-адресов. Вскоре после загрузки отчёта в 11:30–11:35 по местному времени один из этих IP, наконец, подобрал нужный URL и скачал файл. Менее чем за час файл пытались получить с 32 различных IP-адресов. Удаление файла не помогло, поскольку он уже оказался в Internet Archive.

 Источник изображения: Luke Stackpoole/unsplash.com

Источник изображения: Luke Stackpoole/unsplash.com

Канцлер Казначейства начал доклад по EFO в 12:34 того же дня, признав, что информация уже утекла в Сеть. Обычно сотрудники OBR сами поддерживают свой сайт, но примерно на три дня в году, в том числе во время публикации отчёта, из-за пиковых нагрузок к ресурсам допускаются сторонние разработчики. Примечательно, что нечто подобное уже случилось в марте 2025 года. Тогда один из IP-адресов получил доступ к документу приблизительно за полчаса до официальной публикации.

В результате расследования рекомендовано провести детальный цифровой аудит публикаций EFO за два последних года, а также пересмотреть решение от 2013 года, давшее право OBR вести собственный сайт вне доменной зоны .gov.uk. Британия известна довольно радикально настроениями в вопросе защиты данных. Так, в британском правительстве всерьёз обсуждали план физического уничтожения лондонского ЦОД, где хранились секретные сведения и который по недосмотру был продан китайской компании, до того, как хранившуюся там информацию можно будет защитить иным способом.

Постоянный URL: http://servernews.ru/1133262
02.12.2025 [12:41], Руслан Авдеев

Американский ИИ-стартап ищет деньги, чтобы снабдить китайцев чипами NVIDIA через Японию

Базирующийся в США стартап PaleBlueDot AI ищет, у кого бы занять $300 млн, чтобы купить ускорители NVIDIA и разместить их в токийском ЦОД — и всё это в интересах китайской медиакомпании RedNote (Xiaohongshu), сообщает Bloomberg. В своё время RedNote получила известность за пределами КНР благодаря временному запрету TikTok в Соединённых Штатах — тогда американцы начали массово регистрироваться в китайской соцсети.

PaleBlueDot AI из Кремниевой долины обратилась к банкам и частным кредитным компаниям для получения финансирования. Сообщается, что JPMorgan Chase & Co. причастен к подготовке маркетинговых материалов для потенциальных заёмщиков, но от участия в самой сделке, вероятно, откажется. Источники утверждают, что сделка обсуждается, как минимум, в последние три месяца, хотя неизвестно, каков прогресс. По словам PaleBlueDot AI, «упомянутая информация не соответствует действительности», в JPMorgan от комментариев отказались, а NVIDIA и Xiaohongshu просто не ответили на запросы.

PaleBlueDot AI позиционирует себя как посредника, предлагающего безопасные и экономически эффективные вычислительные решения. Примечательно, что у истоков компании и в её руководстве числятся бизнесмены китайского происхождения.

 Источник изображения: zhang kaiyv/unsplash.com

Источник изображения: zhang kaiyv/unsplash.com

Планируемый заём наглядно демонстрирует, как именно намерены технологические компании обходить ограничения на продажу в Китай передовых ИИ-чипов, неоднократно ужесточавшиеся с 2022 года. Хотя китайские компании теперь не могут покупать оборудование напрямую, они могут вполне легально получать доступ к ЦОД в странах за пределами Китая. Буквально на днях сообщалось, что Alibaba и ByteDance стали обучать передовые ИИ-модели в дата-центрах Юго-Восточной Азии.

Финансирование подобных проектов всегда воспринимается с осторожностью. Это связано с озабоченностью тем, что американские власти могут наложить дополнительные санкции. Хотя сама NVIDIA давно критикует политику полных запретов поставок ИИ-чипов в Китай, компания постоянно обещает, что будет строго придерживаться политики, предотвращающей попадание чипов «не в те руки». Впрочем, подход американских властей может измениться. По слухам, уже рассматривается возможность поставок в КНР относительно устаревших вариантов — NVIDIA H200.

Постоянный URL: http://servernews.ru/1133244
02.12.2025 [11:28], Сергей Карасёв

MiTAC выпустила двухузловой сервер M2810Z5 на базе AMD EPYC Turin

Компания MiTAC анонсировала 2U2N-сервер M2810Z5, ориентированный на современные дата-центры и облачные платформы. Новинка может использоваться для решения таких задач, как CDN, виртуализация, хостинг, ресурсоёмкие вычисления на базе CPU и поддержка приложений с интенсивным обменом данными.

Устройство, выполненное в форм-факторе 2U, имеет двухузловую конструкцию. Каждый узел допускает установку одного процессора AMD EPYC 9005 Turin в исполнении Socket SP5 с показателем TDP до 500 Вт и 12 модулей DDR5-5600/6000/6400 RDIMM или RDIMM-3DS суммарным объёмом до 3 Тбайт. Доступен один слот OCP 3.0 (PCIe 5.0 x16).

 Источник изображений: MiTAC

Источник изображений: MiTAC

Каждый из узлов располагает четырьмя отсеками для накопителей формата E1.S (NVMe) с поддержкой горячей замены. MiTAC говорит о возможности установки SSD семейства Kioxia XD8 с интерфейсом PCIe 5.0. Эти изделия обеспечивают скорость чтения информации до 12,5 Гбайт/с и скорость записи до 5,8 Гбайт/с. Вместимость достигает 7,68 Тбайт. Кроме того, есть два коннектора M.2 (в расчёте на узел) для SSD типоразмера 22110/2280 с интерфейсом PCIe 4.0. Узлы наделены контроллером Aspeed AST2600, сетевым портом 1GbE на базе Intel I210-AT, выделенным сетевым портом управления 1GbE (Realtek RTL8211FD-CG), аналоговым разъёмом D-Sub, а также двумя портами USB 2.0.

Сервер M2810Z5 оборудован двумя блоками питания с резервированием мощностью 2000 Вт (80 Plus Titanium). Опционально может быть установлен модуль TPM. Применяется воздушное охлаждение с четырьмя вентиляторами диаметром 80 мм с возможностью горячей замены. Диапазон рабочих температур — от +10 до +35 °C. Габариты системы составляют 760 × 448 × 86 мм.

Постоянный URL: http://servernews.ru/1133234
02.12.2025 [10:23], Руслан Авдеев

«Билайн» повысил скорость доступа к популярным российским онлайн-платформам

Телеком-оператор «Вымпелком» (бренд «Билайн») провёл работы, повысившие мощность включений на площадках по всей России и обеспечившие расширение географии присутствия компании. Кроме того, увеличилась и портовая ёмкость популярных российских онлайн-сервисов.

По словам компании, устойчивость и развитие российских онлайн-сервисов прямо зависит от скорости и качества обмена данными, особенно в условиях «утяжеления» контента. В компании подчеркнули, что постоянно модернизируют сети, чтобы обеспечить клиентам покупки, просмотры видео и общение на максимальной скорости, таким образом внося вклад в развитие российского сегмента интернета.

Сообщается, что в сети телеком-оператора теперь повысилась скорость работы маркетплейса Wildberries, то же касается и онлайн-кинотеатров «ИВИ» и «Кинопоиск», быстрее заработали Rutube и мессенджер Max.

 Источник изображения: «Билайн»

Источник изображения: «Билайн»

Повышенная скорость загрузки контента, связанного с маркетплейсом Wildberries, обеспечена благодаря строительству в Калининграде, Санкт-Петербурге, Ростове-на-Дону, Казани, Екатеринбурге и Владивостоке сети CDN на узлах «Билайна». В перспективе возможно дальнейшее развитие географии размещения узлов.

Также организация новых стыков в регионах и расширение уже действующих благоприятно сказались на качестве воспроизведении видео и потоковых трансляций на площадках «ИВИ», «Кинопоиск» и Rutube. В пресс-службе компании сообщают, что «Билайн» дополнительно нарастил мощность включений на московских площадках, это позволяет резервировать портовую ёмкость платформ VK и обеспечить ресурсы для работы мессенджера Max.

«Билайн» активно занимается не только внутрироссийскими телеком-проектами. Так, в сентябре «Вымпелком» объявил о планах по развёртыванию нового транзитного маршрута между Китаем и Европой.

Постоянный URL: http://servernews.ru/1133239
02.12.2025 [09:39], Владимир Мироненко

Миллионы IOPS, без посредников: NVIDIA SCADA позволит GPU напрямую брать данные у SSD

NVIDIA разрабатывает SCADA (Scaled Accelerated Data Access, масштабируемый ускоренный доступ к данным) — новую IO-архитектуру, где GPU инициируют и управляют процессом работы с хранилищами, сообщил Blocks & Files. SCADA отличается от существующего протокола NVIDIA GPUDirect, который, упрощённо говоря, позволяет ускорить обмен данными с накопителями, напрямую связывая посредством RDMA память ускорителей и NVMe SSD. В этой схеме CPU хоть и не отвечает за саму передачу данных, но оркестрация процесса всё равно ложится на его плечи. SCADA же предлагает перенести на GPU и её.

Обучение ИИ-моделей обычно требует передачи больших объёмов данных за сравнительно небольшой промежуток времени. При ИИ-инференсе осуществляется передача небольших IO-блоков (менее 4 Кбайт) во множестве потоков, а время на управление каждой передачей относительно велико. Исследование NVIDIA показало, что инициирование таких передач самим GPU сокращает время и ускоряет инференс. В результате была разработана схема SCADA.

NVIDIA уже сотрудничает с партнёрами по экосистеме хранения данных с целью внедрения SCADA. Так, Marvell отмечает: «Потребность в ИИ-инфраструктуре побуждает компании, занимающиеся СХД, разрабатывать SSD, контроллеры, NAND-накопители и др. технологии, оптимизированные для поддержки GPU, с акцентом на более высокий показатель IOPS для ИИ-инференса. Это будет принципиально отличаться от технологий для накопителей, подключенных к CPU, где главными приоритетами являются задержка и ёмкость».

 Источник изображения: NVIDIA

Источник изображения: NVIDIA

По словам Marvell, в рамках SCADA ускорители используют семантику памяти при работе с накопителями. Однако сами SSD мало подходят для таких задач, поскольку не могут обеспечить необходимый уровень IOPS, когда во время инференса тысячи параллельных потоков запрашивают наборы данных размером менее 4 Кбайт. Это приводит к недоиспользованию шины PCIe, «голоданию» GPU и пустой трате циклов. В CPU-центричной архитектуре, которая подходит для обучения моделей, параллельных потоков данных десятки, а не тысячи, а блоки данных крупные — от SSD требуется высокие ёмкость и пропускная способность, а также малая задержка, поскольку свою задержку в рамках СХД также внесут PCIe и Ethernet.

Внедрение PCIe 6.0 и PCIe 7.0, конечно, само по себе ускорит обмен данными, но контроллеры SSD также нуждаются в обновлении. Они должны уметь использовать возможности SCADA, иметь оптимальные схемы коррекции ошибок для малых блоков данных и быть мультипротокольными (PCIe, CXL, Ethernet). Компания Micron также участвует в разработке SCADA.

 Источник изображения: Micron

Источник изображения: Micron

В рамках SC25 Micron показала прототип SCADA-хранилища на базе платформы H3 Platform Falcon 6048 с PCIe 6.0 (44 × E1.S NVMe SSD + 6 × GPU/DPU/NIC), оснащённой 44 накопителями Micron 9650 (7,68 Тбайт, до 5,4 млн на случайном чтении 4K-блоками с глубиной очереди 512, PCIe 6.0), тремя коммутаторами Broadcom PEX90000 (144 линии PCIe 6.0 в каждом), одним процессором Intel Xeon (PCIe 5.0) и тремя ускорителями NVIDIA H100 (PCIe 5.0). Micron заявила, что система «демонстрирует линейное масштабирование производительности от 1 до 44 SSD», доходя до 230 млн IOPS, что довольно близко к теоретическому максимуму в 237,6 млн IOPS.

«В сочетании с PCIe 6.0 и высокопроизводительными SSD архитектура [SCADA] обеспечивает доступ к данным в режиме реального времени для таких рабочих нагрузок, как векторные базы данных, графовые нейронные сети и крупномасштабные конвейеры инференса», — подытожила Micron.

Постоянный URL: http://servernews.ru/1133179
02.12.2025 [09:15], Владимир Мироненко

AWS и Google Cloud подружили свои облачные сети, чтобы интернет падал пореже и не у всех сразу

Amazon и Google представили мультиоблачный сетевой сервис, разработанный совместными усилиями и призванный удовлетворить растущий спрос на надёжное подключение, в то время как даже кратковременные перебои в работе интернета могут привести к серьезным сбоям в работе сервисов.

Новый сервис объединяет AWS Interconnect – multicloud и Google Cross-Cloud Interconnect, предлагая организациям возможность установления защищённых частных высокоскоростных сетевых соединений между Google Cloud и AWS, что обеспечивает онлайн-бизнесу подстраховку в случае сбоя в работе одного из провайдеров. Кроме того, сервис упрощает одновременное использование облачных услуг обоих провайдеров в рамках одного приложения.

Теперь компании смогут за считанные минуты установить соединение между вычислительными платформами через выбранную облачную консоль или API. Как отметила Google Cloud, ранее для подключения провайдеров облачных услуг клиентам приходилось вручную настраивать сложные сетевые компоненты, включая физические соединения и оборудование. Это требовало длительного времени на подготовку и координации с несколькими внутренними и внешними командами, и могло занять недели или даже месяцы.

 Источник изображений: Google

Источник изображений: Google

Сервис предлагает подключение выбранной ёмкости между двумя облачными регионами обоих провайдеров с четырёхкратным резервированием на уровне ЦОД, пограничных маршрутизаторов и т.д. Оба поставщика осуществляют непрерывный мониторинг для проактивного выявления и устранения проблем, а также совместно управляют резервированием и занимаются эксплуатационной поддержкой. Шифрование MACsec защищает соединения между периферийными маршрутизаторами AWS и Google Cloud.

Партнёры также выпустили унифицированный API и открытую спецификацию, предложив другим поставщикам облачных и сетевых услуг фреймворк для интеграции аналогичных мультиоблачных подключений. Благодаря новому сервису клиенты, использующие в работе несколько облаков, получают стандартизированный подход к гибридному перемещению данных, рабочих ИИ-нагрузок и кросс-облачной аналитике.

Salesforce в числе первых внедрила эту технологию. В компании отметили, что интеграция Salesforce Data 360 с более широким ИТ-ландшафтом требует надёжного частного подключения. AWS Interconnect – multicloud позволяет наводить критически важные мосты с Google Cloud с той же лёгкостью, что и развёртывание внутренних ресурсов AWS.

В октябре в AWS произошел крупный сбой, который вывел из строя ряд сервисов, включая Fortnite, Alexa и Snapchat. В последующие недели сбои наблюдались и в Microsoft Azure, и в Cloudflare, что вызвало опасения по поводу рисков, связанных с использованием лишь нескольких крупных поставщиков интернет-инфраструктуры. AWS планирует развернуть аналогичный сервис с Microsoft Azure в следующем году. Ранее AWS, Google Cloud и Microsoft Azure уже сделали шаг навстречу другу другу, отказавшись от платы за выгрузку данных при переезде в другое облако.

Постоянный URL: http://servernews.ru/1133227

Входит в перечень общественных объединений и религиозных организаций, в отношении которых судом принято вступившее в законную силу решение о ликвидации или запрете деятельности по основаниям, предусмотренным Федеральным законом от 25.07.2002 № 114-ФЗ «О противодействии экстремистской деятельности»;