Материалы по тегу: облако

14.05.2025 [23:27], Руслан Авдеев

США отменили спорные ограничения на экспорт ИИ-ускорителей в другие страны, но запретили им покупать ускорители Huawei

Вызвавшие немало споров «Правила распространения ИИ» (AI Diffusion rules), которые должны были ограничить продажу американских ускорителей уже на этой неделе, официально отменены президентом США Дональдом Трампом (Donald Trump), сообщает The Register.

Министерство торговли США выполнило данное ранее обещание отменить экспортный контроль для большинства стран на том основании, что он «подавлял бы американские инновации и обременял бы компании новыми нормативными требованиями». В заявлении министерства также подчёркивалось, что новые правила подорвали бы дипломатические отношения Соединённых Штатов с десятками стран.

Рамочную программу опубликовали в последние дни правления администрации Байдена — она была направлена на ограничение продаж ИИ-чипов буквально большинству стран мира, за исключением нескольких избранных союзников — в число счастливчиков не вошли даже многие страны НАТО. Предполагалось, что новые ограничения заставят «пострадавшие» страны серьёзно относиться к контролю возможного реэкспорта или контрабанды ИИ-чипов и оборудования в недружественные страны.

 Источник изображения: Greg Bulla / Unsplash

Источник изображения: Greg Bulla / Unsplash

Хотя некоторые приветствовали ограничения, многие американские технологические компании выступили резко против новых правил, заявив, что страны, не получив ИИ-инфраструктуру от США, смогут получить её от Китая. В администрации Трампа разрабатывают собственный подход. Политики обещают защитить национальные интересы США, но подробностей пока очень мало.

Ранее Министерство торговли также выпустило документ, в котором предупредило об опасностях IaaS — многие компании закрывают глаза на то, что китайские разработчики ИИ-моделей работают со своими проектами в их облаках. Хотя покупать передовые чипы структурам из КНР давно запрещено, им никто не мешает арендовать ИИ-инфраструктуру, в том числе в США.

Во вторник Бюро промышленности и безопасности (BIS) Министерства торговли США также выпустило разъяснение к Правилам экспортного контроля (EAR), в котором предупредило, что производители чипов могут подпадать под экспортные ограничения при продажах иностранным облачным провайдерам. В этих правилах уже предусмотрен запрет гражданам США, а также поставщикам облачных услуг и операторам ЦОД без разрешения и сознательно предоставлять сервисы или заключать контракты, которые будут способствовать разработке ИИ-решений недружественным странами для целей военной разведки или создания оружия.

 Источник изображения: Dario Daniel Silva / Unsplash

Источник изображения: Dario Daniel Silva / Unsplash

В частности, в разъяснении указывается, что производителям также потребуется разрешение США на продажу чипов иностранным IaaS-провайдерам, если известно, что ускорители могут использоваться противниками США. Фактически поставщикам напомнили, что если таких провайдеров поймают на помощи в обучении моделей для китайских военных, за этим последует суровое наказание. Более того, США ужесточают контроль не только над новыми чипами для ИИ, но и над теми, что уже есть у иностранных компаний, если они могут быть использованы для разработки «враждебного» ИИ.

Наконец, в BIS зашли настолько далеко, что ограничили использование в любой точке мира ускорителей Huawei — наиболее производительной альтернативы чипам NVIDIA в Китае, поскольку, якобы, есть высокая вероятность того, что такие чипы сделаны с использованием американских технологий, но без лицензии.

Постоянный URL: http://servernews.ru/1122795
14.05.2025 [10:18], Руслан Авдеев

Окно в облака: Microsoft подготовила виртуальный тур по дата-центру компании

Microsoft создала специальный сайт, на котором любой желающий может принять участие в виртуальном туре по ЦОД, сообщает пресс-служба компании. Посетители смогут узнать особенности устройства дата-центров: от собственно зданий до серверов, сетей, ИИ-инфраструктуры и т.п. Virtual Datacenter Tour знакомит с дизайном, стоящим за более чем 300 ЦОД компании по всему миру.

Инфраструктура ЦОД касается едва ли не каждой сферы современной жизни, от онлайн-банкинга до удалённой работы, видеозвонков, социальных сетей и многого другого. ЦОД стоят за облаками, позволяя клиентам обходиться, полностью или частично, без собственных программно-аппаратных комплексов. Облака объединяют миллионы серверов и виртуальных машин, хранят данные и приложения, а также обеспечивают пользователей контентом и сервисами.

 Источник изображения: Microsoft

Источник изображения: Microsoft

ЦОД Microsoft вмещают тысячи серверов, включая резервные системы, и присутствие компании на рынке расширяется. Поскольку реальные экскурсии по ЦОД для большинства граждан запрещены по соображениям безопасности (за некоторыми забавными исключениями), в Microsoft организовали виртуальную 3D-копию дата-центра. При этом пользователи смогут воспользоваться ИИ-ботов, чтобы получить дополнительную информацию.

 Источник изображения: Microsoft

Источник изображения: Microsoft

Экскурсия доступна как владельцам компьютеров, так и мобильных устройств. Сайт регулярно пополняется новыми «помещениями» и контентом. Виртуальный ассистент, предоставляемый сервисом Azure Open AI, специально создан для ответов на многие вопросы по теме: об экоустойчивости Microsoft Cloud, технологиях охлаждения, системах безопасности, обеспечения надёжности работы и т. п.

Можно посетить виртуальную серверную и ознакомиться с новейшим оборудованием и комплектующими, вроде разработанных дома CPU Azure Cobalt или кастомных ИИ-ускорителей Azure Maia. Впрочем, в Azure доступны и решения других компаний-партнёров. Любознательные посетители смогут ознакомиться с электрооборудованием, включая аккумуляторы и резервные генераторы, и т.п.

Постоянный URL: http://servernews.ru/1122730
12.05.2025 [17:27], Владимир Мироненко

Облако.ру предлагает ИИ-системы, которые позволят запускать даже мощные ИИ-модели

Ведущий российский поставщик решений для облачной инфраструктуры Облако.ру предлагает различные специализированные интегрированные решения для обработки ресурсоёмких нагрузок, включая обучение и запуск ИИ-моделей. GPU-серверы, доступные в Облако.ру, отлично справляются со сложными задачами с использованием больших объёмов данных и вычислений. Использование услуг по аренде вычислительных мощностей позволяет избежать существенных капитальных затрат.

Главное отличие GPU от CPU заключается в его способности параллельно выполнять множество операций, распределяя задачи между своими ядрами, что предоставляет ему возможность выполнения громадных объёмов вычислений, лежащих в основе ИИ, в гораздо более короткие сроки и обеспечивает значительное преимущество в таких областях, как обработка изображений и видео, научное моделирование, машинное обучение, где используются большие наборы данных и сложные алгоритмы.

Изначально созданные для обработки изображений GPU стали крайне важными для ИИ-индустрии, позволяя обучать и развёртывать продвинутые ИИ модели, обеспечивающие широкие возможности в сфере ИИ — от распознавания изображений до обработки естественного языка. Благодаря ускорению процессов обучения и инференса использование серверных GPU позволяет разрабатывать и развёртывать модели ИИ быстрее и эффективнее, чего невозможно добиться, используя только классические CPU. А по мере роста сложности ИИ-моделей потребность в GPU будет только расти.

 Источник изображения: Облако.ру

Источник изображения: Облако.ру

Так, для локального запуска компактной версии популярной ИИ-модели DeepSeek R1 8B, разработанной посредством дистилляции нейросеть Llama 3.2 и демонстрирующей высокую эффективность в задачах текстовой генерации, обработки естественного языка, создания программного кода и анализа данных, потребуется система с 4 Гбайт VRAM (видеопамяти) для инференса с низкой и целочисленной точностью вычислений (FP8/INT8), 8 Гбайт VRAM для инференса с половинной точностью (FP16) и 16 Гбайт VRAM для инференса с полной точностью (FP32). Точность вычислений влияет на качество и скорость ответов ИИ-модели.

Если же использовать DeepSeek R1 8B в качестве основы для собственных моделей, ориентированных на конкретные бизнес-задачи, то при обучении с низкой и целочисленной точностью (FP8/INT8) потребуется система с 8 Гбайт VRAM, при обучении с половинной точностью (FP16) — с 16 Гбайт VRAM, а и при обучении с полной точностью (FP32) — с 32 Гбайт VRAM. С увеличением количества параметров модели, определяющих её «эрудицию» и знания о мире или предметной области, одновременно растут и требования к доступной памяти и вычислительной мощности GPU. Кроме того, т.н. размышляющие модели, к которым относится и семейство DeepSeek R1, тем лучше и оперативнее отвечают на запросы, чем больше им доступно ресурсов.

Предлагаемые Облако.ру системы позволяют запускать не только базовые модели уровня DeepSeek R1 8B, которым требуется 8–12 Гбайт VRAM, но и более мощные ИИ-модели, такие как DeepSeek R1 14B, которая подходит для большинства профессиональных рабочих процессов. DeepSeek R1 14B, содержащая 14 млрд параметров и созданая с помощью метода дистилляции модели Qwen 2.5, предназначена для решения сложных задач, требующих высокой точности и производительности, таких, как написание сложных текстов, анализ больших объёмов данных, написание кода уровня Senior и т.д. Для инференса с использованием DeepSeek R1 14B с низкой и целочисленной точностью (FP8/INT8) потребуется система с 7 Гбайт VRAM, с полной точностью (FP32) — с 28 Гбайт VRAM. Для обучения с низкой и целочисленной точностью (FP8/INT8) требуется система с 14 Гбайт VRAM, с половинной точностью (FP16) — с 28 Гбайт VRAM, с полной точностью (FP32) — с 56 Гбайт VRAM.

Облако.ру предлагает различные системы с серверными GPU, которые способны удовлетворить нужды практически любого заказчика. Доступны системы с самыми простыми ускорителями NVIDIA T4, с ускорителями среднего класса 3 × RTX6000 (суммарно 72 Гбайт) и с ускорителями топового уровня. К последним относятся конфигурации сразу с восемью PCIe-ускорителями с суммарным объёмом памяти 640 Гбайт, 1 Тбайт системной памяти и парой 24-ядерных AMD EPYC 9224. А для самых требовательных заказчиков предлагается платформа с восемью ускорителями, объединёнными быстрой шиной (900 Гбайт/с) и 1128 Гбайт VRAM, которые работают как единое целое. Компанию им составляют два 48-ядерных Intel Xeon Platinum 8558 и 2 Тбайт RAM. При этом во всех случаях речь идёт именно о физических серверах, что гарантирует полную доступность всех вычислительных ресурсов.

Постоянный URL: http://servernews.ru/1119103
09.05.2025 [12:31], Руслан Авдеев

AWS вложит $4 млрд в создание облачного региона в Чили

Amazon Web Services (AWS) намерена инвестировать в создание облачного региона в Чили $4 млрд до конца 2026 года. Вложения поддержат строительство, подключение к коммуникациям, а также непосредственно работу и обслуживание ЦОД в стране, сообщает Datacenter Dynamics. На момент запуска регион будет иметь три зоны доступности. Сейчас у компании есть 114 зон в 36 регионах мира.

AWS объявила, что дата-центры в Чили в основном будут использовать гибридный фрикулинг, вода будет применяться в системах охлаждения лишь пару недель в году. Кластер AWS South America (Chile) Region поможет удовлетворить растущий спрос на облачные сервисы в Латинской Америке. С новым регионом организации смогут использовать передовые технологии AWS, в том числе ИИ и машинное обучение. Инвестируя в местные кадры и образовательные программы, компания будет способствовать росту экономики страны и её цифровой трансформации, говорится в сообщении AWS.

 Источник изображения: Caio Silva/unsplash.com

Источник изображения: Caio Silva/unsplash.com

По словам представителя чилийских властей, расширение инфраструктуры AWS в Чили — очевидный образец приверженности компании к развитию передовых технологий и инноваций. Кроме того, это показывает, какая работа проделана для того, чтобы создать в латиноамериканском государстве среду, в которой могут процветать технологические компании, в частности, в рамках реализации проекта National Data Center Plan.

Как сообщает пресс-служба компании, впервые AWS заявила о себе в Чили, реализовав в стране периферийную платформу CloudFront Edge в 2019 году. Позже компания запустила сервис AWS Ground Station в Пунта-Аренасе (Punta Arenas), а также предложила локальные частные облака AWS Outposts в 2021 году. В 2023 году она организовала в стране шлюз AWS Direct Connect, а также запустила локальную зону (Local Zone) в Сантьяго.

Компания рассматривала строительство дата-центров в Чили как минимум с 2017 года. В январе 2024 года она получила «зелёный свет» на реализацию в Сантьяго проекта ЦОД стоимостью $205 млн. В июле того же года она получила разрешение на строительство второго дата-центра в городе, на который должно быть выделено ещё $205 млн. В прошлом году из-за засухи у строителей ЦОД в стране возникли проблемы. Так, местное правительство пересмотрело разрешение на строительство в Сантьяго ЦОД за $200 млн.

Постоянный URL: http://servernews.ru/1122559
07.05.2025 [16:22], Руслан Авдеев

Roblox развернёт новый ЦОД в Сан-Паулу в 2026 году

Roblox Corporation, стоящая за популярной видеоигровой платформой, начала строить ЦОД в Сан-Паулу (Бразилия), сообщает Datacenter Dynamics. Новый ЦОД заработает в начале 2026 года. Он расширит возможности миллионов пользователей в Бразилии — производительность повысится, а задержка сократится задержка.

Дата-центр получит передовое оборудование. Впрочем, технических подробностей пока немного. В комментариях на сайте DevForum сообщается, что Roblox испытывает серверы в Бразилии с 2024 года, но косвенные признаки свидетельствуют о том, что речь может идти о строительстве объекта с нуля. Платформа готовится принять ещё миллионы человек — Бразилия невероятно важна для неё.

 Источник изображения: Oberon Copeland @veryinformed.com/unsplash.com

Источник изображения: Oberon Copeland @veryinformed.com/unsplash.com

Roblox распоряжается 27 дата-центрами, большинство из которых находятся в США. Большинство сервисов под управлением Roblox Cloud размещаются в ЦОД, управляемых самой Roblox. Часть дата-центров напрямую связана друг с другом широкополосными магистральными каналами связи, минующими общедоступный интернет. Некоторые базы данных, объектные хранилища и иные сервисы размещены в AWS.

Почти все серверы, ответственные за моделирование виртуальных сред и оптимизацию ресурсов для клиентов Roblox, принадлежат самой компании и работают в ЦОД, в том числе периферийных, которые разбросаны по 23 городам Северной Америки, Азиатско-Тихоокеанского региона и Европы. На 31 декабря 2024 года облако Roblox использовало 140 тыс. серверов.

В конце апреля сообщалось, что в Бразилии может появиться новый дата-центр TikTok китайской ByteDance, а буквально на днях появилась информация, что в Рио-де-Жанейро построят крупнейший в Латинской Америке кампус ЦОД Rio AI City.

Постоянный URL: http://servernews.ru/1122445
07.05.2025 [09:05], Владимир Мироненко

IBM разработала инструменты для быстрого создания и интеграции ИИ-агентов

IBM планирует укрепить свои позиции на быстрорастущем рынке ИИ-технологий с помощью увеличения инвестиций в США и предложения собственных инструментов, которые помогут клиентам управлять ИИ-агентами для их ключевых бизнес-приложений. Об этом сообщил генеральный директор IBM Арвинд Кришна (Arvind Krishna) в интервью агентству Reuters.

Глава IBM заявил, что разработанное компанией ПО позволяет клиентам создавать собственные ИИ-системы, а также интегрировать ИИ-агентов от других провайдеров, включая Salesforce, Adobe и Workday. Это поможет удовлетворить потребность в кастомных решениях во многих областях бизнеса.

Подход IBM заключается в том, чтобы предложить полный спектр облачных и ИИ-сервисов остальным компаниям, которые в настоящее время полагаются на лидеров рынка AWS и Microsoft. Особое внимание IBM уделяет внедрению функций ИИ в мультиоблачных платформах, что найдёт спрос среди тех, кому нужны кастомные ИИ-решения, а также в собственные инфраструктуры заказчиков для управления данными.

 Источник изображения: IBM

Источник изображения: IBM

По словам гендиректора IBM, предлагаемые инструменты, позволяющие создавать собственных ИИ-агентов в течение не более пяти минут, основаны на семействе LLM Granite, а также на альтернативных моделях от Meta Platforms и Mistral. IBM сообщила, что уже получила заказы на создание решений на базе генеративного ИИ на $6 млрд.

Также компания объявила в апреле о планах инвестировать в течение пяти лет $150 млрд в США, где она в течение более 60 лет производит мейнфреймы. Кришна подчеркнул, что квантовые компьютеры тоже будут производиться в США. Глава IBM отметил, что синергия мейнфреймов, ИИ и квантовых вычислений, как ожидается, создаст надёжный и устойчивый рынок, в который следует инвестировать и который позволит компании использовать эти достижения в течение следующего десятилетия.

Кришна добавил, что фокус на технологии и сокращение регулирования со стороны администрации оказали благотворное влияние на экономику США, способствуя её росту. Это позволяет IBM наращивать инвестиции и инновации, тем самым потенциально укрепляя свою конкурентную позицию как поставщика бизнес-решений на основе ИИ.

Постоянный URL: http://servernews.ru/1122412
06.05.2025 [21:12], Руслан Авдеев

Meta✴ Llama API задействует ИИ-ускорители Cerebras и Groq

Meta объединила усилия с Cerebras и Groq для инференс-сервиса с применением API Llama. Открыв API-доступ к собственным моделям, Meta становится чуть более похожа на облачных провайдеров.

Как утверждают в Cerebras, разработчики, применяющие API для работы с моделями Llama 4 Cerebras, могут получить скорость инференса до 18 раз выше, чем у традиционных решений на базе GPU. В компании объявили, что такое ускорение позволит использовать новейшее поколение приложений, которые невозможно построить на других ИИ-технологиях. Речь, например, идёт о «голосовых» решениях с низкой задержкой, интерактивной генерации кода, мгновенном многоэтапном рассуждении и т. п. — многие задачи можно решать за секунды, а не минуты.

После запуска инференс-платформы в 2024 году Cerebras обеспечила для Llama самый быстрый инференс, обрабатывая миллиарды токенов через собственную ИИ-инфраструктуру. Теперь прямой доступ к альтернативам решений OpenAI получит широкое сообщество разработчиков. По словам компании, партнёрство Cerebras и Meta позволит создавать ИИ-системы, «принципиально недосягаемые для ведущих облаков». Согласно замерам Artificial Analysis, Cerebras действительно предлагает самые быстрые решения для ИИ-инференса, более 2600 токенов/с для Llama 4 Scout.

 Источник изображения: ***

Источник изображения: Meta

При этом Cerebras не единственный партнёр Meta. Она также договорилась с Groq об использовании ускорителей Language Processing Units (LPU), которые обеспечивают высокую скорость (до 625 токенов/с), низкую задержку и хорошую масштабируемость при довольно низких издержках. Groq использует собственную вертикально интегрированную архитектуру, полностью контролируя и железо, и софт. Это позволяет добиться эффективности, недоступной в облаках на базе универсальных ИИ-чипов.

Партнёрство с Meta усиливает позиции Groq и Cerebras в борьбе с NVIDIA. Для Meta новое сотрудничество — очередной шаг в деле выпуска готовых open source ИИ-моделей, которые позволят сосредоточиться на исследованиях и разработке, фактически передав инференс надёжному партнёру. Разработчики могут легко перейти на новый стек без необходимости дообучения моделей или перенастройки ускорителей — API Llama совместимы с API OpenAI. Пока что доступ к новым API ограничен. Цены Meta также не сообщает.

Meta активно работает над продвижением своих ИИ-моделей. Так, она даже выступила с довольно необычной инициативой, предложив «коллегам-конкурентам» в лице Microsoft и Amazon, а также другим компаниям, поделиться ресурсами для развития и обучения моделей Llama.

Постоянный URL: http://servernews.ru/1122365
06.05.2025 [14:36], Руслан Авдеев

«Билайн» готовит российский сервис ИИ-инференса на отечественном оборудовании

«Билайн» и один из российских производителей серверов ведут переговоры о возможной доработке решений для ИИ-инференса — весьма перспективной в обозримом будущем услуги. Сама «Билайн» разрабатывает инфраструктурное ПО, входящее в часть специального программно-аппаратного комплекса, сообщают «Ведомости».

На основе таких комплексов партнёры смогут развернуть ИИ-модели, а «Билайн» в перспективе сможет предлагать их в своих дата-центрах, продавая доступ к соответствующим мощностям бизнес-клиентам. По словам одного из источников, сейчас «Билайн» договаривается с OpenYard. Последняя подтвердила, что ведёт переговоры с рядом телеком-операторов, но подробности возможных сделок раскрывать не стала.

Тем временем в «Билайне» отмечают рост спроса на аренду стоек с GPU-серверами. Правда, платить за это готовы «не все», отмечают в компании. По оценкам экспертов, сотрудничество «Билайн» с OpenYard позволит первой запустить новые сервисы, а для второй — получить крупного заказчика на оборудование. Для крупных компаний, как считают эксперты, такой совместный сервис будет обходиться в 100–200 млн руб. в год.

 Источник изображения: Lyubomyr (Lou) Reverchuk/unsplash.com

Источник изображения: Lyubomyr (Lou) Reverchuk/unsplash.com

Ожидается, что в первую очередь новое решение заинтересует банки (для создания чат-ботов и скоринга), IT-компании и просто крупный бизнес (для ИИ-аналитики), а также, например, телеком-операторов и промышленный сектор. Как ранее писали «Ведомости», к 2030 году в российских ЦОД будут развёрнуты ускорители, эквивалентные по производительности 70 тыс. ускорителей NVIDIA A100. Стоимость закупки, вероятно, составит $1,5–$2 млрд.

Впрочем, уникальность инференс-решений для России — под вопросом. Например, в октябре прошлого года Selectel запустил бета-тестирование собственного инференс-сервиса для ускорения запуска ИИ-моделей. В конце апреля 2025 года Cloud.ru представил «первый в России» управляемый облачный сервис для инференса ИИ-моделей — Evolution ML Inference.

Постоянный URL: http://servernews.ru/1122371
05.05.2025 [12:47], Сергей Карасёв

Терабитное облако: Backblaze запустила S3-хранилище B2 Overdrive для рабочих нагрузок ИИ и HPC

Американская компания Backblaze анонсировала облачное S3-хранилище B2 Overdrive, оптимизированное для нагрузок с интенсивным обменом данными, таких как задачи ИИ и НРС. Утверждается, что платформа в плане соотношения производительности/цены значительно превосходит предложения конкурентов.

Backblaze отмечает, что при работе с ресурсоёмкими приложениями ИИ, машинного обучения, доставки контента или аналитики, клиенты зачастую сталкиваются с выбором: платить больше за максимальную скорость доступа к облаку или жертвовать производительностью, чтобы сохранить расходы на приемлемом уровне. B2 Overdrive, как утверждается, решает эту проблему.

Новый сервис обеспечивает пропускную способность до 1 Тбит/с, а цена начинается с $15 за 1 Тбайт в месяц. Минимальный заказ — несколько Пбайт. Заявленный показатель безотказного функционирования — 99,9 %. Предоставляется бесплатный вывод данных из облака в трехкратном среднем ежемесячном объёме хранения клиента. После превышения этого значения стоимость составляет $0,01 за 1 Гбайт. Скидки за объём и сроки хранения доступны с сервисом B2 Reserve.

 Источник изображения: Backblaze

Источник изображения: Backblaze

Для хранения данных в облаке B2 Overdrive применяются HDD. Подключение к инфраструктуре клиента осуществляется через защищённую частную сеть. Информацию в экзабайтном масштабе можно свободно перемещать в любой кластер GPU или HPC с неограниченным бесплатным выводом.

Среди прочих преимуществ B2 Overdrive компания Backblaze выделяет отсутствие требований к минимальному размеру файлов, уведомления о событиях, а также бесплатное удаление информации. Приём заявок на подключение к сервису уже начался.

Постоянный URL: http://servernews.ru/1122306
05.05.2025 [10:37], Татьяна Золотова

«Билайн» внедрил облачную платформу для виртуализации сетевых функций

Сотовый оператор «Вымпелком» (бренд «Билайн») и разработчик ИТ-решений «Инфосистемы джет» разработали единую географически распределенную платформу виртуализации и контейнеризации сетевых функций Telco Cloud. Она представляет собой облачную инфраструктуру для запуска сетевых функций как в виртуализированном (VNF), так и в контейнеризированном исполнении (CNF).

ПАК Telco Cloud, разработанный «Инфосистемами джет», — это большое комплексное решение, собранное из отдельных компонентов, в число которых входят: серверное оборудование с унифицированными вариантами конфигурации серверов; аппаратные СХД, аналогичные Huawei Dorado; сетевая фабрика, которая является трехуровневой моделью L2/LЗ-фабрики с поддержкой EVPN-VXLAN, ЕСМР, Multihoming и автоматизированным управлением. Технически это White Вох с открытой NOS на базе SONiC.

Решение внедрено на сети «Билайна», в основных дата-центрах, включая ярославский и московский ЦОД, площадки во Владивостоке и Новосибирске. Для части этих ЦОД Telco Cloud внедрен в георезервированном виде для обеспечения надежности и отказоустойчивости. В планах до конца года внедрить георезерирование для всех дата-центров, где уже развернута облачная инфраструктура.

 Источник: «Инфосистемы джет»

Источник: «Инфосистемы джет»

Как отмечают в пресс-службе сотового оператора, платформа снижает затраты на инфраструктуру, повышает эффективность и скорость выхода новых продуктов на рынок. В «Билайне» надеются, что облачная инфраструктура Telco Cloud снизит зависимость от конкретных поставщиков, а также позволит в сжатые сроки внедрять альтернативные сетевые функции.

Постоянный URL: http://servernews.ru/1122294

Входит в перечень общественных объединений и религиозных организаций, в отношении которых судом принято вступившее в законную силу решение о ликвидации или запрете деятельности по основаниям, предусмотренным Федеральным законом от 25.07.2002 № 114-ФЗ «О противодействии экстремистской деятельности»;

Система Orphus