Материалы по тегу: облако

06.05.2025 [21:12], Руслан Авдеев

Meta✴ Llama API задействует ИИ-ускорители Cerebras и Groq

Meta объединила усилия с Cerebras и Groq для инференс-сервиса с применением API Llama. Открыв API-доступ к собственным моделям, Meta становится чуть более похожа на облачных провайдеров.

Как утверждают в Cerebras, разработчики, применяющие API для работы с моделями Llama 4 Cerebras, могут получить скорость инференса до 18 раз выше, чем у традиционных решений на базе GPU. В компании объявили, что такое ускорение позволит использовать новейшее поколение приложений, которые невозможно построить на других ИИ-технологиях. Речь, например, идёт о «голосовых» решениях с низкой задержкой, интерактивной генерации кода, мгновенном многоэтапном рассуждении и т. п. — многие задачи можно решать за секунды, а не минуты.

После запуска инференс-платформы в 2024 году Cerebras обеспечила для Llama самый быстрый инференс, обрабатывая миллиарды токенов через собственную ИИ-инфраструктуру. Теперь прямой доступ к альтернативам решений OpenAI получит широкое сообщество разработчиков. По словам компании, партнёрство Cerebras и Meta позволит создавать ИИ-системы, «принципиально недосягаемые для ведущих облаков». Согласно замерам Artificial Analysis, Cerebras действительно предлагает самые быстрые решения для ИИ-инференса, более 2600 токенов/с для Llama 4 Scout.

 Источник изображения: ***

Источник изображения: Meta

При этом Cerebras не единственный партнёр Meta. Она также договорилась с Groq об использовании ускорителей Language Processing Units (LPU), которые обеспечивают высокую скорость (до 625 токенов/с), низкую задержку и хорошую масштабируемость при довольно низких издержках. Groq использует собственную вертикально интегрированную архитектуру, полностью контролируя и железо, и софт. Это позволяет добиться эффективности, недоступной в облаках на базе универсальных ИИ-чипов.

Партнёрство с Meta усиливает позиции Groq и Cerebras в борьбе с NVIDIA. Для Meta новое сотрудничество — очередной шаг в деле выпуска готовых open source ИИ-моделей, которые позволят сосредоточиться на исследованиях и разработке, фактически передав инференс надёжному партнёру. Разработчики могут легко перейти на новый стек без необходимости дообучения моделей или перенастройки ускорителей — API Llama совместимы с API OpenAI. Пока что доступ к новым API ограничен. Цены Meta также не сообщает.

Meta активно работает над продвижением своих ИИ-моделей. Так, она даже выступила с довольно необычной инициативой, предложив «коллегам-конкурентам» в лице Microsoft и Amazon, а также другим компаниям, поделиться ресурсами для развития и обучения моделей Llama.

Постоянный URL: http://servernews.ru/1122365
06.05.2025 [14:36], Руслан Авдеев

«Билайн» готовит российский сервис ИИ-инференса на отечественном оборудовании

«Билайн» и один из российских производителей серверов ведут переговоры о возможной доработке решений для ИИ-инференса — весьма перспективной в обозримом будущем услуги. Сама «Билайн» разрабатывает инфраструктурное ПО, входящее в часть специального программно-аппаратного комплекса, сообщают «Ведомости».

На основе таких комплексов партнёры смогут развернуть ИИ-модели, а «Билайн» в перспективе сможет предлагать их в своих дата-центрах, продавая доступ к соответствующим мощностям бизнес-клиентам. По словам одного из источников, сейчас «Билайн» договаривается с OpenYard. Последняя подтвердила, что ведёт переговоры с рядом телеком-операторов, но подробности возможных сделок раскрывать не стала.

Тем временем в «Билайне» отмечают рост спроса на аренду стоек с GPU-серверами. Правда, платить за это готовы «не все», отмечают в компании. По оценкам экспертов, сотрудничество «Билайн» с OpenYard позволит первой запустить новые сервисы, а для второй — получить крупного заказчика на оборудование. Для крупных компаний, как считают эксперты, такой совместный сервис будет обходиться в 100–200 млн руб. в год.

 Источник изображения: Lyubomyr (Lou) Reverchuk/unsplash.com

Источник изображения: Lyubomyr (Lou) Reverchuk/unsplash.com

Ожидается, что в первую очередь новое решение заинтересует банки (для создания чат-ботов и скоринга), IT-компании и просто крупный бизнес (для ИИ-аналитики), а также, например, телеком-операторов и промышленный сектор. Как ранее писали «Ведомости», к 2030 году в российских ЦОД будут развёрнуты ускорители, эквивалентные по производительности 70 тыс. ускорителей NVIDIA A100. Стоимость закупки, вероятно, составит $1,5–$2 млрд.

Впрочем, уникальность инференс-решений для России — под вопросом. Например, в октябре прошлого года Selectel запустил бета-тестирование собственного инференс-сервиса для ускорения запуска ИИ-моделей. В конце апреля 2025 года Cloud.ru представил «первый в России» управляемый облачный сервис для инференса ИИ-моделей — Evolution ML Inference.

Постоянный URL: http://servernews.ru/1122371
05.05.2025 [12:47], Сергей Карасёв

Терабитное облако: Backblaze запустила S3-хранилище B2 Overdrive для рабочих нагрузок ИИ и HPC

Американская компания Backblaze анонсировала облачное S3-хранилище B2 Overdrive, оптимизированное для нагрузок с интенсивным обменом данными, таких как задачи ИИ и НРС. Утверждается, что платформа в плане соотношения производительности/цены значительно превосходит предложения конкурентов.

Backblaze отмечает, что при работе с ресурсоёмкими приложениями ИИ, машинного обучения, доставки контента или аналитики, клиенты зачастую сталкиваются с выбором: платить больше за максимальную скорость доступа к облаку или жертвовать производительностью, чтобы сохранить расходы на приемлемом уровне. B2 Overdrive, как утверждается, решает эту проблему.

Новый сервис обеспечивает пропускную способность до 1 Тбит/с, а цена начинается с $15 за 1 Тбайт в месяц. Минимальный заказ — несколько Пбайт. Заявленный показатель безотказного функционирования — 99,9 %. Предоставляется бесплатный вывод данных из облака в трехкратном среднем ежемесячном объёме хранения клиента. После превышения этого значения стоимость составляет $0,01 за 1 Гбайт. Скидки за объём и сроки хранения доступны с сервисом B2 Reserve.

 Источник изображения: Backblaze

Источник изображения: Backblaze

Для хранения данных в облаке B2 Overdrive применяются HDD. Подключение к инфраструктуре клиента осуществляется через защищённую частную сеть. Информацию в экзабайтном масштабе можно свободно перемещать в любой кластер GPU или HPC с неограниченным бесплатным выводом.

Среди прочих преимуществ B2 Overdrive компания Backblaze выделяет отсутствие требований к минимальному размеру файлов, уведомления о событиях, а также бесплатное удаление информации. Приём заявок на подключение к сервису уже начался.

Постоянный URL: http://servernews.ru/1122306
05.05.2025 [10:37], Татьяна Золотова

«Билайн» внедрил облачную платформу для виртуализации сетевых функций

Сотовый оператор «Вымпелком» (бренд «Билайн») и разработчик ИТ-решений «Инфосистемы джет» разработали единую географически распределенную платформу виртуализации и контейнеризации сетевых функций Telco Cloud. Она представляет собой облачную инфраструктуру для запуска сетевых функций как в виртуализированном (VNF), так и в контейнеризированном исполнении (CNF).

ПАК Telco Cloud, разработанный «Инфосистемами джет», — это большое комплексное решение, собранное из отдельных компонентов, в число которых входят: серверное оборудование с унифицированными вариантами конфигурации серверов; аппаратные СХД, аналогичные Huawei Dorado; сетевая фабрика, которая является трехуровневой моделью L2/LЗ-фабрики с поддержкой EVPN-VXLAN, ЕСМР, Multihoming и автоматизированным управлением. Технически это White Вох с открытой NOS на базе SONiC.

Решение внедрено на сети «Билайна», в основных дата-центрах, включая ярославский и московский ЦОД, площадки во Владивостоке и Новосибирске. Для части этих ЦОД Telco Cloud внедрен в георезервированном виде для обеспечения надежности и отказоустойчивости. В планах до конца года внедрить георезерирование для всех дата-центров, где уже развернута облачная инфраструктура.

 Источник: «Инфосистемы джет»

Источник: «Инфосистемы джет»

Как отмечают в пресс-службе сотового оператора, платформа снижает затраты на инфраструктуру, повышает эффективность и скорость выхода новых продуктов на рынок. В «Билайне» надеются, что облачная инфраструктура Telco Cloud снизит зависимость от конкретных поставщиков, а также позволит в сжатые сроки внедрять альтернативные сетевые функции.

Постоянный URL: http://servernews.ru/1122294
01.05.2025 [23:59], Владимир Мироненко

Облако и ИИ подстегнули рост выручки Microsoft — компания продолжает инвестировать в инфраструктуру

После объявления Microsoft итогов III квартала 2025 финансового года, завершившегося 31 марта, акции компании выросли в цене на 9 %, показав самый высокий рост за последние пять лет, поскольку результаты превзошли ожидания аналитиков, в основном благодаря облачному бизнесу Azure. Оптимизму инвесторов также способствовал сильный прогноз на текущий квартал.

Выручка Microsoft составила за квартал $70,07 млрд, превысив прошлогодний показатель на 13 %, а также консенсус-прогноз аналитиков, опрошенных LSEG, в размере $68,42 млрд. Чистая прибыль выросла год к году на 18 % до $25,82 млрд или $3,46 на разводнённую акцию, что выше прогноза аналитиков Уолл-стрит в размере $3,22 на акцию.

Выручка подразделения Microsoft Intelligent Cloud, в которое входят облачные сервисы Azure, а также Windows Server, SQL Server, GitHub, Nuance, Visual Studio и корпоративные сервисы, составила $26,75 млрд, что на 21 % больше, чем годом ранее, и выше консенсус-прогноза аналитиков в размере в $26,12 млрд. При этом доход от серверных продуктов и облачных сервисов увеличился на 22 %, в основном за счёт роста доходов от Azure и других облачных сервисов на 33 %.

 Источник изображений: Microsoft

Источник изображений: Microsoft

Компания сообщила, что 16 пунктов роста Azure были обусловлены растущим спросом на её ИИ-сервисы. Аналитики, опрошенные StreetAccount и CNBC, ожидали роста Azure и других облачных сервисов на 30,3 и 29,7 % соответственно. Также компания отметила рост внедрения ИИ-помощника Github Copilot. В настоящее время его регулярно использует более 15 млн пользователей, тогда как года назад ИИ-помощником пользовалось немногим более 3 млн человек.

В ходе предыдущего квартального отчёта компания сообщала, что мощностей ЦОД по-прежнему недостаточно для удовлетворения потребностей клиентов. Финансовый директор Эми Худ (Amy Hood) отметила, что в этом вопросе был достигнут некоторый прогресс и Microsoft удалось ввести новые инфраструктурные мощности гораздо быстрее, чем предполагалось, что помогло улучшить ситуацию.

В отчётном квартале Microsoft продолжила активно инвестировать в инфраструктуру ИИ. Капитальные затраты, за исключением аренды, достигли $16,75 млрд, увеличившись почти на 53 %, причём большая часть средств была направлена на новые проекты ЦОД. Аналитики, опрошенные Visible Alpha, прогнозировали капзатраты в размере $16,37 млрд. Вместе с тем SemiAnalysis отмечает, что компания кардинально пересмотрела планы по аренде и строительству ЦОД.

Microsoft по-прежнему планирует потратить $80 млрд в 2025 финансовом году на строительство ИИ ЦОД. Это требует значительных объёмов импорта оборудования из-за рубежа, а это означает, что расходы могут вырасти в зависимости от того, где Белым домом США будут введены повышенные пошлины, пишет SiliconANGLE. Эни Худ сообщила в ходе телефонной конференции с аналитиками, что компания ожидает увеличения капитальных затрат в новом финансовом году, но они будут расти медленнее, чем в 2025 финансовом году. Она заявила, что компания прогнозирует операционную маржу в размере 43,35 % в 2026 финансовом году, что немного ниже целевого показателя аналитиков, опрошенных StreetAccount, в 43,5 %.

Выручка подразделения Microsoft Productivity and Business Processes выросла за отчётный квартал на 10 % до $29,94 млрд, превзойдя консенсус StreetAccount в $29,57 млрд. Выручка от коммерческих продуктов и облачных сервисов Microsoft 365 выросла на 11 %, потребительского Microsoft 365 и сопутствующих облачных сервисов — на 10 %, LinkedIn — на 7 %. Продукты Dynamics и облачные сервисы продемонстрировали рост на 11 %, в том числе Dynamics 365 — на 16 %. Наконец, выручка подразделения More Personal Computing выросла на 6 % до $13,37 млрд, что выше консенсус-прогноза StreetAccount в $12,66 млрд.

В IV финансовом квартале Microsoft прогнозирует выручку в диапазоне от $73,15 млрд до $74,25 млрд, что выше консенсус-прогноза LSEG в $72,26 млрд. Также компания прогнозирует рост Azure на 34–35 % при постоянной валюте, что выше консенсус-прогноза StreetAccount в размере 31,5 %.

Постоянный URL: http://servernews.ru/1122169
01.05.2025 [19:15], Андрей Крупин

Новое поколение платформы Beeline Cloud 2.0 дополнилось функцией интеллектуальной оркестрации гибридного облака

Компания «Вымпелком», предоставляющая услуги под брендом «Билайн», анонсировала релиз нового поколения облачной платформы Beeline Cloud 2.0 для корпоративного сегмента.

Ключевой особенностью Beeline Cloud 2.0 является интеллектуальный оркестратор Vega собственной разработки, обеспечивающий управление гибридной IT-инфраструктурой и объединяющий различные среды виртуализации (OpenStack, VMware и другие) в единый управляемый комплекс. По заверениям команды «Вымпелкома», нововведение позволяет максимально эффективно использовать вычислительные ресурсы дата-центра, одновременно предоставляя облачные сервисы в формате, доступном не только IT-инженерам, но и продуктовым командам, архитекторам и разработчикам ПО с поддержкой методологии CI/CD (Continuous Integration/Continuous Delivery).

Будучи комплексным решением, Beeline Cloud 2.0 предоставляет множество функциональных возможностей. В их числе: единое управление мультивиртуализацией через Vega-оркестратор; доступ к IaaS и PaaS (виртуальные машины, базы данных, Kubernetes, DevOps-инструменты и др.); оптимизация инфраструктурных ресурсов и снижение затрат; быстрый запуск и масштабирование продуктов через инструменты самообслуживания; готовность к внедрению генеративных ИИ-систем и современных подходов к разработке; кибербезопасность корпоративного уровня с соблюдением российских стандартов.

 Источник изображения: cloud.beeline.ru

Источник изображения: cloud.beeline.ru

«Изначально Vega создавался внутри «Вымпелкома» как оркестратор для трансформации корпоративного IT-ландшафта в соответствии с концепцией «всё как код» — архитектурного подхода, при котором инфраструктура, конфигурации и приложения описываются и управляются через код. Такой подход стал основой подготовки к масштабному внедрению GenAI, поскольку генеративные модели требуют предсказуемой автоматизированной и масштабируемой среды», — поясняют в компании.

На текущий момент Beeline Cloud 2.0 находится в стадии закрытого тестирования и проходит финальную настройку. В ближайшем будущем «Вымпелком» планирует запустить платформу в коммерческую эксплуатацию и предоставить клиентам доступ к полноценному облачному стеку, построенному по самым современным принципам.

Постоянный URL: http://servernews.ru/1122136
01.05.2025 [01:35], Руслан Авдеев

Microsoft готова судиться с правительством США, если оно попытается лишить Европу продуктов компании

Если президент США Дональд Трамп (Donald Trump) каким-то образом попытается ограничить доступ европейских клиентов Microsoft к сервисам компании, та обещает судиться с ним для защиты интересов жителей Евросоюза. Таким образом IT-гигант пытается убедить ЕС в том, что Трамп не сможет лишить их доступа к критически важным технологиям, сообщает The Financial Times.

По словам президента и главного юриста Microsoft Брэда Смита (Brad Smith), европейские лидеры, будучи в шоке от действий Трампа, резонно задаются вопрос, не перекроет ли он доступ к американским технологиям Евросоюзу. Смит утверждает, что компания должна стать источником «цифровой стабильности» в период нестабильности геополитической. В новом обещании упоминаются пять «цифровых обязательств» перед Евросоюзом.

Это, например, обязательство оспаривать любой приказ «неевропейского» правительства о прекращении доступа к облачным сервисам европейским клиентам или нарушение их работы, в том числе в суде. Компания намерена включить соответствующий пункт в свои контракты. Смит напомнил, что у компании есть большой опыт судебных тяжб с американскими властями. Также Microsoft обязуется, что облачные сервисы в ЕС будут контролироваться местным советом директоров и действовать в соответствии с местным законодательством.

 Источник изображения: Wesley Tingey/unsplash.com

Источник изображения: Wesley Tingey/unsplash.com

Microsoft стала первым американским IT-гигантом, попытавшимся успокоить клиентов в Евросоюзе на фоне усложняющихся торговых отношений и призывов европейских политиков обеспечить технологический суверенитет, исключив из государственных контрактов любые компании из США. Сообщается, что среди политиков и компаний нарастают опасения относительно конфиденциальности европейских данных и даже возможного запрета США на деятельность американских компаний в Европе. Хотя по словам Смита, последний вариант маловероятен, он признаёт, что у европейских лидеров есть поводы сомневаться в этом.

Microsoft хочет развить облачные и ИИ-платформы в Евросоюзе, увеличив мощности своих ЦОД в регионе на 40 % в следующие два года и расширив деятельность в 16 странах, на что компания готова тратить десятки миллиардов долларов ежегодно. По словам Смита, размер европейского рынка (более четверти бизнеса Microsoft) означает, что поддерживать доверие местных клиентов и правительств крайне важно для компании. Она не так давно достигла соглашения с местными облачными операторами — дополнительные проблемы ей вряд ли нужны.

Постоянный URL: http://servernews.ru/1122118
29.04.2025 [14:44], Сергей Карасёв

Oracle развернула в облаке суперускорители NVIDIA GB200 NVL72

Корпорация Oracle ввела в эксплуатацию в своих дата-центрах первые суперускорители NVIDIA GB200 NVL72. Тысячи GPU семейства Blackwell доступны клиентам через облако NVIDIA DGX Cloud и инфраструктуру Oracle Cloud Infrastructure (OCI) для создания и запуска ИИ-агентов и «рассуждающих» моделей следующего поколения.

Решение GB200 NVL72 объединяет 18 узлов 1U в одной стойке: каждый из них содержит два ускорителя GB200, что в сумме даёт 72 чипа B200 и 36 процессоров Grace. Задействована система жидкостного охлаждения. Платформа Oracle включает высокоскоростные сетевые решения NVIDIA Quantum-2 InfiniBand и Spectrum-X Ethernet.

Отмечается, что Oracle планирует сформировать один из самых крупных в мире кластеров с ИИ-ускорителями поколения Blackwell. Системы OCI Supercluster смогут масштабироваться до более чем 100 тыс. GPU для удовлетворения стремительно растущих потребностей в вычислительных ресурсах для задач инференса и НРС. При этом Oracle предлагает гибкие варианты развёртывания, позволяющие клиентам использовать Blackwell через публичные, государственные и суверенные облака, а также собственные дата-центры.

 Источник изображения: NVIDIA

Источник изображения: NVIDIA

О намерении задействовать мощности OCI GB200 уже заявили ряд крупных клиентов. В их число входят технологические компании, корпоративные заказчики, государственные учреждения, а также региональные поставщики облачных услуг.

Ранее о запуске общедоступных инстансов на основе NVIDIA GB200 NVL72 объявила компания CoreWeave, предоставляющая облачные сервисы для ИИ-задач. Кластеры Supermicro на базе NVIDIA GB200 NVL72 предложит клиентам Eviden (подразделение Atos Group). Эти суперускорители также взяла на вооружение облачная платформа Google Cloud. xAI также приступил к монтажу NVIDIA GB200 NVL72 для ИИ-кластера Colossus.

Постоянный URL: http://servernews.ru/1122018
28.04.2025 [15:00], Руслан Авдеев

Beeline cloud объявил о доступности Cloud Compute MetroCluster

Облачный оператор beeline cloud объявил о коммерческой доступности гибридной платформы Cloud Compute MetroCluster, комбинирующей преимущества частных и публичных облаков. Платформа призвана обеспечить бесперебойную работу критически важных приложений и бизнес-процессов клиентов, сообщает пресс-служба облачного провайдера.

MetroCluster позволяет развёртывать IT-инфраструктуру сразу в двух московских ЦОД — данные будут немедленно дублироваться в разных хранилищах, что обеспечит максимальную отказоустойчивость. Автоматическая репликация в другой ЦОД происходит сразу при создании ВМ. Если в одном дата-центре случится авария, доступ к клиентским сервисам сохранится. При этом платформа совместима со сторонними облачными площадками и приложениями, включая и beeline cloud.

Покупка оборудования для развёртывания сервисов не потребуется, инфраструктура будет обеспечена благодаря beeline cloud. Дополнительно оператор обещает гарантии повышенной безопасности благодаря хранению информации клиентов на территории России. Кроме того, инфраструктура соответствует требованиям 152-ФЗ «О персональных данных» и ГОСТ Р 56939.

 Источник изображения: beeline cloud

Источник изображения: beeline cloud

Предложение рассчитано на крупный и средний бизнес, в том числе банки и страховые компании, телеком-операторов и организации госсектора, а также промышленные предприятия и др. Как заявляют в beeline, MetroCluster «гарантирует 99,95% SLA по бесперебойности и снижает CAPEX за счёт оплаты по подписке без капитальных затрат». Кром того, предусмотрена поддержка миграции существующих систем, клиентами предлагается «гибкая» тарифная схема.

Постоянный URL: http://servernews.ru/1121969
28.04.2025 [07:54], Сергей Карасёв

SambaNova уволила 15 % персонала и переключилась на инференс в облаке

Разработчик ИИ-ускорителей SambaNova, по сообщению EE Times, проводит реорганизацию, направленную на трансформацию бизнеса. Стартап, в частности, намерен сосредоточиться на предоставлении облачных услуг в сфере ИИ, включая, ресурсы для инференса.

SambaNova была основана в 2017 году. Актуальный ИИ-ускоритель компании SN40L RDU (Reconfigurable Dataflow Unit) объединяет два крупных чиплета, которые оперируют 520 Мбайт SRAM-кеша, 1,5 Тбайт DDR5 DRAM и 64 Гбайт HBM3. Восьмипроцессорная система на базе SN40L, по заявлениям SambaNova, способна запускать и обслуживать ИИ-модели с 5 трлн параметров и глубиной запроса более 256k.

Осенью прошлого года SambaNova объявила о запуске самой быстрой на тот момент облачной платформы для ИИ-инференса. В этом вопросе она соревнуется с Cerebras и Groq, ещё двумя заметными стартапами, которые пытаются составить конкуренцию NVIDIA. Стоит отметить, что Groq также сменила бизнес-подход, отказавшись от продажи отдельных ускорителей в пользу оснащения целых ИИ ЦОД для инференса.

 Источник изображения: SambaNova

Источник изображения: SambaNova

В рамках реорганизации SambaNova сократила численность персонала примерно на 15 %: уволены 77 из 500 сотрудников. Отмечается, что масштабные коммерческие ИИ-нагрузки смещаются от обучения в сторону инференса. В результате стартапы в сфере ускорителей и другого ИИ-оборудования для дата-центров переключились на предоставление обалчного доступа к LLM посредством API.

«Мы оперативно переориентировались на предоставление облачных решений, которые помогают предприятиям и разработчикам развёртывать открытые ИИ-модели в масштабе. В рамках трансформации операций пришлось принять трудное решение о сокращении примерно 75 сотрудников и сместить фокус команды для поддержания следующего этапа роста», — заявили представители SambaNova.

Постоянный URL: http://servernews.ru/1121937

Входит в перечень общественных объединений и религиозных организаций, в отношении которых судом принято вступившее в законную силу решение о ликвидации или запрете деятельности по основаниям, предусмотренным Федеральным законом от 25.07.2002 № 114-ФЗ «О противодействии экстремистской деятельности»;

Система Orphus