Материалы по тегу: ии
24.02.2025 [12:22], Сергей Карасёв
SambaNova развернула самую быструю инференс-платформу для ИИ-модели DeepSeek-R1 671BКомпания SambaNova объявила о том, что в её облаке SambaNova Cloud стала доступна большая языковая модель DeepSeek-R1 с 671 млрд параметров. При этом благодаря применению фирменных ускорителей SN40L обеспечивается рекордно высокая скорость инференса. Изделия SambaNova SN40L RDU (Reconfigurable Dataflow Unit) состоят из двух крупных чиплетов, оперирующих 520 Мбайт SRAM-кеша, 1,5 Тбайт DDR5 DRAM и 64 Гбайт памяти HBM3. Восьмипроцессорная система на базе SN40L, по заявлениям SambaNova, способна запускать и обслуживать ИИ-модели с 5 трлн параметров и глубиной запроса более 256k. Платформа SambaNova Cloud при использовании DeepSeek-R1 671B демонстрирует производительность до 198 токенов в секунду, что на сегодняшний день является рекордным показателем. Для сравнения: у ближайшего конкурента — Together AI — результат составляет 98 токенов в секунду, а у Microsoft Azure — 20 токенов в секунду. Ранее Cerebras объявила о собственном рекорде — до 1508 токенов/с, но для гораздо более скромной и, по мнению компании, практичной модели DeepSeek-R1-Distill-Llama-70B. Утверждается, что ускорители SambaNova SN40L RDU по сравнению с новейшими GPU обеспечивают в три раза большую производительность и в пять раз более высокую эффективность. В частности, по заявлениям SambaNova, одна стойка с 16 экземплярами SN40L RDU по быстродействию сопоставима с 40 стойками, насчитывающими в общей сложности 320 передовых GPU. Таким образом, существенно сокращаются затраты на использование DeepSeek-R1 671B. Доступ к DeepSeek-R1 671B в облаке SambaNova Cloud предоставляется посредством API. В перспективе компания планирует наращивать вычислительные мощности, обеспечив производительность на уровне 20 000 токенов в секунду.
24.02.2025 [12:05], Сергей Карасёв
DDN представила объектное хранилище Infinia 2.0 для обучения ИИ и инференсаКомпания DataDirect Networks (DDN), специализирующаяся на системах хранения данных для НРС, анонсировала программно-определяемую аппаратно-независимую платформу хранения Infinia 2.0, предназначенную для решения ресурсоёмких задачи в области ИИ, таких как обучение моделей и инференс. Напомним, оригинальная платформа Infinia была представлена в конце 2023 года. Её преимуществами разработчик называет простоту управления, высокую производительность и безопасность. В качестве узлов могут применяться любые серверы с процессорами Intel, Arm или AMD. Решение Infinia 2.0, по заявлениям DDN, специально разработано для анализа огромных массивов данных, подготовки и обработки ИИ-моделей. Утверждается, что платформа устраняет традиционные узкие места, присущие стандартным системам хранения. Поддерживается интеграция с NVIDIA NeMo, NIM, Trino, Apache Spark, TensorFlow и PyTorch. Реализован многопротокольный доступ (объектное, блочное хранилище) для повышения гибкости. DDN отмечает, что Infinia 2.0 обеспечивает пропускную способность в терабайты в секунду и задержку менее 1 мс, превосходя по производительности AWS S3 Express в 10 раз. Достигается 100-кратное ускорение обработки метаданных, а также 25-кратное ускорение запросов для обучения моделей ИИ и инференса. По сравнению с Hadoop новая платформа показывает 10-кратное улучшение быстродействия рабочих нагрузок ИИ при 100-кратном повышении эффективности. Скорость обработки списков объектов выше в 100 раз, чем у AWS. Платформа обладает надёжностью более 99,999 % (время безотказной работы), предлагая сквозное шифрование и доступ на основе сертификатов. Возможно масштабирование от терабайт до эксабайт с поддержкой до более чем 100 тыс. GPU и 1 млн клиентов в одном развёртывании. При этом заявлено 10-кратное снижение требований в отношении питания и охлаждения по сравнению с обычными решениями.
23.02.2025 [22:52], Владимир Мироненко
Alibaba в ближайшие три года инвестирует в ИИ и облака $52 млрд — больше, чем за десять лет до этогоAlibaba Group Holding Limited сообщила финансовые результаты III квартала 2024 финансового года, закончившегося 31 декабря 2024 года, которые превысили прогнозы аналитиков. Выручка компании составила ¥280,15 млрд ($38,38 млрд), что на 8 % больше результата аналогичного квартала предыдущего финансового года и выше консенсус-прогноза 17 аналитиков, опрошенных LSEG, в размере ¥279,34 млрд. Инвесторы позитивно оценили квартальные итоги, а также планы китайского технологического гиганта больше инвестировать в электронную коммерцию и ИИ. Благодаря этому на торгах Гонконгской фондовой биржи акции Alibaba поднялись в цене более чем на 10 %, достигнув самого высокого уровня за более чем три года, пишет Reuters. Американские депозитарные расписки компании выросли примерно на 12 % на утренних торгах в Нью-Йорке после публикации результатов, демонстрируя самый большой однодневный процентный прирост с сентября прошлого года, сообщила газета The Wall Street Journal. Согласно Reuters, стоимость акции Alibaba выросла с начала года на 60 %. Чистая прибыль (GAAP), причитающаяся держателям обыкновенных акций, составила ¥48,95 млрд ($6,71 млрд), что значительно превышает прошлогодний результат в размере ¥14,43 млрд ($1,98 млрд) и консенсус-прогноз аналитиков от LSEG в размере ¥40,6 млрд ($5,56 млрд). Чистая прибыль (GAAP) на разводнённую акцию составила ¥2,55 ($0,35). Скорректированная чистая прибыль (Non-GAAP) за квартал составила ¥51,07 млрд ($7,0 млрд), что на 6 % больше результата за III квартал 2023 финансового года. Скорректированная разводнённая прибыль на акцию (Non-GAAP) составила ¥2,67 ($0,37), превысив на 13 % прошлогодний показатель. Скорректированная EBITA выросла на 33 % в годовом исчислении до ¥3,14 млрд ($430 млн). Рост произошёл в основном за счёт сдвига в ассортименте продукции в сторону более прибыльных публичных облачных продуктов и повышения операционной эффективности, что частично компенсировалось ростом инвестиций в развитие клиентской базы и технологий. Международный бизнес электронной коммерции, включающий платформу AliExpress, B2B-площадку Alibaba.com и другие региональные платформы, остался одним из самых быстрорастущих в компании, увеличив выручку на 32 % до ¥37,76 млрд ($5,18 млрд). Выручка подразделения Cloud Intelligence Group компании Alibaba выросла на 13 % с ¥28,07 млрд ($3,85 млрд) в прошлом году до ¥31,74 млрд ($4,35 млрд). Как сообщает компания, рост был обусловлен увеличением внедрения продуктов, связанных с ИИ, выручка от которых сохраняла трехзначный процентный годовой рост шестой квартал подряд. Компания подчеркнула приверженность продвижению мультимодального ИИ и open source. В январе 2025 года Alibaba открыла исходный код Qwen2.5-VL, мультимодальной модели следующего поколения, и запустила флагманскую MoE-модель Qwen2.5-Max. Обе модели доступны пользователям и предприятиям через Qwen Chat и собственную платформу Bailian. С августа 2023 года компания открыла целый ряд различных LLM Qwen. По состоянию на 31 января 2025 года на Hugging Face было разработано более 90 тыс. производных моделей на основе семейства Qwen, что делает его одним из крупнейших семейств ИИ-моделей. Alibaba добилась «значительных успехов» в развитии своего облачного бизнеса в области ИИ после запуска своей флагманской модели Qwen 2.5-Max AI Foundation, сообщила компания Barclays в заметке для инвесторов, добавив, что наблюдается резкий рост спроса на инференс, на который приходится до 70 % всех заказов клиентов. Глава Alibaba Эдди Ву (Eddie Wu) сообщил на встрече с аналитиками, что ИИ — это «та возможность для трансформации отрасли, которая появляется только раз в несколько десятилетий». Он также сказал, что Alibaba вложит в течение следующих трёх лет больше средств в ИИ и облачные вычисления, чем за последнее десятилетие, но не назвал точную сумму. По оценкам Barclays, запланированные инвестиции превысят ¥270 млрд ($37,0 млрд). В этом месяце Alibaba Cloud открыла второй ЦОД в Таиланде в рамках стратегии по расширению присутствия в Юго-Восточной Азии, сообщил ресурс Data Center Dynamics. UPD 24.02.2024: компания официально объявила о намерении инвестировать не менее ¥380 млрд ($52,44 млрд) в облачную и ИИ-инфраструктуру в течение трёх лет.
22.02.2025 [23:11], Владимир Мироненко
Lenovo сообщила о двузначном росте выручки за III финансовый квартал по всем подразделениям — ISG снова в плюсе благодаря ИИLenovo Group сообщила неаудированные финансовые результаты за III квартал 2024/25 финансового года, завершившийся 31 декабря. Как и в предыдущем квартале, компания отметила двузначный рост выручки в процентах по всем трём бизнес-подразделениям. Выручка Lenovo выросла на 20 % до $18,8 млрд с $15,7 млрд годом ранее, что стало третьим кварталом подряд с двузначным ростом этого показателя. Это также выше консенсус-прогноза в размере $17,8 млрд от аналитиков, опрошенных LSEG. Компания отметила, что более 46 % ее доходов теперь поступает из источников, не связанных с ПК, то есть от продаж смартфонов, инфраструктуры и услуг, что на 4 п.п. больше, чем годом ранее. Чистая прибыль (HKFRS) более чем удвоилась в годовом исчислении до $693 млн. Скорректированная чистая прибыль (Non-HKFRS) выросла на 20 % год к году до $430 млн. Lenovo сообщила, что продолжает инвестировать в НИОКР, расходы на которые выросли почти на 14 % в годовом исчислении до $621 млн. Акции компании выросли с начала года на 17 %. Подразделение инфраструктурных решений (Infrastructure Solutions Group, ISG), которое специализируется на поставках оборудования для ЦОД, периферийных систем и облачных вычислениях, увеличило выручку почти на 60 % до $3,9 млрд (рост — 59 %), впервые выйдя на прибыльность за последние семь кварталов. Впервые после покупки у IBM бизнеса по выпуску x86-серверов подразделение ISG получило квартальную прибыль только в конце 2021 года. Компания отметила, что ISG продемонстрировало непрерывный значительный рост на рынке поставщиков облачных услуг (CSP) (+94 %) и устойчивый рост в корпоративном и малом бизнесе (E/SMB) (+7 %). При этом выручка от продаж ИИ-серверов стабильно росла, а системы жидкостного охлаждения Neptune нашли применение не только в суперкомпьютерах, но и в других устройствах. Компания не стала раскрывать результаты бизнеса по хранению данных. В текущем квартале компания купила поставщика корпоративных хранилищ Infinidat из Тель-Авива. Ожидается, что сделка будет завершена во второй половине этого года. Это позволит Lenovo более эффективно конкурировать с бизнесами по хранению данных Dell, HPE и Huawei. ISG ожидает рост спроса на гибридную инфраструктуру с учётом более широкого развёртывания технологий ИИ, в частности, на публичные облака, а также локальные ЦОД, частные облака и периферийные вычисления. Как отметил ресурс Blocks & Files, спрос на ИИ способствовал успеху подразделения решений и услуг Lenovo (Solutions and Services Group, SSG), рост выручки которого 15-й квартал подряд исчисляется двузначными числами. SSG завершило отчётный квартал с выручкой $2,3 млрд (рост год к году на 13,8 %) и операционной маржой в 20 %. Доход от неаппаратных решений и услуг остаётся драйвером увеличения выручки SSG и продолжает расти. Совокупный доход от неаппаратных направлений бизнеса вырос на 5 п.п. в годовом исчислении и теперь составляет почти 60 % выручки SSG. Компания отметила, что решения на базе ИИ также дали толчок развитию сервисов с применением её оборудования, используя экспертные знания Lenovo в области аппаратных решений. Также SSG продолжает наращивать возможности в рамках ИИ-фреймворка Lenovo Hybrid AI Advantage, стимулируя рост по всем предложениям. В свою очередь, подразделение Intelligent Devices Group (IDG) получило выручку в размере $13,8 млрд (рост год к году на 12 %). На этой неделе компания заявила, что интегрировала ИИ-технологии DeepSeek в выпускаемые устройства, включая ПК и планшеты. Председатель Lenovo Group Юаньцин Ян (Yuanqing Yang) сообщил агентству Reuters, что DeepSeek повысила эффективность ИИ. Её новые модели с высокой эффективностью инференса и низкими затратами на вычислительную мощность демократизируют доступ к ИИ, отметил он, добавив, что использование решений DeepSeek также может повысить спрос на серверы с ускорителями.
22.02.2025 [22:45], Сергей Карасёв
В облаке Google Cloud появились инстансы A4X на базе суперускорителей NVIDIA GB200 NVL72Облачная платформа Google Cloud объявила о запуске виртуальных машин A4 с ускорителями NVIDIA B200 и A4X на основе суперускорителей NVIDIA GB200 NVL72 поколения Blackwell. Эти инстансы ориентированы на ресурсоёмкие приложения ИИ. По заявлениям Google, виртуальные машины A4 обеспечивают высокий уровень производительности при работе с ИИ-моделями на различных архитектурах. Инстансы подходят для таких рабочих нагрузок, как обучение и тонкая настройка. В свою очередь, экземпляры A4X специально созданы для обучения и обслуживания самых требовательных и сверхмасштабных задач ИИ, включая большие языковые модели (LLM) с наиболее ёмкими контекстными окнами и «рассуждающие» модели. Суперускорители GB200 NVL72 объединяют в одной стойке 72 чипа B200 и 36 процессоров Grace. Применяются шина NVLink 5 и инфраструктура жидкостного охлаждения Google третьего поколения. Каждая система GB200 NVL72 обеспечивает быстродействие до 1,44 Эфлопс в режиме FP4 и до 720 Пфлопс в режиме FP8. По заявлениям Google, достигается четырёхкратное увеличение производительности при обучении LLM по сравнению с виртуальными машинами A3 на базе ускорителей NVIDIA H100. Инстансы A4X допускают масштабирование до десятков тысяч графических процессоров Blackwell. Говорится об интеграции с сервисами хранения Cloud Storage FUSE, Parallelstore и Hyperdisk ML, что обеспечивает доступ к данным с малой задержкой (менее 1 мс) и высокую пропускную способность. Новые виртуальные машины будут развёрнуты в различных регионах Google Cloud. Нужно отметить, что ранее о запуске общедоступных инстансов на базе NVIDIA GB200 NVL200 объявила компания CoreWeave, предоставляющая облачные услуги для ИИ-задач. Скоро эти суперускорители станут доступны и в облаке Lambda Labs.
21.02.2025 [23:45], Руслан Авдеев
Китайский подводный дата-центр HiCloud получил ИИ-апгрейдКитайскому подводному дата-центру, управляемому HiCloud и расположенному близ города Линшуй (Língshuǐ) в провинции Хайнань, добавят новый модуль с вычислительным оборудованием. Модуль подключат к действующему ЦОД, введённому в эксплуатацию в 2023 году, сообщает Datacenter Dynamics. HiCloud начал тестовую эксплуатацию подводного ЦОД в 2021 году, а в январе прошлого года сообщалось, что модули, охлаждаемые морской водой, доказали свою работоспособность и надёжность. По данным китайского издания Ecns, новый 18-м модуль (3,6 м в диаметре) погрузился в море на днях. Согласно китайским данным, модуль содержит 400 высокопроизводительных серверов и подключен к наземной станции неподалёку. Какое именно оборудование установлено в ЦОД, не уточняется, но говорится, что модуль по производительности эквивалентен «30 тыс. передовых игровых компьютеров» и за секунду способен выполнять работу, посильную среднестатистическому компьютеру за год. В частности объявлено, что он способен обрабатывать 7 тыс. запросов в секунду при работе с ИИ-моделью DeepSeek. Сообщается, что 10 компаний уже подписали договор об использовании новых мощностей для выполнения связанных с ИИ задач вроде обучения и инференса, промышленного моделирования, разработки игр и морских исследований. Считается, что модульный подводный ЦОД HiCloud — первый коммерческий объект такого рода в мире, хотя аналогичные эксперименты уже проводили несколько игроков рынка ЦОД. Самым известным был подводный дата-центр, построенный в рамках инициативы Project Natick. Её реализация стартовала у побережья Шотландии в 2018 году. Для теста использовались 855 серверов, показавших неплохие результаты. Правда, позже Microsoft свернула работу подводного ЦОД, но полученные результаты намерена использовать в других проектах. Два стартапа — Subsea Cloud и NetworkOcean готовят собственные подводные дата-центры, но последняя, похоже, столкнулась с проблемами при получении лицензии на тесты в заливе Сан-Франциско.
21.02.2025 [21:21], Руслан Авдеев
В России скоро наступит дефицит энергии для обучения ИИ — сильнее всего ударит по ЦОД в Москве и Санкт-ПетербургеВ обозримом будущем в России ожидается нехватка энергии для обучения ИИ-моделей. Электричества для ЦОД и искусственного интеллекта не хватает не только в других странах — оно заканчивается и в России, сообщают «Ведомости» со ссылкой на мнение экспертов. Впрочем, дефицит неоднороден и в первую очередь могут пострадать столичные регионы. По словам директора по развитию ИИ-технологий «Яндекса» Александра Крайнова, в стране не хватает не только вычислительных мощностей, но и энергии для них питания. По его мнению, компании, желающей построить большой дата-центр, удастся обеспечить его электричеством лишь за год. Причём столько энергии, сколько нужно, просто не выделят. Как заявил Крайнов, сегодня крайне нерационально обучать модели с нуля, «не используя и не переиспользуя» чужие готовые решения. Взяв за основу готовую модель, можно дообучить её на основе собственных данных. Эксперты «Альфа-банка» поддерживают идею переиспользования готовых ИИ-моделей, но отмечают, что для инференса по-прежнему будут требоваться значительные мощности, даже в случае с эффективными моделями вроде продуктов DeepSeek. Ключевыми российскими разработчиками ИИ-моделей являются «Яндекс» (YandexGPT и «Шедеврум») и «Сбер» (GigaChat и Kandinsky), а у МТС, Т-банка и других компаний есть дообученные open-source модели. Компании не только имеют собственные дата-центры, но и арендуют ёмкости. По статистике «Вектор капитал» за апрель 2024 года, российские ЦОД использовали 2,6 ГВт, около 1 % установленной мощности Единой энергосистемы (ЕЭС) России. Вместе с тем на майнинг криптовалют в РФ, по оценкам, приходится 11 ГВт, из которых 3 ГВт приходится на долю легальных майнеров. При этом многие зарубежные майнеры, такие как CoreWeave, успешно переключились на ИИ-проекты. «Системный оператор ЕЭС» (СО ЕЭС, диспетчер энергосистемы) свидетельствует, что установленная мощность электростанций страны составляла на начало 2025 года 263,7 ГВт, поэтому в целом по стране отмечается даже профицит электроэнергии — максимум потребления отмечен в 2024 году и он составил 168,3 ГВт. Однако на юге страны, в Сибири и на Дальнем Востоке из-за роста промышленности и майнинга возможны проблемы. Так, в 2025–2030 гг. дефицит в юго-восточной части объединенной энергосистемы (ОЭС) Сибири в указанный период составит до 2,9 ГВт. Аналогичные показатели ожидаются и на юге страны. В то же время, по оценкам СО ЕЭС, дефицит мощности на юге энергосистемы Москвы и области к 2030 году составит 564 МВт, а к 2042 году — до 3,15 ГВт. По оценкам директора направления ЦОД в Selectel Ильи Михайлова, проблем с производством энергии в России нет, зато есть проблемы с её доставкой. Дефицит может наблюдаться в Москве и Санкт-Петербурге и прилежащих территориях, а в регионах складывается благоприятная ситуация для создания инфраструктуры ЦОД. При этом необходимости в масштабном «переезде» из столиц пока нет. По словам представителя ГК SoftLine Кирилла Сольева, спрос уже превышает предложение, особенно для крупных объектов, а искать площадку для ЦОД на 60 МВт (сопоставимо с ёмкостью ЦОД «Яндекса»), приходится до трёх лет. В Москве, вероятно, осталось 50 МВт свободных мощностей — на два-четыре коммерческих дата-центра. При этом за последние три года многие компании занялись строительством собственных объектов из-за дефицита доступных коммерческих мощностей. Но, например, глава «Сбера» Герман Греф говорит, что оптимальным вариантом считаются проекты кампусов на 300–400 МВт. Ранее «Сбер» объявил о стратегическом сотрудничестве с крупнейшим майнером России BitRiver.
21.02.2025 [19:48], Руслан Авдеев
Запуск Grok 3 подстегнёт рост спроса на ИИ-серверыНедавние достижения в сфере ИИ обострили конкуренцию между ключевыми мировыми игроками, особенно после премьеры модели Grok 3, представленной xAI Илона Маска (Илон Маск) и претендующей на роль самой производительной в мире на сегодняшний день. Эксперты предполагают, что её запуск станет катализатором для роста продаж ИИ-серверов, сообщает DigiTimes. Команда разработчиков xAI подчеркнула, что передовые ИИ-модели для эффективного инференса требуют не менее производительных ускорителей, чем для обучения. Работа новых ИИ-моделей предусмотрена на платформах NVIDIA GB200 и GB300, которые будут играть решающую роль в изменении «ландшафта» современного искусственного интеллекта. Вариант GB300 должны представить в конце 2025 года. По мнению представителей Foxconn, успех DeepSeek сделал процесс обучения моделей более демократичным. Это означает не только то, что обучение ИИ будет требовать меньше ресурсов и, следовательно, серверов, но и то, что спрос должен вырасти. Теперь серверы будут востребованы не только у классических облачных провайдеров и операторов HPC-систем, но и у компаний среднего размера — благодаря этому востребованность оборудования только вырастет. ![]() Источник изображения: Mariia Shalabaieva/unsplash.com Уже сообщалось об ограниченных поставках GB200 в IV квартале 2024 года, но полномасштабное производство должно начаться только к концу I квартала 2025 года. В Quanta ожидают «трёхзначного» роста продаж ИИ-серверов в процентном отношении в 2025 году. Wistron тоже прогнозирует, что продажи ИИ-серверов сохранят в 2025 году «трёхзначный» рост, как и ожидалось ранее. Компания поставляет серверные стойки Dell и материнские платы Supermicro, обе продают серверы xAI. Источники в индустрии рассказывают о сохранении устойчивого спроса на ИИ-платформы, включая GB200. Также отмечаются активные поставки ускорителей H100. Как скажется выход на рынок GB300 в конце 2025 года, пока неизвестно. Хотя серверы на базе ASIC-ускорителей привлекли внимание после премьеры Deep Seek, эксперты уточняют, что они скорее дополняют, а не заменяют серверы с классическими ускорителями. ASIC предлагают больше возможностей кастомизации, что позволяет им справляться с некоторыми пользовательскими задачами более эффективно. Так или иначе, есть и другие мнения относительно будущего рынка ИИ-серверов. Буквально на днях появилась информация о том, что эксперты прогнозируют охлаждение соответствующего рынка в 2025 году.
21.02.2025 [09:00], Сергей Карасёв
Облачная ИИ-платформа Together AI получила на развитие более $300 млн при оценке в $3,3 млрдСтартап Together AI, специализирующийся на облачных и ИИ-технологиях, объявил о проведении раунда финансирования Series B на сумму в $305 млн. Деньги будут направлены в том числе на дальнейшее расширение вычислительной инфраструктуры, включая установку ускорителей NVIDIA Blackwell. Стартап Together AI основан в 2022 году. Компания развернула облачную платформу AI Acceleration Cloud с ускорителями NVIDIA для поддержания ИИ-нагрузок. Утверждается, что это облако охватывает весь жизненный цикл ИИ, включая обучение моделей, их тонкую настройку и инференс. Клиенты Together AI имеют доступ к набору обучающих данных RedPajama-Data-v2. Поддерживаются более 200 моделей ИИ с открытым исходным кодом во всех модальностях — чат, изображения, аудио, программный код и пр. Раунд финансирования Series B проведён под руководством General Catalyst и Prosperity7. В программе приняли участие международные институциональные и стратегические инвесторы, включая Salesforce Ventures, DAMAC Capital, NVIDIA, Kleiner Perkins, March Capital, Emergence Capital, Lux Capital, SE Ventures, Greycroft, Coatue, Definition, Cadenza Ventures, Long Journey Ventures, Brave Capital. Кроме того, поддержку оказали бизнес-ангел Скотт Банистер (Scott Banister) и бывший генеральный директор Cisco Systems Джон Чемберс (John Chambers). После привлечения этих инвестиций стартап получил оценку в $3,3 млрд. Собранные деньги Together AI направит на развёртывание дополнительных мощностей. В частности, в партнёрстве с Hypertec создаётся кластер на базе суперускорителей NVIDIA GB200 NVL72. Отмечается, что на сегодняшний день облачной платформой Together AI пользуются более 450 тыс. разработчиков по всему миру, включая специалистов таких компаний, как Salesforce, Zoom, SK Telecom, Hedra, Cognition, Zomato, Krea, Cartesia и пр.
20.02.2025 [21:07], Андрей Крупин
Российская облачная среда для разработки GigaIDE Cloud с ИИ-ассистентом вышла в релиз«СберТех» (входит в экосистему «Сбера») сообщил о доступности профессиональной аудитории облачной среды для разработки GigaIDE Cloud с интегрированным ассистентом на базе искусственного интеллекта (ИИ). Новинка дополняет выпущенную ранее версию GigaIDE Desktop и открывает ещё больше возможностей для более эффективной организации работы команд программистов. GigaIDE Cloud встроена в отечественную платформу для работы с исходным кодом GitVerse и предоставляет пользователям необходимый набор инструментов для организации полного цикла разработки ПО — от создания концепции до реализации проекта. Взаимодействовать с рабочим окружением IDE-среды можно как с помощью веб-интерфейса в браузере, так посредством локального нативного приложения для удалённой разработки на любом устройстве. При этом все вычислительные ресурсы развёрнуты в облаке, а для оптимизации расходов предусмотрен режим сна с сохранением настроек и результатов работы. GigaIDE Cloud позволяет писать и отлаживать код, запускать автоматические тесты и следить за результатом работы приложений. Доступна разработка на JavaScript, Go, Python и других востребованных языках программирования. Проекты можно переносить с других платформ или создавать из шаблонов, среди которых — React, Vue, Jupyter Notebook. Среду можно конфигурировать и настраивать под себя с помощью расширений Visual Studio Code — стандарта для разработки веб-приложений. ![]() Отличительной особенностью GigaIDE Cloud является встроенный в среду ИИ-ассистент GigaCode. Он анализирует контекст проекта, отображает советы и подсказки, а также предлагает полные конструкции функций, циклов и других элементов. По заверениям «СберТеха», благодаря автоматизации рутинных процессов умный помощник позволяет писать код в среднем на 25 % быстрее. «Российские разработчики оказались в непростой ситуации: зарубежные решения стали недоступны пользователям, а отечественные аналоги не получили широкого распространения. В ответ на потребности российских программистов мы предложили собственную интегрированную среду — GigaIDE, — которая позволяет разработчикам обеспечить непрерывный рабочий процесс, сохраняя привычный пользовательский опыт», — отмечает «Сбер». |
|