Материалы по тегу: ии
05.06.2024 [14:58], Руслан Авдеев
Зачем арендовать, когда можно купить: CoreWeave захотела приобрести за $1 млрд своего хостинг-провайдера Core Scientific [Обновлено]Облачный провайдер CoreWeave предложил $1 млрд компании Core Scientific, предоставляющей хостинг для HPC-систем и параллельно занимающейся криптомайнингом. Datacenter Dynamics сообщает, что предложение поступило всего через несколько дней после подписания соглашения на аренду 200 МВт в течение 12 лет за $3,5 млрд. Как сообщают отраслевые источники, речь идёт о покупке компании из расчёта $5,75 за акцию — это несколько меньше биржевой стоимости Core Scientific на момент предложения. Компании сотрудничают уже несколько лет — в Core Scientific говорят об аренде «тысяч ускорителей» с 2019 по 2022 гг. Если соглашение об аренде 200 МВт останется в силе, то последней придётся модифицировать многочисленные площадки для размещения ускорителей NVIDIA, принадлежащих CoreWeave. Модернизация должна начаться летом 2024 года, а закончить её планируется в первой половине 2025-го. На это потребуется около $300 млн, которые будут получены от платежей CoreWeave за хостинг, но инвестировать можно будет не более половины от ежемесячной платы. Договор с CoreWeave позволяет дважды продлить аренду мощностей сроком на пять лет, в том числе на других площадках Core Scientific. Предполагается, что сделка с CoreWeave позволит диверсифицировать бизнес и сбалансировать майнинг и хостинг для ИИ-проектов для максимизации прибыли и минимизации рисков. В Core Scientific заявили, что из доступных ей почти 1,2 ГВт мощностей она может выделить до 500 МВТ для HPC/ИИ-хостинга. Часть майнинговых проектов перенесут с одних площадок на другие, компактно высвобождая место для HPC-кластеров. CoreWeave, основанная в 2017 году, в своё время и сама занималась криптовалютами и блокчейн-технологиями, но впоследствии переключилась на облачные ИИ-платформы. Компания привлекла миллиарды долларов в качестве инвестиций и просто в долг. На сегодня она предлагает сервисы в трёх регионах: US East (Нью-Джерси), US West (Невада) и US Central (Иллинойс). Компания активно арендует мощности и к концу 2023 года намеревалась управлять 14 дата-центрами, а к концу 2024 — 28 ЦОД. CoreWeave заявила, что потратит $1,6 млрд на постройку ЦОД для ИИ-супероблака, перенесёт часть мощностей в ЦОД Chirisa, арендует дата-центры Flexential и TierPoint в США. В марте этого года CoreWeave арендовала 16 МВт в ЦОД Core Scientific в Остине (Техас). Компания считается крупным клиентом Digital Realty, арендующим стойки для «десятков тысяч» ускорителей в одном из ЦОД на западном побережье США. Недавно компания анонсировала строительство двух ЦОД в Великобритании и присматривается к ЦОД EdgeConneX в Барселоне. Прямым конкурентом компании считается Lambda Labs, масштабы бизнеса которой гораздо скромнее. Core Scientific тоже основана в 2017 году, но управляет криптомайнинговыми кампусами ЦОД в США. Всего компания располагает 745 МВт доступной энергии и ещё 372 МВт зарезервированной ёмкости. У неё имеется собственное майнинговое оборудование и, конечно, на её мощностях расположено оборудование клиентов. Впрочем, дела Core Scientific идут довольно плохо — в декабре 2022 года она подала заявление о банкротстве, после чего цена её акций упала на 98 %. UPD 06.06.2024: руководство Core Scientific отказалось от предложения CoreWeave о покупке, отметив, что ведёт переговоры с другими клиентами по поводу предоставления ёмкостей для хостинга HPC- и ИИ-проектов. Компания считает, что для неё это пока более прибыльно, чем продажа. На фоне последних новостей акции компании выросли. UPD 26.06.2024: CoreWeave подписала с Core Scientific ещё одно соглашение об аренде, на этот раз на 12 лет и 70 МВт.
05.06.2024 [14:07], Руслан Авдеев
Против всех правил: Intel публично раскрыла стоимость ИИ-ускорителей GaudiХотя производители легко раскрывают рекомендованные цены на классические процессоры, в случае с ИИ-ускорителями ситуация обстоит иначе. Как сообщает портал CRN, Intel публично объявила стоимость новейшей платформы Gaudi3. Фактически компания нарушила негласно принятые в отрасли нормы секретности, сообщив в ходе выставки Computex, что UBB-плата с восемью OAM-модулями Gaudi3 будет стоить $125 тыс. для производителей серверов, намеренных поддержать платформу в момент выпуска в III квартале 2024 года. Intel раскрыла цены после того, как конкуренты в лице NVIDIA и AMD пообещали представлять всё более мощные чипы ежегодно — это станет серьёзной угрозой как для Intel, так и для менее крупных игроков. По оценкам Intel, $125 тыс. — это всего ⅔ стоимости платформы NVIDIA с восемью ускорителями H100, лежащих в основе системы NVIDIA DGX и серверов стороннего производства. Хотя в самой NVIDIA цены своих ускорителей или платформ не раскрывают, если верить расчётам Intel, платформа HGX H100 обходится приблизительно в $187 тыс. Цена может меняться в зависимости от объёмов закупок и конфигурации серверов. При этом ускорители Blackwell B200 будут стоить уже $30-$40 тыс./шт. В Intel утверждают, что по соотношению цена/производительность чипы Gaudi3 в сравнении с H100 в 2,3 раза эффективнее при инференсе и на 90 % — при обучении. UBB-плата с восемью ускорителями Gaudi2 стоит всего $65 тыс., это приблизительно треть от стоимости платформы NVIDIA HGX H100. При этом в публичных бенчмарках MLPerf только Gaudi2 смогли составить конкуренцию H100 как в обучении, так и в инференсе. Цены на отдельные чипы Gaudi 3 пока не называются. Есть и ещё один важный момент — ускорители Gaudi используют встроенные Ethernet-контроллеры как для связи между собой, так и для общения с внешним миром, тогда как решениям NVIDIA требуется отдельный адаптер InfiniBand/Ethernet на каждый ускоритель, что увеличивает итоговую стоимость платформы. В Intel уверены, что клиенты всё больше уделяют внимания показателю токен/$, на который большое влияние оказывает стоимость инфраструктуры. В компании пояснили, что раскрытие цен на Gaudi2 и Gaudi3 поможет клиентам более эффективно планировать инвестиции в ИИ-проекты. Например, стартапы часто не имеют точных сведений об экосистеме, ценах и процессе закупок, так что теперь им будет легче рассчитать, чего можно ожидать от предлагаемого оборудования. Открытость Intel нашла поддержку у крупных производителей IT-оборудования.
05.06.2024 [14:01], Андрей Крупин
ФСТЭК России продлила срок действия сертификатов на СУБД Postgres версий Pro и Pro Enterprise до 2029 годаФедеральная служба по техническому и экспортному контролю продлила срок действия сертификатов соответствия на систему управления базами данных СУБД Postgres в версиях Pro и Pro Enterprise. Об этом говорится в сообщении компании-разработчика Postgres Professional. Выданные ФСТЭК России сертификаты допускают применение СУБД Postgres Pro/Pro Enterprise в значимых объектах критической информационной инфраструктуры 1 категории, в государственных информационных системах 1 класса защищённости, в автоматизированных системах управления производственными и технологическими процессами 1 класса защищённости, в информационных системах персональных данных при необходимости обеспечения 1 уровня защищённости персональных данных, в информационных системах общего пользования II класса. ![]() Источник изображения: macrovector / freepik.com Сертификаты соответствия действительны до 2029 года. Ранее редакции Postgres Pro стали первыми среди отечественных СУБД, сертифицированными согласно новым требованиям ФСТЭК России по безопасности информации к системам управления базами данных от 14 апреля 2023 года, утверждённых Минюстом в июле 2023 года.
05.06.2024 [12:47], Руслан Авдеев
Google потратила $5 млрд на расширение ЦОД и облака в СингапуреКомпания Google объявила о завершении расширения кампуса ЦОД и облачного региона в Сингапуре. По данным Datacenter Dynamics, она вложила $5 млрд в цифровую инфраструктуру города-государства. Для сравнения — в 2018 году заявленный объём инвестиций составлял всего $850 млн. Глава подразделения Google, занятого «чистой» энергетикой в Азиатско-Тихоокеанском регионе, Джорджио Фортунато (Giorgio Fortunato) заявил, что инвестиции компании будут способствовать экономическому росту Сингапура. К 2030 году местные бизнесы смогут заработать на внедрении ИИ $147,6 млрд. Он подчеркнул, что ЦОД в Сингапуре созданы с использованием передовых технологий вроде эффективных систем охлаждения и управления водными ресурсами. По данным компании, сегодня в дата-центрах Google в Сингапуре работает 500 человек. Расширение инфраструктуры поможет удовлетворить растущий местный и глобальный спрос на облачные сервисы и станет дополнением к стратегическим ИИ-инициативам, связанным с проектами Google и сингапурских властей. В самой компании заявляют, что расширение ЦОД в Сингапуре подтверждает стремление Google помочь организациям Юго-Восточной Азии инвестировать в цифровые возможности, в то же время гарантируя экобезопасный рост. ![]() Источник изображения: Joshua Ang/unsplash.com Дата-центры Google работают при относительно высокой средней температуре 27 °C, которая комфортна и для сотрудников, и для оборудования. Утверждается, что местные ЦОД используют системы охлаждения, специально созданные для многократного использования переработанной воды. Строительство первого ЦОД Google в Сингапуре началось в 2011 году, а эксплуатацию его ввели в конце 2013-го. Над вторым объектом работы начались в 2015 году, а в строй он вступил в конце 2018-го. Первый облачный регион Google запустила в Сингапуре в 2017 году. В 2018 году началось строительство третьего дата-центра, в 2022 году его ввели в эксплуатацию, т.е. на два года позже, чем планировалось, зато теперь это крупнейший дата-центр компании в Сингапуре. На днях сообщалось, что Сингапур «разблокирует» ещё 300 МВт для новых дата-центров благодаря «зелёным» инициативам. Развиваются и другие проекты в Юго-Восточной Азии. На прошлой неделе Google анонсировала инвестиции $2 млрд в строительство первого ЦОД и облачного региона в соседствующей с Сингапуром Малайзии.
05.06.2024 [12:15], Сергей Карасёв
Комплект Raspberry Pi AI Kit с ИИ-ускорителем Hailo расширит возможности Raspberry Pi 5Команда Raspberry Pi анонсировала комплект Raspberry Pi AI Kit, который позволяет наделить ИИ-возможностями одноплатный компьютер Raspberry Pi 5, дебютировавший в сентябре 2023 года. Модуль расширения уже доступен для заказа по ориентировочной цене $70. В основу Raspberry Pi AI Kit положен ИИ-чип Hailo-8L, созданный Hailo Technologies. Это изделие ориентировано на приложения, которым не требуется слишком высокое ИИ-быстродействие. Заявленное быстродействие достигает 13 TOPS, а стандартное энергопотребление составляет 1,5 Вт. ![]() Источник изображений: Raspberry Pi В случае Raspberry Pi AI Kit чип Hailo-8L установлен на модуль типоразмера M.2 2242, который подключается к соответствующему коннектору на плате расширения M.2 HAT+. Эта плата, в свою очередь, обменивается данными с Raspberry Pi 5 посредством интерфейса PCIe 2.0. Габариты M.2 HAT+ составляют 65 × 56,5 × 5,6 мм. Заявленный диапазон рабочих температур простирается от 0 до +50 °C. Новинка может быть смонтирована поверх одноплатного компьютера. ![]() Отмечается, что при использовании обновлённой версии Raspberry Pi OS распознавание чипа Hailo-8L происходит автоматически, после чего ускоритель становится доступен для обработки ИИ-нагрузок. Говорится о полной интеграции с программным стеком Raspberry Pi Camera, что позволяет реализовывать различные приложения на основе машинного зрения.
04.06.2024 [18:05], Александр Бенедичук
Lenovo и Cisco объявили о стратегическом партнерстве: вместе к ИИ-вершинамLenovo и Cisco объявили о стратегическом партнерстве. Меморандум о взаимопонимании (MoU), подписанный компаниями, предусматривает совместную разработку, инжиниринг и реализацию готовых инфраструктурных решений для генеративного ИИ — от периферии до облаков. Сотрудничество позволит заказчикам получить полностью интегрированное решение, предоставляющее согласованное и оптимизированное взаимодействие сетевой экосистемы Cisco Nexus с оборудованием Lenovo. Это позволит заказчику получить полностью готовое инфраструктурное решение «под ключ» с поддержкой по принципу «одного окна». Кроме того, компании предоставят единый простой интерфейс для настройки, управления и анализа сетевых операций во всей сетевой экосистеме. Lenovo и Cisco собираются предлагать гиперперсонализированные решения, которые помогут не только расширить использование генеративного ИИ, но и ускорят цифровую трансформацию компаний, причём наиболее эффективным с точки зрения результата и затрат способом.
04.06.2024 [17:52], Руслан Авдеев
Sharp, KDDI и Supermicro построят крупнейший в Азии дата-центр для ИИ на базе суперускорителей NVIDIA GB200 NVL72Японский производитель электроники Sharp совместно с телеком-компанией KDDI готовятся построить «крупнейший в Азии» дата-центр для ИИ-вычислений на базе завода Sakai Plant по выпуску LCD-дисплеев в Осаке. По данным Datacenter Dynamics, партнёры привлекли к проекту и другие компании. В частности, подписано соглашение с Supermicro и Datasection. Вместе они переделают завод Sakai в современный дата-центр для ИИ-задач на базе аппаратных решений NVIDIA. Ранее сообщалось, что «материнская» компания данного предприятия — тайваньская Foxconn — планирует закрыть завод осенью этого года и превратить его в ЦОД из-за растущих убытков на рынке LCD. В заявлении KDDI указывается, что дата-центр будет использовать новейшие суперускорители NVIDIA GB200 NVL72, на которых возложат задачи обучения и запуска LLM. Более подробных официальных спецификаций ЦОД пока нет, но издание Nikkei Asian Rewiew сообщает, что ЦОД получит минимум 1 тыс. узлов. Говорится, что инфраструктура бывшего завода Sharp Sakai Plant отлично подойдёт для дата-центра, поскольку имеет достаточно подходящих площадей и достаточно энергии для питания мощных серверов. Datasection будет поддерживать функционирование ЦОД, KDDI возьмёт на себя строительство, в том числе сетевой инфраструктуры — компания является «родительскоим» бизнесом для Telehouse, уже управляющей ЦОД по всему миру, в том числе в Азии. Supermicro обеспечит передовые комплексные системы жидкостного охлаждения (СЖО) с системами мониторинга их работы. По словам Supermicro, сотрудничество участвующих в проекте ЦОД компаний стали хорошим примером приверженности индустрии к «зелёным» вычислениям и готовности к глобальному внедрению ИИ-систем.
04.06.2024 [12:10], Руслан Авдеев
Илон Маск готовит для xAI суперкомпьютер c 300 тыс. NVIDIA B200, но пока придётся обойтись H100Илон Маск (Elon Musk) заявляет, что к лету 2025 года его ИИ-стартап xAI введёт в эксплуатацию суперкомпьютер c 300 тыс. новейших ускорителей NVIDIA B200 и SuperNIC ConnectX-8, передаёт Datacenter Dynamics. Заодно Маск пообещал уже в ближайшие месяцы ввести в эксплуатацию кластер из 100 тыс. ускорителей NVIDIA H100 с жидкостным охлаждением. При этом важно помнить, что Маск нередко даёт обещания, которые потом никогда не выполняет или выполняет совсем не так, как ожидалось. Например, на днях The Information сообщала, что 100 тыс. ускорителей H100 должны заработать только следующим летом. Вероятнее всего, компания построит компактный и относительно недорогой кластер, который позже расширится до 100 тыс. ускорителей. Такую же схему могут реализовать и с системой из 300 тыс. ускорителей. Предполагается, что такой суперкомпьютер будет стоить десятки миллиардов долларов — больше, чем xAI привлекла от инвесторов. По словам главы NVIDIA Дженсена Хуанга (Jensen Huang), один B200 стоит $30-40 тыс. Даже если Маску удастся приобрести ускорители подешевле, речь будет идти о $9 млрд. С учётом того, что компании понадобится инфраструктура, связь, классические процессоры, земля и коммунальное обслуживание, речь будет идти о ещё более дорогостоящем проекте — даже не принимая во внимание стоимости потребляемой воды и электроэнергии. В прошлом месяце xAI привлекла $6 млрд в ходе очередного раунда финансирования, что подняло стоимость компании до $24 млрд. В совокупности с предыдущим раундом, в ходе которого удалось собрать $1 млрд, средств будет достаточно для покупки 100 тыс. H100, оплату работы персонала и текущих вычислительных потребностей — пока xAI арендует около 16 тыс. ускорителей H100 у Oracle Cloud, а недавно сообщалось о намерении xAI потратить $10 млрд на серверы в облаке Oracle.
03.06.2024 [23:50], Алексей Степин
AMD готовит ускорители Instinct MI325X и MI350XВместе с EPYC Turin компания AMD анонсировала и новые ускорители серии Instinct. Так, на смену MI300X компания предложит Instinct MI325X, оснащённый памятью HBM3e. Он должен стать достойным ответом на серию ускорителей NVIDIA Blackwell. Последний также получит память данного типа, тогда как более совершенные NVIDIA Rubin с памятью HBM4 увидят свет лишь в 2026 году. Технически MI325X представляет собой усовершенствованный вариант MI300X. Использование более плотной HBM3e позволило довести объём набортной памяти до 288 Гбайт, что больше, нежели у Blackwell В100 (192 Гбайт) и Hopper H200 (141 Гбайт). Выросла и пропускная способность, с 5,3 до 6 Тбайт/с. В настоящее время тройка главных поставщиков памяти уже готовят HBM3e-сборки 12-Hi ёмкостью до 36 Гбайт. Micron и SK Hynix освоили ПСП 9,2 Гбит/с на контакт, в то время как Samsung планирует достичь 9,8 Гбит/с. Правда, для MI325X эта цифра составит примерно 5,9 Гбит/с на контакт. В остальном конфигурация нового ускорителя осталась прежней в сравнении с MI300X. Под вопросом разве что теплопакет, но вряд ли он так уж значительно превысит уже имеющиеся 750 Вт. AMD Instinct MI325X получит полную совместимость с любой инфраструктурой на базе MI300X, достаточно будет лишь заменить модули OAM. Начало поставок новинки запланировано на IV квартал 2024 года, но, как считают зарубежные обозреватели, AMD придётся конкурировать за поставки памяти с другими разработчиками ускорителей. Вместе с анонсом MI325X компания впервые за два года опубликовала план дальнейшего развития семейства Instinct. Сейчас AMD активно работает над архитектурой CDNA4, которая дебютирует в ускорителях MI350 в 2025 году. Они будут производиться с использованием 3-нм техпроцесса и получат поддержку FP4/FP6. Ожидается повышение как производительности, так и энергоэффективности. Причём AMD намеревается сохранить лидерство по объёму памяти. Следующее поколение архитектуры под условным названием CDNA Next появится лишь в 2026 году в серии Instinct MI400, где AMD ещё более активно задействует чиплетный подход. AMD вслед за NVIDIA переходит к ежегодному выпуску новых ускорителей и к переходу на новую архитектуру каждые два года. Гонка в сфере ИИ ускоряется и взятый темп позволит компании более успешно играть на этом рынке. Работает AMD и над программной составляющей, развивая пакет ROCm, адаптирую и упрощая запуск всё большего количества моделей, сотрудничая с Hugging Face и развивая PyTorch, TensorFlow и JAX.
03.06.2024 [22:35], Сергей Карасёв
Positive Technologies представила межсетевой экран нового поколения на базе Intel Xeon Sapphire RapidsКомпания Positive Technologies (РТ) представила прототип межсетевого экрана нового поколения (NGFW), в основу которого положена аппаратная платформа Intel Xeon Sapphire Rapids. Утверждается, что на сегодняшний день новинка является первым и единственным в РФ NGFW на базе этих CPU, работаюших в тандеме с оперативной памятью DDR5. По результатам внутренних испытаний, брандмауэр по производительности сопоставим с мировыми аналогами. Дизайн платформы полностью разработан и протестирован специалистами Positive Technologies, а контрактное производство оборудования осуществляется на отечественных заводах. Устройство, как отмечается, демонстрирует максимально высокие показатели быстродействия при проверке сетевых пакетов по их содержимому с целью регулирования и фильтрации трафика (DPI), а также при предотвращении вторжений (IPS). По сравнению с изделиями предыдущего поколения производительность повышена приблизительно на 70 %. Среди программных функций межсетевого экрана выделяются профили IPS, виртуальные маршрутизаторы, GeoIP, URL-фильтрация и отказоустойчивый кластер active/standby. «Сетевая платформа PT NGFW позволяет обеспечить высокую скорость работы тяжеловесных модулей защиты при их одновременном включении. Компаниям это даёт быстрые IPS, потоковый антивирус, URL-фильтрацию и контроль используемых приложений», — говорит директор по продуктам Positive Technologies. В семейство межсетевых экранов PT NGFW войдут модели с разным уровнем производительности: от 5,6 Гбит/c до 160 Гбит/c в режиме L4 FW и от 585 Мбит/с до 60 Гбит/с в режимах IPS и «Инспекция приложений» (см. характеристики). Для всех брандмауэров реализована централизованная система управления с поддержкой до 10 тыс. устройств. Возможна интеграция PT NGFW c MaxPatrol SIEM, PT Sandbox, PT Network Attack Discovery и другими продуктами Positive Technologies: это позволяет оперативно реагировать на инциденты и минимизировать их влияние на сеть и бизнес. Интуитивно понятный интерфейс системы управления, как утверждается, обеспечивает быстрое внедрение, простую настройку и защиту от ошибок в конфигурации. Межсетевые экраны используют модернизированный стек TCP/IP. С целью повышения скорости передачи данных компания отказалась от стандартного сетевого стека Linux, перенесла обработку сетевых пакетов в пользовательское пространство и избавилась от лишних ресурсоёмких копирований. Благодаря этому удалось расширить функциональные возможности без потери производительности. |
|