Материалы по тегу: ии
07.02.2025 [11:11], Сергей Карасёв
Hitachi потратит $400 млн на инвестиции в ЦОД-проекты и ИИКомпания Hitachi объявила о формировании своего четвёртого корпоративного венчурного фонда для инвестиций в стартапы с потенциалом создания или трансформации крупных рынков, предвосхищения технологических и социальных изменений, а также стимулирования возможностей для роста. Структура получила название HV Fund. На начальном этапе капитал HV Fund составит $400 млн, что делает его крупнейшим корпоративным венчурным фондом, управляемым Hitachi. Новая структура намерена осуществлять стратегические инвестиции в стартапы, развивающие передовые цифровые решения. Речь, в частности, идёт о проектах в области дата-центров, робототехники, промышленного ИИ, распределённых энергетических систем, квантовых технологий, ядерного синтеза, наук о жизни, космоса и пр. Формирование HV Fund увеличивает общий бюджет корпоративных венчурных фондов Hitachi до $1 млрд. Организация Hitachi Ventures (HV) была основана в июне 2019 года и с тех пор управляла тремя фондами, которые в общей сложности оказали финансовую поддержку 38 стартапам. Среди них несколько достигли статуса единорога, то есть, получили рыночную оценку более $1 млрд. Hitachi Ventures имеет доли в компаниях Makersite, Captura, Archetype AI и др. Многие из стартапов, получивших инвестиции, уже сотрудничают с бизнес-подразделениями и компаниями группы Hitachi. В целом, как отмечается, под руководством Тошиаки Токунаги (Toshiaki Tokunaga), который в апреле 2025 году будет назначен на должность президента и генерального директора Hitachi, компания стремится реализовать стратегию True One Hitachi. Она подразумевает повсеместное внедрение передовых цифровых технологий для обеспечения устойчивого развития бизнеса. В рамках следующего среднесрочного плана управления, который в настоящее время разрабатывается, Hitachi намерена ускорить реализацию перспективных проектов с целью трансформации в мирового лидера в сфере социальных инноваций. Важную роль на этом пути будут играть технологии генеративного ИИ.
06.02.2025 [19:27], Руслан Авдеев
Грамм на экзафлоп — Google ввела новую метрику CCI для оценки углеродных выбросов ИИ-ускорителейGoogle опубликовала результаты внутреннего исследования, показавшие прогресс в повышении углеродной эффективности своих ИИ-ускорителей TPU. По словам компании, за два поколения — от TPU v4 до Trillium (v6) — усовершенствование аппаратной оборудования привело к трёхкратному повышению экологичности выполняемых ИИ-нагрузок. Оценка всего жизненного цикла (LCA) ускорителей позволяет подробно проанализировать статистику выбросов, связанных с ИИ-ускорителями Google, используя полный набор данных — от добычи сырья и производства чипов до потребления электричества во время работы. Компания даже ввела новую метрику Compute Carbon Intensity (CCI), позволяющую оценить углеродные выбросы относительно производительности. CCI показывает, сколько граммов выбросов CO2 приходится на каждый экзафлоп проделанной работы. Чем ниже CCI, тем ниже выброс оборудования для заданной рабочей нагрузки. Для оценки прогресса Google сравнила пять моделей TPU в течение всего их жизненного цикла и пришла к выводу, что TPU новых поколений стали значительно экологичнее, поскольку CCI за четыре года улучшился втрое. TPU Trillium, очевидно, показали наилучшие результаты. Google отмечает, что за весь жизненный цикл TPU 70 % выбросов относятся к эксплуатационным, т.е. связаны с потреблением электричества. Это подчёркивает важность повышения энергоэффективности чипов и снижения выбросов углерода, связанных с энергообеспечением. Однако доля выбросов, связанных с производством, по-прежнему весьма заметна. Более того, со временем она может даже увеличиться, поскольку к 2030 году Google намерена добиться использования полностью безуглеродной энергии в каждой энергосети, питающей её оборудование. Если компания захочет и далее повышать экологичность своих решений, ей придётся вмешаться в цепочки поставок. Кроме того, постоянная оптимизация ИИ-моделей позволит сократить объёмы необходимых вычислений (при прочих равных). Впрочем, повышение эффективности моделей, скорее всего, приведёт к ещё большему использованию ИИ. В будущем Google намерена анализировать углеродные выбросы отдельных ИИ-моделей и влияние на их оптимизации ПО. А пока что выбросы парниковых газов Google из-за ИИ только растут — +48 % за пять лет.
06.02.2025 [16:46], Руслан Авдеев
Индия должна стать лидером в создании малых «рассуждающих» ИИ-моделей, заявил Сэм АльтманНа заключительном этапе азиатского турне глава OpenAI Сэм Альтман (Sam Altman) заявил, что Индия способна стать одним из лидеров в гонке ИИ, особенно — в деле создании малых «рассуждающих» моделей (SLM). Альтман выразил интерес к динамичной экосистеме местных разработчиков, которая может стать ключевым элементом расширения OpenAI, сообщает DigiTimes. По словам Альтмана, Индия стала вторым по величине рынком для компании, поскольку за последний год число пользователей утроилось. Во время визита Альтман встретился с представителями правительства страны. Хотя затраты на разработку новых моделей по-прежнему высоки, Альтман признал, что прогресс в области ИИ может значительно снизить зависимость от дорогостоящего оборудования, а отдача от вложений в ИИ будет расти экспоненциально. Это приведёт к ежегодному десятикратному снижению стоимости «единиц интеллекта» — условного измерения вычислительной эффективности ИИ. По словам бизнесмена, мир достиг стадии невероятного прогресса в сфере «дистилляции» моделей. Хотя обучение даже малых моделей остаётся довольно дорогим, именно небольшие модели с возможностью «рассуждений» приведут буквально к взрыву креативности. И Индия должна быть на переднем крае прогресса. Альтман особенно выделил потенциал проектов в здравоохранении и образовании, где ИИ способен стать движущей силой преобразований. Сейчас индийские компании обратили внимание на открытые модели, включая DeepSeek. Стоит отметить, что в ходе визита в Индию в июне 2023 года Альтман охарактеризовал шансы страны на создание ИИ-моделей уровня ChatGPT как «совершенно безнадёжные». Теперь же он приятно удивлён достижениями Индии в этой области. Глава OpenAI отдельно пояснил, что прежние высказывания относились к трудностям конкуренции с IT-гигантами при создании экономически эффективных моделей. Альтман отдельно подчеркнул, что стоимость API OpenAI значительно упала, и намекнул, что в будущем тоже возможно появление open source инициатив. Индия активно продвигает ИИ-проекты в рамках инициативы IndiaAI, подкреплённой инвестициями в объёме ₹103,7 млрд рупий ($1,2 млрд). Местную большую языковую модель (LLM) власти намерены создать в течение десяти месяцев. Представители Министерства коммуникаций и информационных технологий Индии заявили, что создание базовой структуры уже завершено, теперь усилия разработчиков направлены на создание вариантов моделей, соответствующих уникальным языковым и культурным требованиям страны.
06.02.2025 [13:34], Андрей Крупин
Состоялся релиз Solar Space On‑Premise — комплексного решения для защиты веб-ресурсов крупного бизнесаКомпания «Солар» объявила о выпуске нового продукта Solar Space On‑Premise, предназначенного для защиты онлайн-ресурсов и веб-приложений крупных организаций от различных кибеугроз — DDoS-, брутфорс-атак, спам-заявок и других. Ключевыми составляющими Solar Space On‑Premise являются модули Web AntiDDoS, Web AntiBot и WAF Lite. Программный комплекс разворачивается в IT-инфраструктуре предприятия и обеспечивает фильтрацию сетевого трафика на уровне L7 с производительностью до 500 тысяч запросов в секунду на один сервер. Предусмотрены возможности настройки индивидуальных политик безопасности для каждого защищаемого веб-ресурса, балансировки трафика и интеграции с ситуационными ИБ-центрами SOC для создания единого контура информационной безопасности. ![]() Состав решения Solar Space On‑Premise В числе прочих особенностей комплекса — микросервисная архитектура и поддержка технологий искусственного интеллекта, помогающих фильтровать вредоносный и паразитный трафик. Платформа Solar Space On‑Premise зарегистрирована в реестре отечественного софта и может использоваться в целях замещения зарубежных программных решений. На данный момент продукт проходит сертификацию по требованиям ФСТЭК России.
06.02.2025 [12:31], Руслан Авдеев
Dell'Oro Group: к 2029 году ежегодные капиталовложения в ЦОД превысят $1 трлн, но только с учётом StargateDell'Oro Group прогнозирует, что к 2029 году ежегодные мировые капиталовложения в ЦОД превысят $1 трлн, а их средний темп прироста (CAGR) составит 21 %. К этому моменту расходы на ИИ-серверы с ускорителями и серверы для специфичных нагрузок могут достичь почти половину всех расходов на дата-центры. В 2025 году на долю крупнейших гиперскейлеров — Amazon, Google, Meta✴ и Microsoft — придётся почти половина мировых капиталовложений в ЦОД. Microsoft намерена потратить на расширение инфраструктуры $80 млрд, Google — $75 млрд, а Meta✴ — до $65 млрд. Вместе с тем некоторые облачные провайдеры второго эшелона готовы значительно увеличить капиталовложения в ближайшие годы. Как заявляют в Dell'Oro Group, хотя расходы на инфраструктуру ЦОД ещё не достигли желаемого уровня отдачи и эффективности, рост капиталовложений в долгосрочной перспективе гарантирован. Этому способствуют многолетние инвестиции в поддерживаемые правительствами проекты вроде Stargate, на который в перспективе уйдёт до $500 млрд. Правительство США напрямую Stargate не финансирует, но OpenAI с партнёрами намерена только на первом этапе вложить в него $100 млрд. Пока ожидается, что SoftBank и OpenAI инвестируют по $19 млрд, а Oracle и MGX — по $7 млрд. Остальные средства ещё предстоит привлечь, средства необходимы и самой OpenAI, на которую, вероятно, потратится SoftBank. Прогноз Dell'Oro основан на том, что планы относительно Stargate — не пустой звук. Также учтены долгосрочные планы гиперскейлеров, поскольку крупные игроки, не участвующие в Stargate, тоже намерены расширять свою инфраструктуру. Также эксперты упомянули недорогую и эффективную китайскую модель стартапа DeepSeek, буквально обвалившую на время сегмент фондового рынка США. Утверждается, что новость о DeepSeek была революционной, но другие компании тоже ведут собственные работы над повышением эффективности ИИ-моделей. Ранее сообщалось, что компании вроде Blackstone и Brookfield рассчитывают продолжать инвестиции в инфраструктуру, а эксперты The Register привели подборку мнений ключевых игроков рынка, которые в основном тоже уверены в больших перспективах роста рынка ЦОД.
05.02.2025 [23:04], Владимир Мироненко
Рост Google Cloud замедлился, но ради ИИ компания готова потратить $75 млрд на серверы и ЦОД в 2025 годуХолдинг Alphabet, материнская структура Google, сообщил финансовые результаты IV квартала и всего 2024 финансового года, завершившегося 31 декабря. По итогам 2024 года чистая прибыль Alphabet впервые превысила отметку в $100 млрд, составив $100,12 млрд при выручке в $ 350,02 млрд, выросшей год к году на 14 %. Результаты Alphabet оказались ниже прогнозов Уолл-стрит, поэтому акции холдинга упали на 9 % во вторник на внебиржевых торгах. Консолидированная выручка Alphabet в IV квартале 2024 года выросла на 12 % в годовом исчислении до $96,47 млрд США, что, как утверждает холдинг, отражает устойчивую динамику во всём бизнесе. Вместе с тем показатель оказался ниже консенсус-прогноза аналитиков, опрошенных LSEG, полагавших, что выручка должна быть выше — в пределах $96,56 млрд. Также аналитиков разочаровал квартальный доход облачного подразделения Google Cloud, составивший $11,96 млрд, что на 30 % выше прошлогоднего результата, но ниже консенсус-прогноза в размере $12,19 млрд экспертов, опрошенных StreetAccount. Чистая прибыль Alphabet выросла на 28 % до $26,54 млрд, превысив прогноз аналитиков LSEG в размере $26,0 млрд, при этом чистая прибыль на акцию выросла на 31 % до $2,15, что выше ожиданий аналитиков, опрошенных LSEG, в размере $2,13 на акцию. Alphabet объявил, что выделит $75 млрд на капитальные затраты в 2025 году по сравнению с $52,5 млрд в прошлом году. Это тоже вызвало вопросы у инвесторов, поскольку разница более чем в $22 млрд могла быть добавлена к прибыли холдинга. При этом другие гиперскейлеры также увеличат траты на инфраструктуру: Meta✴ готова вложить $60–65 млрд, а Microsoft — $80 млрд. В свою очередь, руководство Alphabet настаивает на том, что инвестиции оправданны, поскольку Google Cloud сейчас не в состоянии удовлетворить спрос на ИИ-технологии. Финансовый директор Alphabet Анат Ашкенази (Anat Ashkenazi) заявила в ходе онлайн-конференции с аналитиками, что холдинг прилагает все усилия, чтобы развернуть больше мощностей и справиться со спросом. По её словам, эти цифры в первую очередь отражат инвестиции в техническую инфраструктуру, причем крупнейшим компонентом являются инвестиции в серверы, за которыми следуют ЦОД «для поддержки роста бизнеса Google Services, Google Cloud и Google DeepMind». «Мы находимся в ситуации с дефицитом предложения при высоком спросе, и усердно работаем над тем, чтобы ввести больше мощностей в эксплуатацию», — отметила Ашкенази. Она сообщила, что темпы роста облачного подразделения Google могут измениться в 2025 году, поскольку компания продолжает закупать всё больше оборудования и строить больше объектов. По её словам, капитальные затраты Alphabet в I квартале составят от $16 до $18 млрд, и квартальный показатель изменится в течение года. Это выше прогноза аналитиков FactSet в размере $14,3 млрд. Капитальные затраты Alphabet за IV квартал составили $14 млрд превысив ожидания Уолл-стрит в $13,26 млрд, согласно StreetAccount. Сомнения инвесторов в правильности инвестиционной политики Alphabet усилились после анонса китайским стартапом DeepSeek ряда ИИ-моделей, расходы на обучение которых оказались гораздо ниже, чем у Google. «Неутешительные результаты Cloud говорят о том, что импульс, основанный на ИИ, может начать ослабевать как раз в то время, как стратегия Google с закрытой моделью ставится под сомнение DeepSeek», — отметила Эвелин Митчелл-Вольф (Evelyn Mitchell-Wolf), аналитик исследовательской компании Emarketer. Что касается остальных подразделений Alphabet, то рост доходов от рекламы Google составил 10,6 % по сравнению с 11 % годом ранее. Доходы от поиска выросли год к году на 12,0 % до $54,03 млрд по сравнению с ростом на 12,7 % в IV квартале 2023 года. Доходы от рекламы на YouTube выросли на 13,8 % до $10,47 млрд по сравнению с 15,5 % роста годом ранее, а рост всех доходов сервисов (Google Services) составил 10,2 % по сравнению с 12, % годом ранее.
05.02.2025 [16:10], Андрей Крупин
Новая версия российской службы каталогов Avanpost DS получила поддержку доверительных отношений с MS ADКомпания Avanpost, российский вендор в области безопасности идентификационных данных, выпустила новую версию службы каталогов Avanpost Directory Service (DS) 1.6. Avanpost DS представляет собой решение для централизованного управления рабочими станциями и учётными записями, а также аутентификации пользователей по протоколам LDAP(S) и Kerberos. Система предназначена для управления Linux-инфраструктурами, может применяться в паре с Microsoft Active Directory и использоваться в качестве альтернативы зарубежной службе каталогов в рамках импортозамещения ПО. Отечественный продукт обеспечивает бесшовную миграцию с MS AD, управление ресурсами в период сосуществования двух платформ в корпоративной сети, а также привычные сценарии для IT-администраторов. Avanpost DS представлена в двух версиях — бесплатной Public и коммерческой Pro, полностью совместима с российскими дистрибутивами Linux (Astra Linux, «Ред ОС», «Альт» и другими) и подходит для организаций, переходящих на Linux-инфраструктуру. ![]() Источник изображения: avanpost.ru Главное нововведение релиза Avanpost DS 1.6 — поддержка односторонних и двусторонних доверительных отношений между Microsoft Active Directory и Avanpost DS, которая позволяет обеспечить прозрачный доступ к ресурсам в период одновременного использования двух служб в IT-инфраструктуре предприятия. Также в системе были расширены возможности управления парольными политиками. Для удобства администрирования добавлена функциональность корзины службы каталогов по аналогии с Microsoft Active Directory, обеспечивающая восстановление удалённых объектов и оснащённая графическим интерфейсом для доменного клиента. Помимо новых функций, в версии службы каталогов Avanpost DS 1.6 исправлены ошибки отображения групповых политик и отображения событий журнала.
05.02.2025 [15:45], Сергей Карасёв
RDW Computers представила российские серверы «Хибины» на платформе Intel Xeon Emerald RapidsРоссийский производитель компьютерного оборудования RDW Computers анонсировал серверы серии «Хибины», которые, по словам компании, рассчитаны на ресурсоёмкие нагрузки, включая обучение ИИ. Новинки могут применяться в составе облачных платформ, дата-центров и сетевой инфраструктуры. Устройства имеют заключения Минпромторга РФ и включены в Единый реестр российской радиоэлектронной продукции. В семейство вошли модели H212T, H216T и H225T типоразмера 2U, а также изделие H112-12N3P формата 1U. Применена материнская плата RDW MBC-C741P на наборе логики C741 с возможностью установки двух процессоров Xeon Emerald Rapids или Sapphire Rapids (TDP до 385 Вт). Имеются 32 слота DIMM с поддержкой модулей DDR5-5600 ёмкостью до 256 Гбайт каждый (до 8 Тбайт ОЗУ на систему). Все серверы наделены SATA-контроллером с поддержкой RAID 0/1/5/10 (4 × MiniSAS HD) и NVMe-контроллером для накопителей U.2/U.3 с опциональной поддержкой NVMе RAID Key (MCIO ×8). Есть сетевой контроллер 10GbE SFP+ (Intel x710). Модель H212T располагает 12 фронтальными отсеками для LFF-накопителей SATA/SAS/NVMe. У версии H216T есть по восемь лицевых отсеков LFF (SATA/SAS/NVMe) и SFF (SATA/NVMe), а вариант H225T получил 25 отсеков SFF (SATA/SAS/NVMe). Во всех случаях поддерживается горячая замена накопителя. Эти серверы опционально предоставляют четыре тыльных посадочных места для накопителей SFF (SATA/SAS/NVMe). Возможно использование до десяти слотов PCIe 5.0 x16 (FHHL), также есть слот OCP 3.0. За охлаждение отвечают четыре вентилятора. ![]() В свою очередь, серверы H112-12N3P оборудованы 12 фронтальными отсеками для накопителей SFF (SATA/SAS/NVMe) и шестью-восемью вентиляторами. Доступны модификации с поддержкой двух и трёх FHHL-карт расширения PCIe 5.0 x16 (и слотом OCP 3.0). Все устройства комплектуются вентиляторами с возможностью горячей замены и двумя блоками питания мощностью 1300/1600/2200 Вт. Есть сетевой порт управления 1GbE RJ45 (BMC ASPEED 2600), интерфейс D-Sub, порты USB 3.0 (по два спереди и сзади), а также последовательный порт. Заявлена совместимость с доверенными российскими операционными системами.
05.02.2025 [13:18], Руслан Авдеев
OpenAI поможет южнокорейской Kakao в развитии ИИ-решений и не прочь посотрудничать с SK hynix и SamsungКомпания OpenAI объявила о разработке ИИ-продуктов для Южной Кореи при участии местного IT-бизнеса Kakao. Крупный азиатский партнёр поможет американскому бизнесу на местном рынке. Кроме того, отдельно ведутся переговоры о сотрудничестве с Samsung Electronics, SoftBank и подконтрольной ей Arm Holdings над развитием ИИ-мегапроекта Stargate, сообщает Reuters. В турне по Азии глава OpenAI Сэм Альтман (Sam Altman) уже объявил о партнёрстве с SoftBank в сфере ИИ-сервисов в Японии и намерен посетить Индию, где намерен встретиться с премьер-министром Нарендрой Моди (Narendra Modi). Как и SoftBank, Kakao объявила об использовании технологий OpenAI в своих продуктов — в частности, компания владеет популярным в стране мессенджером KakaoTalk, на который приходится 97 % внутреннего рынка. Кроме того, компания наращивает присутствие в сфере электронной коммерции, игр и платежей. ИИ должен стать новым двигателем роста. Эксперты сообщают, что в этом она отстаёт от местного конкурента Naver, которая сотрудничает с Samsung. По словам Альтмана, его компания особенно заинтересована в ИИ-сервисах и сервисах обмена сообщениями. Также он добавил, что энергетические, полупроводниковые и интернет-компании Южной Кореи сделали страну важным рынком для OpenAI, а спрос на ИИ-продукты быстро растёт. По словам бизнесмена, многие корейские компании внесут важный вклад в проект Stargate. Впрочем, Альтман отказался вдаваться в подробности переговоров с азиатскими партнёрами. При этом сообщалось, что обсуждается и возможное сотрудничество с Samsung, хотя пока нет данных, присоединится ли компания к проекту Stargate. Также Альтман встретился с представителями SK Group, которая намерена развивать ИИ ЦОД. Подразделение SK Hynix наряду с Samsung производит передовые чипы памяти, применяемые в ИИ-ускорителях. Компания уже заявила, что обсуждали комплексные планы сотрудничества в области ИИ-ускорителей и экосистемы искусственного интеллекта в целом. Ранее сообщалось, что OpenAI при участии Broadcom и TSMC разрабатывает собственные ускорители. На вопрос о том, не намерена ли OpenAI присоединиться к инвестициям в южнокорейский ИИ-центр, Альтман заявил, что такой вариант «активно рассматрвиается» — ещё в прошлом месяце правительство Южной Кореи заявило, что намерено построить национальный центр ИИ-вычислений с государственными и частными инвестициями на сумму до ₩2 трлн ($1,4 млрд).
05.02.2025 [12:07], Сергей Карасёв
В облаке CoreWeave появились суперускорители NVIDIA GB200 NVL72Компания CoreWeave, предоставляющая облачные услуги для ИИ-задач, объявила о запуске первых в отрасли общедоступных инстансов на базе NVIDIA Blackwell. Они предназначены для наиболее ресурсоёмких нагрузок, включая работу с «рассуждающими» моделями ИИ. Инстансы используют суперускорители NVIDIA GB200 NVL72. Такие устройства объединяют в одной стойке 18 узлов 1U, каждый из которых содержит два ускорителя GB200: в сумме это даёт 72 чипа B200 и 36 процессоров Grace. Применяются шина NVLink 5 и система жидкостного охлаждения. Экземпляры CoreWeave на основе GB200 NVL72 оснащены интерконнектом NVIDIA Quantum-2 InfiniBand, который обеспечивает пропускную способность 400 Гбит/с в расчёте на GPU. Возможно формирование кластеров, насчитывающих до 110 тыс. графических процессоров. Платформа мониторинга CoreWeave Observability Platform в режиме реального времени предоставляет информацию о производительности NVLink, загрузке GPU и температуре узлов. В составе инстансов также задействованы DPU NVIDIA BlueField-3. ![]() Источник изображения: NVIDIA По заявлениям CoreWeave, новые экземпляры обеспечивают прирост производительности до четырёх раз при обучении больших языковых моделей (LLM) по сравнению с решениями предыдущего поколения. Совокупная стоимость владения сокращается в 25 раз и во столько же снижается энергопотребление на задачах инференса в реальном времени. Вместе с тем быстродействие инференса может быть увеличено до 30 раз. Ожидается, что запуск инстансов с суперускорителями NVIDIA GB200 NVL72 поможет в создании моделей следующего поколения и ИИ-агентов. На сегодняшний день экземпляры доступны через CoreWeave Kubernetes Service в регионе US-WEST-01 — пара GB200 обойдётся в $42/час. |
|