Материалы по тегу: google
19.03.2025 [17:34], Руслан Авдеев
Google купит стартап Wiz за баснословные $32 млрдКомпания Google объявила о покупке стартапа Wiz Inc., работающего в области информационной безопасности, за $32 млрд., что станет крупнейшей сделкой в истории Google. При этом Wiz в ходе последнего раунда инвестиций в прошлом году была оценена в $12 млрд. Тогда же Google предложила Wiz $23 млрд, но стартап отказался от сделки, заявив о намерении выйти на IPO, сообщает Silicon Angle. Согласно обновлённым данным, Google согласилась выплатить Wiz $3,2 млрд, если сделка не состоится. Например, если ей воспрепятствует один из регуляторов. Некоторые эксперты считают, что именно боязнью блокировки сделки вызван отказ руководства Wiz продать компанию в 2024 году. По слухам, условия новой сделки предполагают, что стартап сможет продолжить действовать независимо в случае, если антимонопольное разбирательство вдруг затянется. Wiz была основана в 2020 году. Двумя годами позже годовая регулярная выручка компании достигла $100 млн, а не так давно, по слухам, выросла до $700 млн. Компания утверждает, что более половины компаний из списка Fortune 100 использует её платформу для обеспечения кибербезопасности. ПО помогает компаниям устранять уязвимости в облачных средах, защищать код разработчиков и отражать кибератаки. ![]() Источник изображения: Google Компания предлагает несколько ключевых продуктов. Wiz Cloud обнаруживает уязвимости вроде неверной конфигурации облачных сред, выявляет известные эксплойты и слабости систем контроля доступа. Wiz Defend обнаруживает и блокирует кибератаки с использованием eBPF-сенсора и аудита логов. Wiz Defend собирает подробные данные об инцидентах безопасности и получает информацию о потенциальных уязвимостях из других источников. Wiz Code умеет выявлять уязвимости напрямую в редакторе кода и даёт советы по их устранению. Инструменты Wiz доступны во всех крупнейших публичных облаках. Google объявила, что не планирует менять подобную практику после покупки. Согласно данным в блоге Google, Wiz сохранит совместимость со всеми конкурирующими облаками, а Google Cloud Marketplace по-прежнему будет предлагать защитные инструменты, созданные сторонними разработчиками. ![]() Источник изображения: Sigmund/unsplash.com При этом IT-гигант выразил намерение разработать «унифицированную платформу для обеспечения кибербезопасности», объединив технологии Wiz с решениями Google Security Operations, которые позволяют проводить аудит безопасности и автоматизировать реакцию на кибератаки. Wiz — не первая многомиллиардная покупка Google в области кибербезопасности. В 2022 году приобрела за $5,4 млрд провайдера защитных сервисов Mandiant. Кроме того, около десяти лет назад внутренний проект компании BeyondCorp помог принятию принципа «нулевого доверия» для любых устройств. Также компания известна разработкой фреймворка SLSA для безопасной разработки ПО. Сделку по покупке Wiz планируется закрыть в 2026 году, пока она ожидает одобрения регуляторов.
19.03.2025 [10:42], Руслан Авдеев
Разработчик «лазерного интернета» Taara отпочковался от Alphabet и стал независимой компаниейПопытка Google разработать технологию для обеспечения отдалённых от цивилизации мест связью с помощью надувных шаров и беспроводной связи в рамках проекта Loon доросла до выделения в самостоятельную компанию. Подобный успех у «побочных» начинаний техногиганта случается довольно редко, но детище Google заслужило особое отношение, сообщает The Register. Проект Loon развивался в группе, в своё время известной как Google X. После того, как Alphabet стала родительской компанией Google, подразделение стало называться просто в X (не имеет отношения к соцсети Маска). Предполагалось, что X будет заниматься перспективными побочными проектами. В рамках проекта Loon разработчики пытались обеспечить глухие места интернет-подключением с помощью крупных воздушных шаров, оснащённых LTE-станциями. Шары же общались друг с другом посредством лазерных модулей. Alphabet фактически свернула Loon в 2021 году после того, как попытки коммерциализации провалились. ![]() Источник изображения: Taara А вот лазерную технологию передачи данных сохранили и после доработки преобразовали в решение Taara Lightbridge, позволяющее передавать данные со скоростью до 20 Гбит/с на расстояние до 20 км. Продукт позиционировался как альтернатива прокладке оптоволоконных кабелей в отдалённых районах и местах с неблагоприятной средой. Кроме того, его предлагали использовать для передачи данных через водные преграды. Телеком-операторам технология понравилась и её внедрили Airtel и Liberty Networks. Taara создала для Lightbridge специальный чип, потенциально позволяющий создать в будущем очень маленькие беспроводные оптические сетевые устройства. Если технология первого поколения Taara использовала физические методы для управления лучами с помощью системы зеркал, сенсоров и другого оборудования, то теперь почти вся «механика» реализована в самом чипе в виде сотен оптических модулей. Всем теперь управляет ПО и нет громоздких движущихся компонентов. Общие принципы технологии те же, но теперь всё необходимое умещается в модуль размером с ноготь. Если на прокладку кабелей уходят дни, месяцы, а иногда и годы, то для развёртывания Taara Lightbridge достаточно считаных часов. В тестах удавалось передавать с помощью двух чипов данные со скоростью 10 Гбит/с на расстояние до 1 км на открытом воздухе — и это только начало. Использование новых чипов позволяет не только обеспечить связью недоступные места, но и пересмотреть принципы построения и работы ЦОД, а также управления беспилотными автомобилями и др. Новый чип, как ожидается, будет доступен в 2026 году. Теперь X объявила, что Taara будет выделена в независимую компанию после того, как она получила инвестиции от Series X Capital. В феврале сообщалось, что терминалы Taara, только не на шарах, а на беспилотниках, уже испытала Vodafone. В целом проект X (он же Moonshot Factory) компании Google/Alphabet более всего известен «выпускником» Waymo — сервисом беспилотных такси. Прочие перспективные технологии вроде помощника разработчика AIDA были «поглощены» Google. Некоторые, конечно, и вовсе не получили широкого распространения. Например, проект Wing по доставке товаров беспилотниками так и не смог добиться успеха.
11.03.2025 [12:21], Руслан Авдеев
Google Cloud запустила облачный регион в Швеции — одним из ключевых клиентов станет IKEAGoogle объявила о создании очередного облачного региона на территории Швеции. Это уже 42-й регион Google Cloud в мире и 13—й — в Европе, сообщает пресс-служба компании. Одним из её партнёров-клиентов в этом проекте стала IKEA, объявившая, что она «в восторге» от сотрудничества с Google Cloud и что она разделяет приверженность IT-гиганта к инновациям в Швеции. Поддерживает новый проект и шведский сервис Spotify, который сотрудничает с Google уже с десяток лет. Регион europe-north2 обеспечит шведские бизнесы, организации и отдельных клиентов платформой для ИИ, машинного обучения и аналитики данных, а низкая задержка доступа сделает использование сервисов комфортным. Так, Шведская правительственная Комиссия по ИИ (AI Comission) недавно опубликовала план, который включает создание «ИИ-фрабрики» для государственного сектора. Создание региона также позволяет решить вопрос с требованиями законодательства по обеспечению суверенитета данных и размещению данных жителей на территории страны. Обещаны шифрование данных во время хранения и передачи, детализированный контроль доступа, передовые системы обнаружения угроз и т.п. Новый облачный регион Google с 2026 году будет как минимум на 99% обеспечен безуглеродной энергией (CFE) благодаря экологически чистой энергосистеме страны. Google также подчеркивает свои усилия для устойчивого развития, в том числе упоминая первые соглашения о покупке экологически чистой энергии (PPA) в Швеции с 2013 года и поддержку проектов ветровой энергетики мощностью более 700 МВт. Регион находится Авесте (Avesta) в лене Даларна (Dalarnas län) недалеко от Стокгольма. Регион включает три зоны доступности, однако расширение до как минимум трёх отдельных ЦОД запланировано на будущее. При этом Google инвестирует не только в данный облачный регион, но и в цифровую экосистему Швеции вообще, совместно с местными партнёрами вроде Devoteam и Tietoevry Tech Services. Организовано сотрудничество с местными бизнесами, образовательными учреждениями и государственными организациями для создания процветающей экосистемы. Google заявила, что намерена и далее продолжать инвестиции в Швецию, сотрудничать с бизнесом и другими организациями. Не дремлют и конкуренты. Летом прошлого года Microsoft сообщила, что вложит $3,2 млрд в ИИ-инфраструктуру и облако в Швеции, а в конце августа CoreWeave пообещала, что развернёт в Швеции крупнейший в Европе ИИ-кластер NVIDIA Blackwell.
08.03.2025 [02:05], Владимир Мироненко
Google отключилась от российских IX и ЦОД, но о полном уходе из страны речи нетGoogle отключила пиринговые соединения с некоторыми российскими точками обмена трафиком (IX) и дата-центрами, сообщил ресурс RB.ru («Русбейс») со ссылкой на данные международной базы PeeringDB, содержащей актуальную информацию о IX и дата-центрах, с которыми у Google есть пиринг. По словам одного из источников RB.ru, текущая ситуация может быть связана с тем, что российская «дочка» Google находится в состоянии банкротства, счета опустошены из-за штрафов, поэтому оплачивать присутствие на IX и их услуги компании нечем. По данным интернет-архива Wayback Machine, до середины июля 2024 года в базе PeeringDB было указано, что Google подключена к таким российским IX и дата-центрам, как DataLine-IX и DataLine OST («РТК-ЦОД»), inet2 и W-IX («Эр-Телекомом»), MegaFon-IX, DATAIX, MSK-IX, Piter-IX, Eurasia Peering IX, ЦОД «Цветочная» (Selectel), Санкт-Петербургский ИВЦ РЖД, а с октября 2024 года этой информации в базе PeeringDB больше нет. Администратор PeeringDB подтвердил ресурсу RB.ru отсутствие в базе данных информации о подключении Google к IX в России, отметив, что организации сами вносят и удаляют данные о подключениях, то есть удалить информацию могли только сотрудники американской компании. В «Мегафоне» подтвердили RB.ru, что Google отключилась от MegaFon-IX, и это произошло по инициативе компании. При этом было отмечено, что это не единственное соединение с Google, и отключение никак не повлияло на качество сервиса. Другой источник подтвердил RB.ru, что Google отключилась от W-IX. Вместе с тем представители ряда IX утверждают, что полного отключения Google от их точек обмена трафиком не было. Так, Google имеет физическое присоединение к DATAIX, но прекратила анонсировать и принимать маршруты через роут-серверы (route-server). В MSK-IX сообщили, что хотя Google больше не использует роут-серверы, она «продолжает присутствовать на MSK-IX, обеспечивая связность через партнёрские сети и прямые пиринговые соединения». Аналогичная ситуация наблюдается и в Piter-IX. В Piter-IX сообщили, что речи о полном уходе Google с российского рынка или потере доступа к её сервисам нет: «У нас продолжается работа над поддержанием стабильного доступа к сервисам Google, в том числе за счёт соединения в Германии и Финляндии — как раз на случай отключения всех серверов Google Global Cache в России». Серверы Google Global Cache (GGC) продолжают работу, но компания больше не имеет возможности обновлять или менять оборудование, а со временем GGC могут выйти из строя. Всего в РФ таких серверов более 1,1 тыс., причём частично они обслуживают и клиентов из сопредельных стран. Стоит отметить, что ещё в конце 2023 года Google заявила о намерении отказаться от роут-серверов на точках обмена трафиком, предложив оператором по всему миру прямое присоединение к своей сети. Прямые пиринговые стыки с сетью Google по-прежнему работают у многих крупных операторов РФ. Однако, как сообщил RB.ru один из экспертов, не у всех операторов есть возможность быстро перейти на прямой пиринг. Особенно актуально это для маленьких операторов, в том числе тех, что были поглощены в последние годы более крупными игроками рынка.
06.03.2025 [21:36], Владимир Мироненко
Google раскрыла детали уязвимости в процессорах AMD и опубликовала инструментарий для анализа и изменения их микрокодаСпециалисты Google Security Team сообщили детали уязвимости (CVE-2024-56161), позволяющей обойти механизм проверки цифровой подписи при обновлении микрокода в процессорах AMD на базе микроархитектуры от Zen1 до Zen4, о чём пишет ресурс OpenNet. Уязвимости присвоен рейтинг опасности CVSS 7,2 балла из 10, что говорит о серьёзности проблемы. «Неправильная проверка подписи в загрузчике исправлений микрокода CPU AMD может позволить злоумышленнику с привилегиями локального администратора загрузить вредоносный микрокод», — говорится в сообщении Google. Исследователи известили AMD об обнаруженной уязвимости 25 сентября 2024 года. Уязвимость, сделавшая возможной загрузку собственных патчей для микрокода процессоров AMD Zen 1-4, вызвана использованием для верификации вместо рекомендованных хеш-функций алгоритма CMAC, который не подходит для этого и не защищён от подбора коллизий. Компания AMD устранила уязвимость в декабрьском обновлении микрокода путём замены CMAC на криптографически стойкую хеш-функцию. Google также опубликовала под лицензией Apache 2.0 инструментарий Zentool, с помощью которого можно анализировать микрокод, манипулировать им и создавать патчи для изменения микрокода в процессорах AMD Zen. Zentool включает команды: zentool edit — редактирует параметры файлов с микрокодом, изменяет микрокод и заменяет отдельные инструкции; zentool print — выводит информацию о структурах и параметрах микрокода; zentool load — загружает микрокод в CPU; zentool resign — корректирует цифровую подпись с учётом добавленных в микрокод изменений. Также в состав Zentool входят утилиты mcas и mcop с реализациями ассемблера и дизассемблера для микрокода. Специалисты Google также подготовили руководство по микроархитектуре RISC86, применяемой в микрокоде AMD, и рекомендации по созданию собственного микрокода с пояснением, как создавать собственные процессорные инструкции, реализуемые на микрокоде RISC86, менять поведение существующих инструкций и загружать изменения микрокода в процессор.
03.03.2025 [15:23], Руслан Авдеев
Google развернула уже 100 млн литий-ионных ячеек в своих ЦОДСистемы энергоснабжения дата-центров во многом зависят от аккумуляторов в составе ИБП. Участники рынка ЦОД активно инвестируют в создание аккумуляторных систем — не так давно число используемых Li-Ion элементов в дата-центрах Google по всему миру достигло 100 млн шт., сообщает пресс-служба компании. В Google используются системы электропитания с 48 В постоянного тока (48Vdc), причём ИБП интегрированы непосредственно в стойки. Такая распределённая архитектура обладает двумя ключевыми преимуществами: область возможного сбоя ИБП ограничивается одной стойкой; нет дополнительной точки отказа между ИБП и серверами. Такой подход снижает общую стоимость владения (TCO), поскольку ИБП масштабируется вместе с инфраструктурой, благодаря чему уменьшаются затраты на начальном этапе внедрения, говорит компания. Размещение батарей на DC-шине вместе с серверами исключает потери энергии, связанные с промежуточными преобразованиями переменного тока (AC) в постоянный (DC), положительно влияя на общую эффективность системы. В 2016 году Google открыла спецификации своей системы электропитания стоек, включая спецификации для литий-ионных BBU, в рамках Open Compute Project (OCP). Кроме того, Li-Ion аккумуляторы вдвое долговечнее и вдвое мощнее свинцово-кислотных элементов, применявшихся ранее. Таким образом, переход с одних на другие означает, что теперь можно использовать меньше батарей, что также положительно влияет на экологичность ЦОД, говорит Google. В Google отмечают, что развернуть 100 млн Li-Ion элементов можно только благодаря подходу «безопасность прежде всего», принятому в компании. Основным риском для такого типа элементов является возможность неуправляемого нагрева, т. н. «теплового разгона» в случае, если с ними некорректно обращаются, чрезмерно заряжают или не охлаждают должным образом. В результате могут случаться пожары, и хотя такое бывает редко, огонь очень трудно погасить из-за выделения большого количества тепла и риска «цепной реакции» воспламенения соседних элементов. Для использования большого «парка» АКБ в Google применяют метод тестирования UL9540A (стандарт, разработанный для оценки безопасности энергосистем, включая аккумуляторы) и проводит строгие испытания литий-ионных блоков BBU. В результате Google успешно получила от регуляторов разрешения на использование BBU даже в Азиатско-Тихоокеанском регионе, где действуют самые жёсткие правила. Сейчас в Google изучают возможность использования больших энергохранилищ (BESS). Безопасность аккумуляторов — не праздный вопрос. Пожары в дата-центрах вообще случаются не так уж редко, а во многих случаях причиной служат именно инциденты с аккумуляторами. За примерами не надо далеко ходить: один из крупнейших в мире сбоев ЦОД южнокорейской площадки Kakao произошёл именно из-за перегрева и возгорания литий-ионных аккумуляторов SK On, что привело к пожару. В сентябре 2024 года из-за возгорания Li-Ion элементов ИБП пострадал сингапурский ЦОД Digital Realty. В 2023 году эксперты Uptime Institute предупреждали о возможной опасности использования Li-Ion элементов в дата-центрах, поскольку они подвержены повышенному риску возгорания.
22.02.2025 [22:45], Сергей Карасёв
В облаке Google Cloud появились инстансы A4X на базе суперускорителей NVIDIA GB200 NVL72Облачная платформа Google Cloud объявила о запуске виртуальных машин A4 с ускорителями NVIDIA B200 и A4X на основе суперускорителей NVIDIA GB200 NVL72 поколения Blackwell. Эти инстансы ориентированы на ресурсоёмкие приложения ИИ. По заявлениям Google, виртуальные машины A4 обеспечивают высокий уровень производительности при работе с ИИ-моделями на различных архитектурах. Инстансы подходят для таких рабочих нагрузок, как обучение и тонкая настройка. В свою очередь, экземпляры A4X специально созданы для обучения и обслуживания самых требовательных и сверхмасштабных задач ИИ, включая большие языковые модели (LLM) с наиболее ёмкими контекстными окнами и «рассуждающие» модели. Суперускорители GB200 NVL72 объединяют в одной стойке 72 чипа B200 и 36 процессоров Grace. Применяются шина NVLink 5 и инфраструктура жидкостного охлаждения Google третьего поколения. Каждая система GB200 NVL72 обеспечивает быстродействие до 1,44 Эфлопс в режиме FP4 и до 720 Пфлопс в режиме FP8. По заявлениям Google, достигается четырёхкратное увеличение производительности при обучении LLM по сравнению с виртуальными машинами A3 на базе ускорителей NVIDIA H100. Инстансы A4X допускают масштабирование до десятков тысяч графических процессоров Blackwell. Говорится об интеграции с сервисами хранения Cloud Storage FUSE, Parallelstore и Hyperdisk ML, что обеспечивает доступ к данным с малой задержкой (менее 1 мс) и высокую пропускную способность. Новые виртуальные машины будут развёрнуты в различных регионах Google Cloud. Нужно отметить, что ранее о запуске общедоступных инстансов на базе NVIDIA GB200 NVL200 объявила компания CoreWeave, предоставляющая облачные услуги для ИИ-задач. Скоро эти суперускорители станут доступны и в облаке Lambda Labs.
17.02.2025 [17:42], Руслан Авдеев
Исследователи DeepMind предложили распределённое обучение больших ИИ-моделей, которое может изменить всю индустриюПосле того, как ИИ-индустрия немного отошла от шока, вызванного неожиданным триумфом китайской DeepSeek, эксперты пришли к выводу, что отрасли, возможно, придётся пересмотреть методики обучения моделей. Так, исследователи DeepMind заявили о модернизации распределённого обучения, сообщает The Register. Недавно представившая передовые ИИ-модели DeepSeek вызвала некоторую панику в США — компания утверждает, что способна обучать модели с гораздо меньшими затратами, чем, например, OpenAI (что оспаривается), и использованием относительно небольшого числа ускорителей NVIDIA. Хотя заявления компании оспариваются многими экспертами, индустрии пришлось задуматься — насколько эффективно тратить десятки миллиардов долларов на всё более масштабные модели, если сопоставимых результатов можно добиться в разы дешевле, с использованием меньшего числа энергоёмких ЦОД. Дочерняя структура Google — компания DeepMind опубликовала результаты исследования, в котором описывается методика распределённого обучения ИИ-моделей с миллиардами параметров с помощью удалённых друг от друга кластеров при сохранении необходимого уровня качества обучения. В статье «Потоковое обучение DiLoCo с перекрывающейся коммуникацией» (Streaming DiLoCo with overlapping communication) исследователи развивают идеи DiLoCo (Distributed Low-Communication Training или «распределённое обучение с низким уровнем коммуникации»). Благодаря этому модели можно будет обучать на «островках» относительно плохо связанных устройств. ![]() Источник изображения: Igor Omilaev/unsplash.com Сегодня для обучения больших языковых моделей могут потребоваться десятки тысяч ускорителей и эффективный интерконнект с большой пропускной способностью и низкой задержкой. При этом расходы на сетевую часть стремительно растут с увеличением числа ускорителей. Поэтому гиперскейлеры вместо одного большого кластера создают «острова», скорость сетевой коммуникации и связность внутри которых значительно выше, чем между ними. DeepMind же предлагает использовать распределённые кластеры с относительно редкой синхронизацией — потребуется намного меньшая пропускная способность каналов связи, но при этом без ущерба качеству обучения. Технология Streaming DiLoCo представляет собой усовершенствованную версию методики с синхронизацией подмножеств параметров по расписанию и сокращением объёма подлежащих обмену данных без потери производительности. Новый подход, по словам исследователей, требует в 400 раз меньшей пропускной способности сети. Важность и потенциальную перспективность DiLoCo отмечают, например, и в Anthropic. В компании сообщают, что Streaming DiLoCo намного эффективнее обычного варианта DiLoCo, причём преимущества растут по мере масштабирования модели. В результате допускается, что обучение моделей в перспективе сможет непрерывно осуществляться с использованием тысяч разнесённых достаточно далеко друг от друга систем, что существенно снизит порог входа для мелких ИИ-компаний, не имеющих ресурсов на крупные ЦОД. В Gartner утверждают, что методы, уже применяемые DeepSeek и DeepMind, уже становятся нормой. В конечном счёте ресурсы ЦОД будут использоваться всё более эффективно. Впрочем, в самой DeepMind рассматривают Streaming DiLoCo лишь как первый шаг на пути совершенствования технологий, требуется дополнительная разработка и тестирование. Сообщается, что возможность объединения многих ЦОД в единый виртуальный мегакластер сейчас рассматривает NVIDIA, часть HPC-систем которой уже работает по схожей схеме.
08.02.2025 [16:14], Сергей Карасёв
Начато производство первых чипов безопасности на открытой платформе OpenTitanКорпорация Google объявила о начале производства первого чипа, построенного на аппаратной платформе с открытым исходным кодом OpenTitan. Целью инициативы является создание открытой, доступной и надёжной аппаратной реализации Root of Trust (RoT). Проект OpenTitan был начат с нуля в 2018 году. Помимо Google, в нём участвуют Nuvoton, Швейцарская высшая техническая школа Цюриха (ETH Zurich), G+D Mobile Security, lowRISC, Rivos, Seagate, Western Digital, Winbond, zeroRISC и др. Первый чип на базе OpenTitan, пока не получивший определённого названия, изготавливается компанией Nuvoton. Изделие использует архитектуру RISC-V. Отмечается, что в ближайшее время чип станет доступен в составе демонстрационной платы Voyager 1 от lowRISC, а позднее в текущем году появится в хромбуках и решениях для дата-центров. Целью проекта OpenTitan является обеспечение безопасной загрузки критически важных компонентов системы с использованием авторизованного и открытого кода. Чипы OpenTitan могут применяться в самом разном оборудовании — от серверных материнских плат, сетевых карт и маршрутизаторов до потребительских устройств и IoT-продуктов. Google и другие участники инициативы предоставляют исходный код, а также руководства по интеграции и эталонную прошивку. Ожидается, что в перспективе OpenTitan создаст основу, позволяющую повысить уровень доверия к ИТ-платформам и снизить издержки при разработке специализированных чипов для обеспечения безопасности. В настоящее время Nuvoton поставляет образцы изделий OpenTitan для тестирования и оценки, а массовое производство намечено на весну нынешнего года.
06.02.2025 [19:27], Руслан Авдеев
Грамм на экзафлоп — Google ввела новую метрику CCI для оценки углеродных выбросов ИИ-ускорителейGoogle опубликовала результаты внутреннего исследования, показавшие прогресс в повышении углеродной эффективности своих ИИ-ускорителей TPU. По словам компании, за два поколения — от TPU v4 до Trillium (v6) — усовершенствование аппаратной оборудования привело к трёхкратному повышению экологичности выполняемых ИИ-нагрузок. Оценка всего жизненного цикла (LCA) ускорителей позволяет подробно проанализировать статистику выбросов, связанных с ИИ-ускорителями Google, используя полный набор данных — от добычи сырья и производства чипов до потребления электричества во время работы. Компания даже ввела новую метрику Compute Carbon Intensity (CCI), позволяющую оценить углеродные выбросы относительно производительности. CCI показывает, сколько граммов выбросов CO2 приходится на каждый экзафлоп проделанной работы. Чем ниже CCI, тем ниже выброс оборудования для заданной рабочей нагрузки. Для оценки прогресса Google сравнила пять моделей TPU в течение всего их жизненного цикла и пришла к выводу, что TPU новых поколений стали значительно экологичнее, поскольку CCI за четыре года улучшился втрое. TPU Trillium, очевидно, показали наилучшие результаты. Google отмечает, что за весь жизненный цикл TPU 70 % выбросов относятся к эксплуатационным, т.е. связаны с потреблением электричества. Это подчёркивает важность повышения энергоэффективности чипов и снижения выбросов углерода, связанных с энергообеспечением. Однако доля выбросов, связанных с производством, по-прежнему весьма заметна. Более того, со временем она может даже увеличиться, поскольку к 2030 году Google намерена добиться использования полностью безуглеродной энергии в каждой энергосети, питающей её оборудование. Если компания захочет и далее повышать экологичность своих решений, ей придётся вмешаться в цепочки поставок. Кроме того, постоянная оптимизация ИИ-моделей позволит сократить объёмы необходимых вычислений (при прочих равных). Впрочем, повышение эффективности моделей, скорее всего, приведёт к ещё большему использованию ИИ. В будущем Google намерена анализировать углеродные выбросы отдельных ИИ-моделей и влияние на их оптимизации ПО. А пока что выбросы парниковых газов Google из-за ИИ только растут — +48 % за пять лет. |
|