Материалы по тегу: anthropic
25.07.2025 [17:04], Руслан Авдеев
Anthropic: к 2028 году для ИИ в США потребуется 50 ГВт электроэнергии, а для передовых ИИ-моделей — 5-ГВт ЦОДКомпания Anthropic объявила, что для сохранения лидерства в гонке ИИ США потребуется «не менее 50 ГВт электричества» для нужд искусственного интеллекта к 2028 году. При этом в компании уверены, что для обучения передовых ИИ-моделей потребуются дата-центры мощностью по 5 ГВт, сообщает Datacenter Dynamics. OpenAI тоже мечтает о 5-ГВт ЦОД. Если раньше Anthropic сообщала, что 50 ГВт нужно ввести в эксплуатацию до 2027 года, то теперь сроки перенесены на год. Из них к 2028 году 20–25 ГВт пойдёт на обучение передовых ИИ-систем в нескольких локациях. Эксперты расходятся в оценках, но даже если эти цифры приблизительно верны, удовлетворить потребности ИИ в энергии будет нелегко. По прогнозам Национальной лаборатории им. Лоуренса в Беркли (LBNL) при Министерстве энергетики США, в 2028 году ЦОД разных типов потребуется 74–132 ГВт. При этом отмечается, что за последний год КНР ввела в эксплуатацию более 400 ГВт генерирующих мощностей, а в США речь идёт лишь о нескольких десятках гигаватт. Как отмечают в компании, строить соответствующую энергетическую инфраструктуру трудно, поскольку приходится добиваться «дублирующих» разрешений на местном уровне, уровне штатов и федеральном уровне. Дополнительно необходимы разрешения на линии электропередачи, возможны задержки с подключением объектов к сети. Anthropic уже внесла ряд предложений, в основном связанных с сокращением регулирования и количества разрешений в целом — что вполне соответствует новому плану администрации США. Среди предложений — разрешить арендовать земли Министерства обороны (DoE) и Министерства энергетики США (DoE) для строительства дата-центров. Ещё при прошлом президенте власти поручили им рассмотреть возможность выдачи участков для ЦОД. Работы продолжились и при новой администрации, в апреле объявлено о выборе 16 площадок, но официально ни одного проекта ещё не анонсировали. Правда, попутно администрация отказалась от проектов «зелёной» энергетики и зачем-то уволила специалистов DoE по ЛЭП. Дополнительно Anthropic призывает ускорить пересмотр Закона о национальной политике в области охраны окружающей среды (NEPA), провести реформы, касающиеся сетевых соединений и создать магистрали передачи электроэнергии в интересах страны. Также необходимо ускорить выдачу разрешений на использование геотермальной, газовой и атомной энергетики, нарастить национальное производство важнейших компонентов электросетей и турбин, а также обучить рабочих. В целом предложения походят на прошлогодние рекомендации OpenAI для правительства. Стоит отметить, что крупнейшие обучающие кластеры Anthropic управляются её ключевым инвестором в лице AWS. Облачный гигант в рамках Project Rainier создаёт для Anthropic масштабный вычислительный кластер с чипами Trainium2, размещёнными сразу в нескольких ЦОД. Поскольку OpenAI намерена развернуть часть кампусов Stargate в ОАЭ, руководство Anthropic неохотно признало, что компании тоже придётся пойти на сотрудничество с ближневосточными режимами, иначе компания просто не выдержит конкуренции.
23.07.2025 [17:18], Руслан Авдеев
Anthropic намерена привлечь инвестиции с Ближнего Востока, хотя сама этому не очень радаAnthropic намерена привлечь инвестиции из ОАЭ и Катара, сообщил глава компании Дарио Амодей (Dario Amodei) во внутренней памятке сотрудникам. Он добавил, что бизнес фактически невозможно вести, пытаясь сделать так, чтобы «плохие люди» не могли извлечь выгоду, сообщает Wired. От работы с Ближним Востоком отказаться не удастся. Ранее компания выступала против поставок ИИ-ускорителей в КНР и страны Ближнего Востока. Информация появилась на фоне конкуренции ИИ-бизнесов за привлечение капитала, необходимого для разработки передовых ИИ-моделей и развития ЦОД. Так, в январе 2025 года OpenAI анонсировала проект Stargate, финансирование которого во многом возложено на государственного инвестора MGX из ОАЭ, а четыре месяца спустя компания объявила о намерении построить в Абу-Даби крупный дата-центр. Anthropic дата-центры здесь строить не намерена. Anthropic подчёркивает, что «цепочка поставок» для создания передовых ИИ моделей должна находиться в США для сохранения лидерства Америки, но в компании считают важным делиться преимуществами ИИ с другими регионами мира, если такие действия не противоречат её «Политики использования» продуктов. Более того, в 2024 году Anthropic отказалась от инвестиций из Саудовской Аравии по соображениям «национальной безопасности». При этом криптобиржа FTX, владевшая 8 % Anthropic, обанкротилась, и значительная часть акций компании на сумму около $500 млн досталась ATIC Third International Investment из ОАЭ. В мае 2025 года президент США Дональд Трамп (Donald Trump) посетил ОАЭ и Саудовскую Аравию в рамках поездки, в основном посвящённой инвестициям. Во встрече приняли участие и представители технологической индустрии, включая Илона Маска (Elon Musk), Сэма Альтмана (Sam Altman) и главу NVIDIA Дженсена Хуанга (Jensen Huang). Руководства Anthropic на встрече не было, хотя, по словам Амодея, в этом регионе сосредоточено около $100 млрд инвестиционного капитала. Если компания желает остаться на переднем крае инноваций, доступ к таким деньгам даст серьёзное преимущество, без него сохранять лидерство будет намного сложнее. Компания намерена привлекать целевые, «чисто финансовые» инвестиции из стран Персидского залива, в то же время не давая возможности влиять на неё. Однако Амодей признал, что инвесторы способны добиться «мягкого влияния» благодаря обещанию будущих инвестиций, что усложнит отказ от сотрудничества. Бизнесмен считает, что стоит посмотреть, сколько можно получить без уступок. По его мнению, речь всё равно идёт о миллиардах долларов. Компания выступила против создания ИИ-кластеров на Ближнем Востоке и поставок NVIDIA H20 в КНР, заявляя, что «цепочка поставок» для ИИ — слишком опасный инструмент. В итоге США разрешили поставки H20 Китаю, но приостановили поставки более мощных ускорителей в ОАЭ. Амодей опасается, что без централизованных запретов компании станут получать средства, всё более ввязываясь в сотрудничество с Ближним Востоком. Впрочем, они, по словам Амодея, уже вынуждены вести дела с регионом по отдельности, не сумев сформировать общей позиции. Бизнесмен подчеркнул, что решение о будущем сотрудничестве, как и многие другие решения, имеет свои минусы, но в целом в компании считают его правильным. Осталось дождаться новостей о том, посчитают ли в странах Персидского залива правильным сотрудничество с компанией, придерживающейся подобных взглядов — особенно на фоне того, что желающие получить инвестиции буквально выстраиваются в очередь.
01.07.2025 [09:02], Владимир Мироненко
Крупнейший в истории AWS ИИ-суперкомпьютер Project Rainier охватит несколько ЦОД, но будет экологичнымВ настоящее время Amazon Web Services (AWS) занимается строительством ИИ-суперкомпьютера Project Rainier. Проект, охватывающий несколько ЦОД в США, по своим масштабам не похож ни на что, что когда-либо пыталась реализовать AWS. Этот огромный уникальный суперкомпьютер разработан для создания и работы ИИ-моделей следующего поколения. Партнёром AWS в реализации проекта выступает ИИ-стартап Anthropic, который будет использовать новый ИИ-кластер для создания и развёртывания будущих версий LLM Claude. У компаний довольно тесные отношения, а появление Project Rainier снизит зависимость Anthropic и AWS от дефицитных ускорителей NVIDIA, которых не хватает и для собственных нужд Amazon. «Rainier обеспечит в пять раз больше вычислительной мощности по сравнению с крупнейшим в настоящее время кластером Anthropic», — сообщил Гади Хатт (Gadi Hutt), директор по разработке и проектированию продуктов Annapurna Labs, подразделения AWS по разработке чипов. Чем больше вычислений вложить в обучение Claude, тем умнее и точнее будет модель. «Мы создаём вычислительную мощность в масштабах, которых никогда не было раньше, и мы делаем это с беспрецедентной скоростью и гибкостью», — подчеркнул Хатт. Сообщается, что Project Rainier спроектирован как огромный кластер EC2 UltraCluster, состоящий из серверов UltraServers с Trainium2. Trainium2 — ИИ-ускоритель собственной разработки Amazon, предназначенный для обучения ИИ-моделей. UltraServer — новый тип вычислительной системы, которая объединяет четыре физических сервера, каждый из которых содержит 16 ускорителей Trainium2, взаимодействие между которыми осуществляется с помощью интерконнекта NeuronLinks (кабели синего цвета на фото). Связь между компонентами суперкомпьютера реализуется на двух критических уровнях: NeuronLinks обеспечивают высокоскоростные соединения внутри UltraServer, в то время как DPU Elastic Fabric Adapter (EFA) объединяет UltraServer внутри ЦОД и между ЦОД. Этот двухуровневый подход позволяет максимизировать скорость в местах, где в этом больше всего есть потребность, сохраняя гибкость масштабирования в рамках нескольких дата-центров. Эксплуатация и обслуживание такого огромного вычислительного кластера отличается повышенной сложностью. И в данном случае надёжность системы имеет первостепенное значение. Именно здесь подход компании к разработке оборудования и ПО действительно выходит на первый план, говорит компания. Благодаря тому, что AWS сама занимается разработкой оборудования, она может контролировать каждый аспект технологического стека, от мельчайших компонентов чипа до ПО и архитектуры самого ЦОД. Это также позволяет ускорить внедрение технологий и снизить затраты при внедрении ИИ. «Когда у вас есть полная картина, от чипа до ПО и самих серверов, вы можете проводить оптимизацию там, где это имеет наибольший смысл», — говорит директор по инжинирингу Annapurna Labs Рами Синно (Rami Sinno). «Иногда лучшим решением может быть перепроектирование того, как подаётся питание серверов, или переписывание ПО, которое всё координирует. Это может происходить и одновременно. Поскольку у нас есть обзор всего на каждом уровне, мы можем быстро устранять неполадки и внедрять инновации гораздо быстрее», — добавил он. Вместе с тем, по словам Amazon, внедрение мощной ИИ-инфраструктуры будет достаточно экологичным. Вся электроэнергия, потребляемая Amazon, включая её ЦОД, в 2023 году была полностью компенсирована закупками из возобновляемых источников энергии. В течение последних пяти лет Amazon была крупнейшим корпоративным покупателем возобновляемой энергии в мире. Компания инвестирует миллиарды долларов в ядерную энергию и использование аккумуляторов, а также в финансирование масштабных проектов возобновляемой энергии по всему миру. Amazon по-прежнему намерена добиться нулевого уровня выбросов углерода к 2040 году. И Project Rainier ей в этом поможет. В прошлом году AWS объявила, что будет развёртывать новые компоненты, которые объединяют достижения в области питания и охлаждения, не только в строящихся, но и в существующих ЦОД. Их использование, как ожидается, позволит снизить потребление энергии механизмами до 46 % и сократить выбросы парниковых газов при производстве бетона на 35 %. Новые объекты для Project Rainier будут включать в себя различные усовершенствования для повышения энергоэффективности и экологичности с акцентом на сокращение потребления водных ресурсов и использованию забортного воздуха для охлаждения. Например, в ЦОД в округе Сент-Джозеф (St. Joseph), штат Индиана, с октября по март ЦОД вообще не будут использовать воду для охлаждения, а с апреля по сентябрь питьевая вода будет нужна только в течение нескольких часов в день. Amazon не уточняет, о каком именно кампусе идёт речь, но уже известно, что компания строит в Индиане дата-центр, который будет потреблять энергии как половина населения штата. Благодаря инженерным инновациям AWS является лидером отрасли по эффективности использования воды, заявляет компания. На основании результатов недавнего исследования Национальной лаборатории Лоуренса в Беркли, посвящённого эффективности использования воды в ЦОД, отраслевой стандартный показатель составляет 0,375 л/кВт·ч, тогда как у AWS он равен всего 0,15 л/кВт·ч. Компания улучшила этот параметр на 40 % по сравнению с 2021 годом.
25.11.2024 [20:50], Руслан Авдеев
Amazon вложит ещё $4 млрд в Anthropic и снизит её зависимость от NvidiaКомпания Amazon (AWS) раскрыла планы удвоить инвестиции в Anthropic, доведя их до $8 млрд. Объявление о новых вложениях было сделано через год после того, как гиперскейлер сообщил о выделении стартапу $4 млрд, сообщает Silicon Angle. На тот момент главный конкурент OpenAI назвал AWS своим ключевым облачным провайдером. С новой сделкой роль AWS в обучении моделей Anthropic только усилится. Anthropic представила свою наиболее передовую модель Claude 3.5 Sonnet в прошлом месяце — это улучшенная версия большой языковой модели (LLM) той же серии, дебютировавшей несколько месяцев назад. Новая Claude 3.5 Sonnet лучше предшественницы в выполнении некоторых задач, включая написание кода. Она также обошла OpenAI GPT-4o в нескольких бенчмарках. Anthropic предлагает свои LLM через сервис Amazon Bedrock, обеспечивающий доступ к управляемым ИИ-моделям. Расширенное сотрудничество обеспечит пользователям ранний доступ к функции, позволяющей настраивать модели Claude с использованием кастомных датасетов. Также планируется поддержать друг друга в разработках. Anthropic будет использовать ИИ-ускорители Trainium и Inferentia для внутренних задач. В компании подчеркнули, что задействуют ускорители для крупнейших базовых моделей. В то же время специалисты Anthropic поддержат AWS в разработке новых чипов Tranium. Стек ПО Neutron включает компилятор, оптимизирующий ИИ-модели для работы на инстансах Tranium, и некоторые другие инструменты. Компания также работает над низкоуровневыми программными ядрами, распределяющими задачи между вычислительными ядрами ускорителей. Последний раунд финансирования Anthropic состоится через два месяца после того, как OpenAI привлекла рекордные для стартапа $6,6 млрд. Также она получила кредитную линию на $4 млрд от группы банков. OpenAI, оцениваемая в $157 млрд, будет инвестировать средства в ИИ-исследования и вычислительную инфраструктуру.
25.07.2024 [09:59], Сергей Карасёв
OpenAI намерена потратить до $7 млрд на обучение ИИ в 2024 году, потеряв при этом $5 млрдЗатраты OpenAI на обучение ИИ-моделей и задачи инференса в 2024 году, по сообщению The Information, могут составить до $7 млрд. При этом компания может зафиксировать денежные потери в размере $5 млрд, что вынудит её искать новые возможности для привлечения инвестиций. Как рассказали осведомлённые лица, OpenAI использует мощности, эквивалентные приблизительно 350 тыс. серверов с ускорителями NVIDIA A100. Из них около 290 тыс. обеспечивают работу ChatGPT. Утверждается, что оборудование работает практически на полную мощность. В рамках обучения ИИ-моделей и инференса OpenAI получает значительные скидки от облачной платформы Microsoft Azure. В частности, Microsoft взимает с OpenAI около $1,3/час за ускоритель A100, что намного ниже обычных ставок. Тем не менее, только на обучение ChatGPT и других моделей OpenAI может потратить в 2024 году около $3 млрд. ![]() Источник изображения: pixabay.com На сегодняшний день в OpenAI работают примерно 1500 сотрудников, и компания продолжает расширять штат. Затраты на заработную плату и содержание работников в 2024-м могут достичь $1,5 млрд. Компания получает около $2 млрд в год от ChatGPT и может получить ещё примерно $1 млрд от взимания платы за доступ к своим большим языковым моделям (LLM). Общая выручка OpenAI, согласно недавним результатам, лежит на уровне $280 млн в месяц. В 2024 году, по оценкам, суммарные поступления компании окажутся в диапазоне от $3,5 млрд до $4,5 млрд. Таким образом, с учётом ожидаемых затрат в размере $7 млрд на обучение ИИ и инференс, а также расходов в $1,5 млрд на персонал OpenAI может потерять до $5 млрд. Это намного превышает прогнозируемые расходы конкурентов, таких как Anthropic (поддерживается Amazon), которая ожидает, что в 2024 году потратит $2,7 млрд. Не исключено, что OpenAI попытается провести очередной раунд финансирования. Компания уже завершила семь инвестиционных раундов, собрав в общей сложности более $11 млрд.
10.11.2023 [16:11], Сергей Карасёв
ИИ-стартап Anthropic задействует чипы Google TPU v5e для обучения моделейСтартап Anthropic, специализирующийся на технологиях генеративного ИИ, по информации Datacenter Dynamics, намерен использовать ускорители Google TPU для обучения своих систем, включая большую языковую модель Claude. Многие компании вынуждены искать альтернативы дефицитным чипам NVIDIA, хотя это и требует дополнительных затрат для адаптации ПО. Речь идёт о чипах Google TPU v5e, которые были анонсированы в августе нынешнего года. Это специализированные решения, предназначенные для обучения нейросетей или инференс-систем среднего и большого классов. Ускоритель содержит четыре блока матричных вычислений, по одному блоку для скалярных и векторных расчётов, а также HBM2-память. ![]() Источник изображения: pixabay.com Google и Anthropic уже связывают партнёрские отношения. В частности, в конце 2022-го Google приобрела в этом ИИ-стартапе долю в размере 10 % за $300 млн. В октябре 2023-го стало известно, что Google предоставит Anthropic дополнительно $500 млн, а позднее — ещё $1,5 млрд. Google уже добавила в своё облако ИИ-модели Anthropic, а стартап, в свою очередь, развернул один из самых крупных кластеров Google Kubernetes Engine (GKE) для ИИ. Между тем интерес к Anthropic проявляют и другие компании. Так, в августе нынешнего года SK Telecom вложила $100 млн в этот ИИ-стартап. А в сентябре Amazon объявила о намерении инвестировать в Anthropic до $4 млрд. По условиям соглашения, Anthropic будет использовать облачные ресурсы AWS; кроме того, стороны займутся разработкой чипов Trainium и Inferentia нового поколения. |
|