Материалы по тегу: ии
09.04.2024 [16:49], Руслан Авдеев
Microsoft вложит $2,9 млрд в развитие ИИ-бизнеса в ЯпонииMicrosoft Corp намерена вложить $2,9 млрд в развитие ИИ-бизнеса в Японии. Nikkei Asian Review сообщает, что о планах компании президент Брэд Смит (Brad Smith) объявил в ходе недавнего интервью. Предполагается, что в первую очередь средства будут потрачены на развитие ЦОД. По данным Nikkei, на сегодня речь идёт о крупнейшем вложении Microsoft в Японию за всю историю, средства будут потрачены уже к 2025 году — Токио нуждается в росте вычислительных мощностей для ИИ. В соответствии с планом предусмотрена развёртывание передовых ИИ-ускорителей на двух объектах на востоке и западе Японии — анонс связан с визитом премьер-министра страны Фумио Кисиды (Fumio Kishida) в Вашингтон. Кроме того, Япония ограничила передачу персональных данных в зарубежные дата-центры, что заставило облачных гигантов вроде AWS и Google анонсировать масштабные проекты ЦОД на территории самой страны. По словам Смита, от внедрения ИИ будет зависеть конкурентоспособность японской экономики, поскольку соответствующие технологии позволят обеспечить рост производительности даже при уменьшении численности населения. Дополнительно компания планирует реализовать в стране программу переквалификации, связанную с ИИ-технологиями. Предполагается обучить 3 млн специалистов за три года, а также учредить в Токио лабораторию для исследований и разработки робототехники и ИИ. Учредителем выступит подразделение Microsoft Research Asia, которое выделит 1,5 млрд иен ($9,9 млн) научно-образовательным учреждениям для финансирования исследовательских проектов в следующие пять лет. Например, использование ИИ, по мнению Смита, будет способствовать развитию робототехники. Дополнительно Microsoft намерена сотрудничать с японским правительством для укрепления кибербезопасности страны. Хотя лидером в сфере генеративного ИИ пока считаются США, прочие страны пытаются разрабатывать собственные решения, в том числе соответствующие проекты реализуются и в Японии, поддержка осуществляется на государственном уровне. По словам Смита, Япония сыграла важную роль лидера, помогая наладить связи между США, Великобританией, Канадой и Евросоюзом — Токио выступило лидером инициативы Hiroshima AI Process на встрече G7 в 2023 году и будет координировать усилия этих стран по разработке будущих правил для ИИ. Также Microsoft объявила и об инвестициях на другом конце света — компания намерена вложить миллиарды долларов в превращение Лондона в ИИ-хаб с большими вычислительными мощностями и многочисленной группой подготовленных кадров.
09.04.2024 [16:46], Руслан Авдеев
Столица ИИ: Microsoft выбрала Лондон хабом для развития искусственного интеллектаКомпания Microsoft объявила о создании в Лондоне ключевого хаба для развития ИИ-технологий из-за «огромного числа» талантов, работающих здесь в этой сфере. По данным Silicon Angle, речь идёт о логическом развитии анонсированного в прошлом году плана по вложению в Великобританию £2,5 млрд ($3,15 млрд) в течение трёх лет. Инвестиции предусматривают создание в британской столице нового ЦОД, а также реализацию многочисленных схем обучения сотрудников, в рамках которых в ИИ-индустрию планируется привлечь около 1 млн жителей Соединённого Королевства. При этом в стране уже работает в сфере ИИ-технологий около 50 тыс. человек, вносящих вклад в её экономику в объёме $4 млрд. Почти одновременно появилась информация о намерении Microsoft вложить $2,9 млрд в развитие ЦОД, ИИ-технологий и подготовку 3 млн специалистов по искусственному интеллекту в Японии. Новости о создании лондонского хаба появились вскоре после того, как Microsoft анонсировала открытие ИИ-группы, которую возглавит сооснователь и глава Inflection AI Inc. Мустафа Сулейман (Mustafa Suleyman), являющийся гражданином Великобритании. В своё время он занимал высокие посты, связанные с ИИ, в Google. По его словам, хаб Microsoft AI London станет драйвером создания передовых языковых моделей и вспомогательной инфраструктуры, а также инструментария для них — при тесном сотрудничестве с ИИ-командами в Microsoft и партнёров компании, включая OpenAI. ![]() Источник изображения: Lucas Davies/unsplash.com Лондонским хабом будет руководить известный специалист по ИИ Джордан Хоффманн (Jordan Hoffmann), работавший в DeepMind и перешедший в Inflection после того, как Сулейман основал компанию в 2022 году. Сулейман сделал особый акцент на стремлении компании обеспечить безопасность ИИ-разработок. Только на прошлой неделе США и Великобритания подписали соглашение о сотрудничестве в сфере систем искусственного интеллекта с учётом преимуществ и рисков, которые оно может нести. По словам Сулеймана, реализация плана начинается немедленно, вакансии появятся в ближайшие недели. Пока нет точных данных, сколько рабочих мест будет предложено, но с учётом сотрудничества Microsoft и OpenAI не будет ничего удивительного, если первая возглавит мировую гонку за ИИ-технологии в 2024 году.
09.04.2024 [16:09], Руслан Авдеев
Microsoft на распутье: компания расширяет парк ЦОД, попутно пытаясь улучшить экоустойчивостьНе успевая один за другим анонсировать проекты расширения или постройки новых ЦОД, компания Microsoft, тем не менее, настаивает на своей приверженности «зелёной повестке». По данным DigiTimes, гиперскейлеру придётся столкнуться с рядом серьёзных вызовов, чтобы сохранить экологический баланс с учётом расширения своего бизнеса. Согласно заявлениям самой Microsoft, в последнее время ускоряется внедрение ИИ-решений, а интенсивность потребления ресурсов влияет на окружающую среду. Крупнейшим вызовом стало управление энергоснабжением с помощью ориентации компании на повышение энергоэффективности и использование малых языковых моделей (SLM) вместо больших (LLM). Тогда как OpenAI, одним из ключевых инвесторов которой является Microsoft, активно развивает именно LLM. Сама Microsoft много и с удовольствием рассказывает о планах расширения парка ЦОД по всему миру, а крупнейшей инициативой в это области должен стать $100-млрд проект Stargate для OpenAI. Это, конечно, скромная цифра на фоне планов OpenAI привлечь $7 трлн на выпуск чипов, но и дальнейшие инициативы Microsoft, возможно, будут в сотни раз дороже уже существующих ЦОД. При этом компания намерена добиться отрицательных углеродных выбросов и положительного водного баланса к 2030 году, а к 2050 году добиться захвата из атмосферы эквивалента всего углерода, выброшенного компанией за всё время её существования. А вот как одновременно со стремительным расширением ЦОД компания намерена добиться этих целей, она пока не говорит. Ранее Uptime Institute предсказал, что многие игроки, возможно, откажутся от своих экологических обязательств или попросту будут скрывать соответствующие показатели. Одним из элементов экостратегии компании является оптимизация эффективности ЦОД для ИИ-проектов. Ключевыми вызовами будет организация управления энергоснабжением и расходом воды, а добиться целей можно с помощью комплексного подхода. Сегодня компания занимается закупками у более 135 проектов добычи возобновляемой энергии по всему миру, в перспективе ставится цель получения полностью «безуглеродного» электричества для питания ЦОД. Компания надеется повысить и эффективность ИИ и облачных сервисов с помощью «зелёного программирования» и других технологий. В Ирландии предусматривается установка аккумуляторов в ветряных турбинах для передачи энергии в магистральную сеть во время пиковых нагрузок, в Дании речь идёт о передаче тепла ЦОД в теплосети. Для снижения потребления воды планируется применять фрикулинг, брать дождевую воду или воду из возобновляемых источников. Планируется использовать и экобезопасные строительные материалы. На сталь и цемент приходится 13,5 % мировых выбросов углерода, и Microsoft уже сотрудничает со шведской H2 Green Steel, обещающей снизить их на 95 % в сравнении с обычным производством стали. Есть и другие экспериментальные проекты по созданию «биоматериалов» различной природы для сокращения объёмов использования цемента. По данным Международного энергетического агентства (International Energy Agency, IEA), в 2022 году мировые ЦОД, криптовалютные и ИИ-проекты совокупно потребили 460 ТВт∙ч, к 2026 году этот показатель должен увеличиться до 620–1050 ТВт∙ч, в зависимости от того, насколько повысится энергоэффективность технологий. По статистике IEA сейчас на возобновляемую энергию приходится 41,6 % мирового энергопроизводства, к 2025 году по объёмам генерации в мире она должна превзойти энергию, получаемую за счёт угля. Впрочем, статистика заметно отличается от региона к региону. Например, на Тайване в 2023 году 44,1 % приходилось на природный газ, 34,1 % — на уголь, 9,9 % — на возобновляемую энергию, 7 % на атомную, 2,4 % — на когенерацию и 1,2 % — на прочие электростанции на ископаемом топливе и ГЭС. Другими словами, в столь развитом технически регионе на возобновляемую энергетику приходится лишь чуть менее 10 % рынка.
09.04.2024 [12:45], Сергей Карасёв
Hyperion Research: спрос на облачные НРС-услуги будет быстро растиКомпания Hyperion Research, по сообщению ресурса HPC Wire, сделала прогноз по мировому рынку облачных HPC-решений. По мнению аналитиков, спрос на такие услуги в ближайшие годы будет быстро расти, что объясняется стремительным внедрением ИИ, генеративных сервисов и других современных решений. Говорится, что значение CAGR (среднегодовой темп роста в сложных процентах) на рынке облачных НРС-сервисов в перспективе пяти лет составит 18,1 %. При этом, как отмечается, данный показатель не в полной мере учитывает значительное влияние ИИ на увеличение спроса на технические вычисления в облаке. Аналитики отмечают, что обучение ИИ-моделей, имеющее большое значение, может быть отодвинуто на второй план из-за роста потребностей в инференсе. Дело в том, что обучение требует значительных вычислительных ресурсов, но на относительно небольшие периоды времени. Кроме того, обучение выполняет сравнительно небольшое количество пользователей. Вместе с тем инференс востребован среди широкого круга заказчиков для самых разных приложений. ![]() Источник изображения: pixabay.com В исследовании также говорится, что рост использования генеративного ИИ продолжится, тогда как его темпы внедрения стабилизируются. В сегменте больших языковых моделей (LLM) популярность начнут обретать фреймворки. В плане аппаратного обеспечения, как полагают аналитики Hyperion Research, резко возрастёт востребованность Arm-процессоров. В сегменте НРС выручка от Arm-систем в 2024 году поднимется в два раза по отношению к предыдущему году. Кроме того, ожидается рост популярности чипов с открытой архитектурой RISC-V. Прогнозируется также увеличение интереса к локальным квантовым компьютерам, которые будут дополнять квантовые вычисления через облако.
08.04.2024 [22:49], Руслан Авдеев
Alibaba снизит стоимость облачных сервисов в попытке вернуть бизнес к ростуКитайский IT-гигант Alibaba Group Holding Ltd. инициировала масштабное снижение цен на свои облачные сервисы для клиентов по всему миру. По данным Bloomberg, речь идёт о дисконте до 59 % — ранее стоимость услуг уже была снижена в КНР в попытке потеснить локальных соперников и вернуть бизнес к росту. Новые меры совпали с ростом спроса на облачные вычисления для ИИ-решений, а также сложной внутренней реструктуризацией бизнеса компании. Её глава надеется придать второе дыхание основному бизнесу холдинга, включая, например, сегмент электронной коммерции. В своё время облачное подразделение отказалось от идеи отделиться и выйти на IPO, сославшись на трудности с получением необходимых ей чипов NVIDIA, а также растущую конкуренцию с китайской же Tencent Holdings Ltd. и рядом поддерживаемых государством облачных провайдеров. ![]() Источник изображения: Alibaba В понедельник она снизила цены в среднем на 23 % на порядка 500 вариантов облачных продуктов. Такие дисконты теперь доступны в 13 регионах. На сегодня Alibaba Cloud является крупнейшим облачным провайдером в Китае, но на мировом рынке это сравнительно небольшой игрок, особенно на фоне AWS или Microsoft Azure. В последние годы компания потеряла часть позиций в Китае, уступив долю рынка окологосударственным бизнесам, а экономическая война США с Китаем помешала экспансии Alibaba за рубежом. Хотя в прошлом фискальном году выручка превысила $11 млрд, в I квартале этого года она, как ожидается, упадёт на 2 %. На прошлой неделе представители компании заявили, что ограничения на поставку чипов составляют большую проблему для китайских облачных провайдеров — запасов хватит на обучение больших языковых моделей (LLM) ещё в течение 12–18 мес., но ограниченный доступ к передовым ускорителям NVIDIA не может не сказаться на конкурентоспособности компании в среднесрочной перспективе, пока не появятся сильные альтернативы китайского производства. В Bloomberg считают, что снижение цен свидетельствует о желании поднять выручку, но не прибыльность в фискальном году, заканчивающемся в марте 2025-го. Рост EBITA на 2 п.п. год к году в тот же период оценивается экспертами как «чересчур оптимистичный» прогноз. Изменения на международном рынке последовали за февральским снижением цен на более 100 облачных предложений Alibaba в КНР, которое начало ценовую войну, поскольку конкуренты вроде JD тут же предложили собственные дисконты. Более того, это уже второе понижение цен Alibaba Cloud за последний год. Новые дисконты, в частности, ожидают существующих международных клиентов. Дополнительно компания обещает увеличить дисконты и улучшить другие условия для продавцов-посредников. Также ИИ-платформа PAI-Lingjun станет доступна в Сингапуре. В целом в Alibaba Cloud намерены не только смягчить условия для клиентов, но и дать понять, что компанией заложена основа для долгосрочного стратегического развития.
08.04.2024 [11:35], Сергей Карасёв
BSC и NVIDIA займутся совместной разработкой HPC- и ИИ-решенийБарселонский суперкомпьютерный центр (Centro Nacional de Supercomputación, BSC-CNS) и NVIDIA объявили о заключении многолетнего соглашения о сотрудничестве, целью которого является совместная разработка инновационных решений, объединяющих технологии НРС и ИИ. Договор рассчитан на пять лет с возможностью последующего продления. При этом каждые шесть месяцев стороны намерены уточнять и оптимизировать направления сотрудничества. Новое соглашение будет действовать параллельно с ранее подписанным документом, касающимся совместных исследований в области сетевых решений. Первоначально сотрудничество между BSC и NVIDIA будет сосредоточено на разработке больших языковых моделей (LLM), а также приложений для метеорологии и анализа изменений климата. Кроме того, стороны займутся адаптацией вычислительной модели цифрового двойника сердца, разработанной в рамках проекта Alya, к различным платформам. Ещё одно направление работ — программная оптимизация процессов для GPU и архитектуры NVIDIA Grace с ядрами Arm, специально разработанной для ИИ и крупномасштабных суперкомпьютерных приложений. Предполагается также, что научный потенциал BSC вкупе с технологическими достижениями и опытом NVIDIA позволят максимизировать вычислительные возможности суперкомпьютера MareNostrum 5, который был запущен в Испании в конце 2023 года. Эта система, использующая ускорители NVIDIA H100, обладает производительностью 314 Пфлопс.
08.04.2024 [09:59], Сергей Карасёв
Quantum представила объектную СХД ActiveScale Z200 типа All-FlashQuantum анонсировала объектную СХД ActiveScale Z200, предназначенную для работы с приложениями ИИ и задачами, которые предусматривают интенсивный обмен информацией. Благодаря гибкому масштабированию новинка подходит для формирования крупных озёр данных, говорит компания. ActiveScale Z200 относится к решениям All-Flash. Устройство выполнено в форм-факторе 1U (437 × 43 × 597 мм, 13,02 кг) и рассчитано на установку десяти NVMe SSD вместимостью 15,36 Тбайт. Таким образом, общая ёмкость узла составляет 153,6 Тбайт. Предусмотрены два сетевых интерфейса 10/25GbE. Система ActiveScale Z200 Scale-Out предполагает трёхузловую конфигурацию с 30 накопителями на 15,36 Тбайт, то есть общая ёмкость достигает 460,8 Тбайт. Причём решение может масштабироваться до неограниченной вместимости — вплоть до экзабайт. Задействована программная платформа ActiveScale OS 7.x. Поддерживаются протоколы доступа RESTful S3 и NFS v3, а также интерфейсы управления ActiveScale SM Real-time System Management Console, CLI, RESTful API, ActiveScale View. Возможно шифрование информации по алгоритму AES-256. Компания Quantum отмечает, что СХД ActiveScale Z200 обеспечивает до пяти раз более высокую пропускную способность (Гбайт/с) и до девяти раз большую скорость обработки транзакций (объектов в с) по сравнению с традиционными решениями объектного хранения на базе HDD. Новинка подходит для работы и с «горячими», и с «холодными» данными. Утверждается, что при формировании масштабных озёр данных, облаков хранения и долгосрочных архивов достигается сокращение финансовых затрат до 80 % по сравнению с альтернативными решениями.
08.04.2024 [01:50], Владимир Мироненко
Groq больше не продаёт свои ИИ-ускорители, предлагая вместо этого совместно создавать ЦОД и облачные сервисыСтартап Groq, создавший ускоритель LPU на базе собственного массивно-параллельного тензорного процессора TSP, больше не продаёт оборудование, предлагая вместо этого воспользоваться его облачными ИИ-сервисами или стать партнёром в создании ЦОД. Об этом генеральный директор Groq Джонатан Росс (Jonathan Ross) сообщил ресурсу EE Times. Он пояснил, что для стартапа заниматься продажами чипов слишком сложно, потому что «минимальная сумма покупки, чтобы это имело смысл, высока, затраты высоки, и никто не хочет рисковать, покупая большое количество оборудования — неважно, насколько оно потрясающее». По его словам, в облаке GroqCloud для инференса больших языковых моделей (LLM) в реальном времени уже зарегистрировано 70 тыс. разработчиков и запущено более 19 тыс. новых приложений. В случае поступления заказов на поставку больших объёмов чипов для очень крупных систем Groq вместо продажи предлагает партнёрство по развёртыванию ЦОД. Groq подписала соглашение с саудовской государственной нефтяной компанией Aramco, которое предполагает масштабное развёртывание LPU. Похожее соглашение в ОАЭ подписала Cerebras, ещё один молодой разработчик ИИ-ускорителей. «Правительство США и его союзники — единственные, кому мы готовы продавать оборудование, — говорит Росс. — Для всех остальных мы лишь (совместно) создаём коммерческие облака». По его словам, в этом году Groq планирует разместить 42 тыс. LPU в GroqCloud, при этом Aramco и другие партнёры «завершают» свои сделки по получению такого же количества чипов. Компания способна выпустить 220 тыс. LPU только в этом году, а общий объём производства на ближайшее время составляет 1,5 млн ускорителей. Около 1 млн из них всё ещё не зарезверированы, но это количество быстро сокращается. Росс пообещал, что к концу 2025 году компания развернёт столько LPU, что их вычислительная мощность будет эквивалентна ИИ-мощностям всех гиперскейлерам вместе взятых. Росс с оптимизмом смотрит на перспективы Groq, поскольку чипы TSP не используют память HBM, на которую полагаются решения конкурентов, включая NVIDIA, и поставки которой расписаны до конца 2024 года. Что касается LPU следующего поколения, то компания планирует сразу перейти с 14-нм техпроцесса (Global Foundries) на 4-нм. По словам Росса, новый чип будет оптимизирован для генеративного ИИ, но у него в силу универсальности архитектуры не будет каких-то специальных функций для обработки LLM. Будет ли новый ускоритель всё так же изготавливаться на территории США, не уточняется. Groq, похоже, достаточно уверена в своих чипах, которые в бенчмарках действительно обгоняют конкурентов. После анонса архитектуры NVIDIA Blackwell, обеспечивающей кратное увеличение производительности в задачах генеративного ИИ, компания выпустил в ответ пресс-релиз из одного предложения: «Groq всё ещё быстрее». А чуть позже даже раскритиковала NVIDIA.
07.04.2024 [22:40], Сергей Карасёв
Oracle и Palantir предложат ИИ-решения для госсектора и предприятий
llm
oracle
oracle cloud infrastructure
palantir
software
ии
информационная безопасность
конфиденциальность
облако
Компании Oracle и Palantir объявили о заключении партнёрского соглашения, в рамках которого планируется развитие безопасных облачных сервисов и ИИ-систем для государственных организаций и корпоративных заказчиков по всему миру. Предполагается, что совместное предложение поможет клиентам максимизировать ценность своих данных и повысить эффективность работы. В рамках соглашения распределённое облако и ИИ-инфраструктура Oracle будут использоваться в сочетании с платформами ИИ и ускорения принятия решений Palantir. Вместе с тем Palantir перенесёт рабочие нагрузки своей платформы Foundry в Oracle Cloud Infrastructure (OCI). Отмечается, что Foundry позволяет переосмыслить то, как используются данные, а также устраняет барьеры между внутренним управлением и внешним анализом информации. По условиям подписанного договора, Palantir обеспечит возможность развёртывания своих систем Gotham и Artificial Intelligence (AI) в распределённом облаке Oracle. Речь идёт о публичных и выделенных регионах Oracle Cloud, европейском суверенном облаке Oracle EU Sovereign Cloud, инфраструктурной платформе Oracle Alloy, гособлаке Oracle Government Cloud, инфраструктуре Oracle Roving Edge, а также изолированных регионах Oracle для оборонных заказчиков и спецслужб. ![]() Источник изображения: Oracle Платформа Palantir AI, как отмечается, позволяет организациям использовать возможности больших языковых моделей (LLM) в своих корпоративных сетях и интегрировать ИИ в основные операции с максимальной безопасностью. Решение предназначено для объединения разрозненных источников данных, логических активов и прочих ресурсов в единую операционную среду. В целом, как утверждается, партнёрство Oracle и Palantir позволит организациям использовать облачные сервисы и системы ИИ с соблюдением стандартов суверенитета и безопасности. Стороны намерены совместно предоставлять и поддерживать широкий спектр услуг.
07.04.2024 [14:12], Сергей Карасёв
Разработчик ИИ-чипов SiMa.ai получил на развитие ещё $70 млнСтартап SiMa.ai, разрабатывающий аппаратные и программные решения для обработки ИИ-задач на периферии, объявил о проведении раунда финансирования на сумму в $70 млн. Таким образом, в общей сложности компания привлекла на развитие $270 млн. Ключевым продуктом SiMa.ai является изделие Machine Learning System-on-Chip (MLSoC). Оно специально спроектировано с прицелом на периферийные ИИ-приложения. Это могут быть роботы, дроны, системы машинного зрения, автомобильные платформы, медицинское оборудование и пр. В состав MLSoC входит ряд блоков. Это, в частности, ИИ-ускоритель с 25 Мбайт интегрированной памяти, обеспечивающий производительность до 50 TOPS (INT8) или 10 TOPS/Вт. Он дополнен процессором приложений на базе четырёх вычислительных ядер Arm Cortex-A65 с частотой 1,15 ГГц. Присутствует четырёхъядерный узел компьютерного зрения Synopsys ARC EV74. Изделие также несёт на борту блоки (де-)кодирования видео в формате H.264. Реализована поддержка четырёх портов 1GbE, интерфейсов PCIe 4.0 х8, SPIO, I2C и GPIO. Чип MLSoC доступен в составе платы для разработчиков. Компания также предоставляет специализированный набор инструментов под названием Pallet, упрощающий создание ПО для чипа. Этот комплект включает, в частности, компилятор, который преобразует модели ИИ в формат, оптимизированный для работы в системах на основе MLSoC. Сообщается, что раунд финансирования на $70 млн проведён под руководством Maverick Capital. В нём также приняли участие Point72, Jericho, Amplify Partners, Dell Technologies Capital, предприниматель Лип-Бу Тан (Lip-Bu Tan) и др. Полученные средства пойдут на разработку 6-нм чипа MLSoC второго поколения, который будет выпущен на TSMC в I квартале 2025 года. Известно, что это решение объединит CPU на базе Arm Cortex-A и модуль компьютерного зрения Synopsys EV74. |
|