Материалы по тегу: hardware

20.11.2025 [15:20], Сергей Карасёв

PCIe 5.0, 14,5 Гбайт/с, до 30,72 Тбайт: Phison представила TLC SSD серий Pascari X201 и D201

Компания Phison Electronics анонсировала SSD корпоративного класса серий Pascari X201 и Pascari D201. Первые предназначены для рабочих нагрузок, которым требуется высокая производительность: обучение ИИ, масштабная аналитика, высокочастотный трейдинг и НРС-задачи. В свою очередь, изделия Pascari D201 ориентированы на гиперскейлеров и облачных провайдеров, которые оперируют средами с высокой плотностью хранения данных.

Все устройства выполнены на основе чипов флеш-памяти 3D TLC; для обмена данными служит интерфейс PCIe 5.0 х4. Заявленная величина MTBF (средняя наработка на отказ) достигает 2,5 млн часов. Диапазон рабочих температур простирается от 0 до +70 °C.

Накопители Pascari X201 представлены в форм-факторах U.2 толщиной 15 мм и E3.S 1T. При этом доступны варианты X201E и X201P. В первом случае вместимость составляет 12,8 и 25,6 Тбайт. Скорость последовательного чтения информации у обеих моделей достигает 14 500 Мбайт/с, скорость последовательной записи — 12 000 и 10 500 Мбайт/с соответственно. Величина IOPS составляет до 3,3 млн при произвольном чтении и до 1,05 млн при произвольной записи у варианта на 12,8 Тбайт и до 2,8 млн и 920 тыс. у устройства ёмкостью 25,6 Тбайт. Накопители X201E способны выдерживать до трёх полных перезаписей в сутки (3 DWPD).

 Источник изображений: Phison

Источник изображений: Phison

Решения X201P обладают вместимостью 15,36 и 30,72 Тбайт. Скорость последовательного чтения — до 14 500 Мбайт/с, скорость последовательной записи — до 12 000 и 10 500 Мбайт/с соответственно. Значение IOPS при произвольном чтении равно 3,3 млн и 2,8 млн, при произвольной записи — 600 тыс. и 480 тыс. Эти SSD рассчитаны на одну полную перезапись в сутки (1 DWPD).

В семейство Pascari D201 также вошли варианты D201E и D201P, у которых показатель DWPD равен 3 и 1. Вместимость составляет соответственно 12,8 и 15,36 Тбайт. У всех устройств скорость последовательного чтения достигает 14 500 Мбайт/с, скорость последовательной записи — 12 000 Мбайт/с, величина IOPS при произвольном чтении — 3,3 млн. Вместе с тем IOPS при произвольной записи — 1,05 млн у версии на 12,8 Тбайт и 600 тыс. у накопителя на 15,36 Тбайт. Изделия выполнены в формате E1.S толщиной 15 мм. На все анонсированные новинки предоставляется пятилетняя гарантия.

Постоянный URL: http://servernews.ru/1132686
20.11.2025 [14:09], Руслан Авдеев

xAI, Humain и NVIDIA построят крупный ИИ ЦОД в Саудовской Аравии

Глава компании xAI Илон Маск (Elon Musk) объявил о новом совместном проекте xAI, NVIDIA и Humain в Саудовской Аравии. Новость появилась на фоне официального визита саудовского наследного принца Мухаммеда бин Салмана (Mohammed bin Salman) в США, сообщает NBC News. Проект был анонсирован практически одновременно с аналогичным проектом AMD, Cisco и Humain.

По словам Маска, с использованием чипов NVIDIA и при участии Humain, созданной при поддержке суверенного фонда благосостояния Саудовской Аравии, компанией xAI будет построен дата-центр мощностью 500 МВт. Для сравнения, кампус ЦОД Colossus 1 компании xAI в Мемфисе является одним из крупнейших в мире действующих вычислительных кластеров и его мощность пока составляет около 300 МВт.

Как заявляют в Белом доме, заявления о партнёрстве последовали после заключения меморандума о взаимопонимании в сфере ИИ между США и Саудовской Аравией. В соответствии с новым соглашением, Соединённые Штаты предоставляют ближневосточному королевству доступ к ведущим американским системам и одновременно американские технологии будут защищены от «иностранного влияния».

 Источник изображения:  NEOM/unspalsh.com

Источник изображения: NEOM/unspalsh.com

По словам Маска, будущее буквально наполнено роботами и космическими ИИ ЦОД. В частности, он заявил, что «гуманоидные роботы станут крупнешим продуктом в истории», что сделает работу «необязательной». Прогнозируя будущее отрасли ИИ, Маск предположил, что через четыре-пять лет спутники с ИИ-модулями на солнечных батареях могут стать самым дешёвым способом обеспечить вычисления.

Постоянный URL: http://servernews.ru/1132682
20.11.2025 [14:00], Руслан Авдеев

AMD, Cisco и Humain развернут ИИ-инфраструктуру на 1 ГВт — первые 100 МВт с Instinct MI450 появятся в Саудовской Аравии

Компании AMD, Cisco и саудовская инвестиционная компания Humain, участвующая в комплексных ИИ-проектах, объявили о создании совместного предприятия. Ожидается, что оно поддержит укрепление позиций Саудовской Аравии в качестве ведущего поставщика ИИ-решений мирового класса для клиентов регионального и мирового уровней.

Совместное предприятие должно заработать в 2026 году. Партнёры рассчитывают объединить передовые ИИ ЦОД Humain и технологическими решениями AMD и Cisco, обеспечив современную вычислительную инфраструктуру с низкими капитальными затратами и эффективным энергопотреблением. Эксклюзивными технологическими партнёрами предприятия выступят AMD и Cisco, к 2030 году с помощью их продуктов и сервисов планируется обеспечить до 1 ГВт ИИ-инфраструктуры.

Компании уже объявили о реализации первой очереди проекта — пока мощностью на 100 МВт, в т.ч. включающую мощности современного дата-центра Humain, ИИ-ускорители AMD Instinct MI450 и инфраструктуру Cisco. Ранее в 2025 году Cisco и AMD объявили о совместной инициативе с Humain, направленной на строительство самой открытой, масштабируемой и экономически эффективной ИИ-инфраструктуры. Новый анонс дополняет планы созданием совместного предприятия для того, чтобы ускорить преобразования и предоставить экономическую инфраструктуру для поддержки использования ИИ заказчиками.

 Источник изображения: NEOM/unsplash.com

Источник изображения: NEOM/unsplash.com

По словам главы AMD Лизы Су (Lisa Su), в рамках расширения сотрудничества в Саудовской Аравии также создаётся Центр передового опыта AMD (AMD Center of Excellence) для углубленной интеграции страны в ИИ-проекты. По данным Cisco, индекс готовности к развитию ИИ (AI Readiness Index) показывает, что, хотя 91 % организаций Саудовской Аравии готовятся к внедрению ИИ-агентов, только 29 % из них уже имеют доступ к значительным мощностям ИИ-ускорителей, что ещё раз подчёркивает острую потребность в современной инфраструктуре ЦОД.

Ожидается, что партнёрство не только обеспечит вычислительные мощности для масштабного внедрения ИИ, но и будет способствовать укреплению цифровой экономики страны. Это лишь один из многих проектов для Саудовской Аравии. В 2025 году сообщалось, что Oracle выделит $14 млрд на развитие ИИ и облака в стране, xAI ведёт с Humain переговоры о создании ИИ ЦОД там же, в августе появилась информация, что саудовская center3 потратит $10 млрд на ЦОД общей мощностью 1 ГВт.

Постоянный URL: http://servernews.ru/1132666
20.11.2025 [11:37], Сергей Карасёв

Представлен самый мощный суперкомпьютер на Ближнем Востоке — 122,8-Пфлопс система Shaheen III

Университет науки и технологий имени короля Абдаллы (KAUST) в Саудовской Аравии объявил о запуске вычислительного комплекса Shaheen III. На сегодняшний день, как утверждается, это самый мощный суперкомпьютер на Ближнем Востоке: его FP64-производительность достигает 122,8 Пфлопс. Применять Shaheen III планируется для решения широкого спектра ресурсоёмких задач. Среди них названа разработка нового поколения малых и больших языковых моделей (LLM), ориентированных на арабский регион.

Кроме того, суперкомпьютер поможет в создании цифрового двойника всего Аравийского полуострова — интегрированной среды моделирования, объединяющей атмосферные, океанические и земные процессы. Эта виртуальная модель будет способствовать решению комплексных проблем, таких как управление разливами нефти и оптимизация морских перевозок. В числе других задач названы оптимизация сельскохозяйственной деятельности и управления водными ресурсами, поиск передовых материалов, диагностика редких заболеваний, улучшение качества медицинской визуализации, разработка перспективных лекарственных препаратов и пр.

 Источник изображения: KAUST

Источник изображения: KAUST

Система создана компанией HPE на платформе Cray EX с прямым жидкостным охлаждением (DLC). В общей сложности задействованы 2800 гибридных суперчипов NVIDIA GH200 Grace Hopper с 72-ядерным Arm-процессором NVIDIA Grace и ускорителем NVIDIA H100 с 96 Гбайт памяти HBM3. Общее количество используемых ядер составляет 574 464. Применён интерконнект Slingshot-11. В качестве программной платформы используется HPE Cray OS.

В ноябрьском рейтинге самых мощных суперкомпьютеров мира TOP500 система Shaheen III занимает 18-ю позицию. Её теоретическое пиковое быстродействие заявлено на уровне 155,21 Пфлопс. Энергопотребление — 1,98 МВт.

Постоянный URL: http://servernews.ru/1132664
20.11.2025 [10:11], Руслан Авдеев

EDF и OpCore переделают закрытую французскую ТЭС в крупный ИИ ЦОД стоимостью €4 млрд

Французская государственная энергетическая компания EDF (Électricité de France) и оператор ЦОД OpCore намерены создать дата-центр мощностью в сотни мегаватт недалеко от Парижа. На реализацию проекта потребуется €4 млрд ($4,3 млрд) — это соответствует стратегии ускоренного развития французской ИИ-инфраструктуры, сообщает ESG News.

Пока EDF и OpCore ведут переговоры о создании ЦОД на территории бывшей ТЭС в Монтеро-Валле-де-ла-Сен (Montereau-Vallee-de-la-Seine). Участок относится к более широкой Парижской агломерации, где правительство и коммунальные службы намерены ускорить масштабное внедрение цифровых технологий, при этом принимается в расчёт, например, поддержка населения и развитие связи.

Ранее в 2025 году EDF сообщила о желании найти застройщиков, способных возвести сверхмощные дата-центры на имеющихся у неё площадках. Компания является одним из крупнейших землевладельцев Франции и предлагает ускоренное присоединение к энергосети для инициатив, отвечающих национальным и экономическим интересам. OpCore, принадлежащая iliad Group и управляемым InfraVia фондам, имеет более 20 лет опыта разработки и управления ЦОД. Благодаря инфраструктурным возможностям iliad Group и капиталу InfraVia, компания может обеспечить инженерные и эксплуатационные потребности кампуса на сотни мегаватт.

 Источник изображения: Lindsay Thompson/unsplash.com

Источник изображения: Lindsay Thompson/unsplash.com

Источники описывают проект в Монтеро как «стратегический якорь» для развития ИИ в Европе. Проработавшая десятилетия угольная электростанция окончательно закрылась в 2004 году, а перестройка в кампус ЦОД соответствует местным амбициям по «реновации» бывших промышленных территорий с учётом современных экологических ограничений. Ожидается, что в период строительства и эксплуатации ЦОД появятся сотни рабочих мест. Интеграция проекта в местное сообщество будет осуществляться с привлечением муниципальных властей и региональных экономических ведомств.

Точная мощность кампуса не указывается, но сам факт того, что речь идёт о сотнях мегаватт, позволяет говорить, что он станет одним из мощнейших ИИ ЦОД в Европе. Французские власти однозначно заявляют о необходимости быстрого создания крупной национальной инфраструктуры, чтобы избежать стратегической зависимости от поставщиков облачных и вычислительных решений неевропейского происхождения. Ввод в эксплуатацию первой очереди запланирован в 2027 году.

Проект стал частью более масштабных усилий Франции по упрощению получения разрешений на инфраструктуру. Это способствует реализации национальных приоритетных планов, включая развитие ИИ, облачных сервисов и выпуск аккумуляторов. Представители французских властей всех уровней заявляют о необходимости превращения страны в крупную ИИ-сверхдержаву — лидера отрасли, с упором на атомную энергетику. Стоит отметить, что аналогичные амбиции имеет и Великобритания, тоже делающая ставку на мирный атом. Более того, в Евросоюзе рассматривают необходимость ограничения возможностей американских облачных гигантов.

Постоянный URL: http://servernews.ru/1132622
19.11.2025 [17:38], Руслан Авдеев

По одному GPU на каждого американца: ИИ-облако Lambda привлекло ещё $1,5 млрд инвестиций на амбициозное развитие инфраструктуры

Поставщик облачных решений для ИИ-проектов — компания Lambda привлекла более $1,5 млрд. Раунд возглавила холдинговая TWG Global при участии Американского фонда инновационных технологий (US Innovative Technology Fund) и других, уже финансировавших бизнес инвесторов. Как заявил представитель Lambda, новый раунд финансирования поможет компании построить ИИ-фабрики гигаваттного масштаба, обеспечивающие работу сервисов, используемых миллионами людей ежедневно.

В компании добавили, что её миссия — сделать вычисления столь же общедоступными, как и, например, электричество, предоставив доступ к ИИ каждому американцу по принципу «один человек — один GPU». В раунде финансирования серии D, состоявшемся в феврале 2025 года, Lambda привлекла $480 млн .

 Источник изображения: Lambda

Источник изображения: Lambda

Основанная в 2012 году Lambda предлагает облачные вычисления на основе ИИ-ускорителей и, согласно информации на её сайте, располагает 15 дата-центрами по всей территории США. Компания намерена развернуть более 1 млн. ускорителей NVIDIA и 3 ГВт мощностей ЦОД с жидкостным охлаждением.

Раунд финансирования последовал за многомиллиардным контрактом компании с Microsoft, заключённым ранее в ноябре. Согласно условиям договора, Lambda предоставит IT-гиганту доступ к десяткам тысяч ИИ-ускорителей. Также подписано соглашение на $1,5 млрд с NVIDIA, которая будет арендовать у Lambda чипы собственного производства.

Постоянный URL: http://servernews.ru/1132629
19.11.2025 [15:39], Сергей Карасёв

132 «динамических» Arm-ядра и 12 каналов памяти: Microsoft представила процессоры Cobalt 200 для облака Azure

Корпорация Microsoft анонсировала процессоры Cobalt 200 на архитектуре Arm, спроектированные специально для облачных платформ. Изделия, в частности, будут применяться в составе инстансов Azure следующего поколения. Первые серверы на базе Cobalt 200 уже запущены в дата-центрах Microsoft, а более широкое внедрение намечено на 2026 год.

Оригинальные чипы Cobalt 100 дебютировали в ноябре 2023 года. Они объединяют 128 ядер Armv9 Neoverse N2 (Perseus). Они развёрнуты уже в 32 регионах Azure. И Microsoft, и её клиенты успешно переносят на новые чипы часть своих нагрузок. В частности, после миграции производительность Microsoft Teams выросла на 45 %, теперь сервису требуется на 35 % меньше вычислительных ядер при обработке видео- и аудиостриминга. Среди крупных пользователей Cobalt 100 компания также называет Databricks и Snowflake.

 Источник изображений: Microsoft

Источник изображений: Microsoft

При разработке Cobalt 200, как заявляет Microsoft, были оценены более 350 тыс. вариантов конфигурации. С помощью моделирования и ИИ были оценены различные комбинации компонентов — от ядер, кешей и памяти до питания, архитектуры отдельных узлов и целых стоек. Созданное в результате изделие по производительности более чем на 50 % превосходит решения первого поколения в реальных нагрузках Azure, данные о которых были собраны с помощью телеметрии, при сохранении энергоэффективности, говорит компания.

Cobalt 200 представляет собой SoC, состоящую из двух чиплетов. Каждый из них насчитывает 66 ядер с архитектурой Armv9.2 (Neoverse V3) и шесть каналов DDR. Таким образом, в общей сложности используются 132 ядра и 12 каналов памяти. Чипы получили 3 Мбайт L2-кеша в расчёте на ядро ​​и 192 Мбайт общего L3-кеша. Количество и тип линий PCIe/CXL не уточняется.

Одной из уникальных особенностей процессоров является индивидуальное динамическое регулирование напряжения и частоты (DVFS) для каждого ядра. Это означает, что каждое из 132 ядер может работать с разным уровнем производительности, обеспечивая оптимальное энергопотребление независимо от нагрузки. Изделия производятся по 3-нм техпроцессу TSMC.

При разработке Cobalt 200 особое внимание уделено безопасности. Применён специальный контроллер памяти с активированным по умолчанию шифрованием, которое практически не влияет на производительность. Кроме того, реализована архитектура Arm CCA (Confidential Compute Architecture) с поддержкой аппаратной изоляции памяти виртуальной машины от гипервизора и операционной системы хоста. Кроме того, компания внедрила в чипы блоки аппаратного ускорения компрессии и шифрования данных собственной разработки. Узлы с новыми чипами получили DPU Azure Boost и аппаратный HSM-модуль.

Постоянный URL: http://servernews.ru/1132618
19.11.2025 [11:49], Сергей Карасёв

Второй европейский экзафлопсный суперкомпьютер Alice Recoque получит чипы AMD EPYC Venice и ускорители Instinct MI430X

Европейское совместное предприятие по развитию высокопроизводительных вычислений (EuroHPC JU) и французско-нидерландский Консорциум Жюля Верна объявили о том, что в создании суперкомпьютера Alice Recoque примут участие компании Eviden (входит в состав Atos Group), AMD и SiPearl.

О проекте Alice Recoque впервые стало известно в июне прошлого года. Это будет второй европейский суперкомпьютер экзафлопсного класса после системы JUPITER, смонтированной в Юлихском исследовательском центре (FZJ) в Германии. Соглашение о создании Alice Recoque подписано между EuroHPC JU и французским национальным агентством высокопроизводительных вычислений (GENCI). Комплекс будет смонтирован в дата-центре на территории Брюйер-ле-Шатель (Bruyères-le-Châtel), к юго-западу от Парижа.

Как сообщается, в состав Alice Recoque войдут унифицированный вычислительный раздел и скалярный раздел. Основой первого послужит новая платформа Eviden BullSequana XH3500, содержащая серверы с 256-ядерными процессорами AMD EPYC Venice и ускорителями Instinct MI430X, оснащёнными 432 Гбайт памяти HBM4 с пропускной способностью 19,6 Тбайт/с. Кроме того, говорится о применении AMD FPGA и высокопроизводительной подсистемы хранения данных DDN. Суперкомпьютер объединит 94 стойки с суммарным энергопотреблением «менее 15 МВт».

В свою очередь, скалярный раздел будет использовать 128-ядерные Arm-процессоры SiPearl Rhea2. Общее количество таких ядер превысит 100 тыс. В качестве интерконнекта в составе Alice Recoque планируется использовать технологию BullSequana eXascale Interconnect (BXI v3), обеспечивающую скорость передачи данных до 400 и 800 Гбит/с для CPU- и GPU-узлов соответственно.

 Источник изображения: AMD

Источник изображения: AMD

Машина получит систему прямого жидкостного охлаждения (DLC) пятого поколения (с тёплой водой) разработки Eviden для унифицированных стоек и технологию охлаждаемых дверей для скалярных стоек. Интеллектуальное программное обеспечение Eviden Argos обеспечит мониторинг в режиме реального времени и оптимизацию энергопотребления. Говорится о широком применении компонентов с открытым исходным кодом, таких как SLURM, Kubernetes, LUSTRE, Grafana и Prometheus.

Монтаж суперкомпьютера Alice Recoque начнётся в 2026 году. Затраты на приобретение, доставку, установку и обслуживание системы составят €354,8 млн. EuroHPC JU предоставит половину этой суммы, ещё столько же обеспечат Франция, Нидерланды и Греция в рамках Консорциума Жюля Верна. Общие инвестиции в проект на протяжении пяти лет оцениваются в €554 млн. Использовать новый вычислительный комплекс планируется для решения сложных задач в сферах моделирования климата, разработки передовых материалов, энергетики и пр. Система также поможет в развитии европейских моделей ИИ следующего поколения и цифровых двойников для персонализированной медицины.

Постоянный URL: http://servernews.ru/1132596
19.11.2025 [01:11], Владимир Мироненко

$30 млрд и 1 ГВт: Microsoft, NVIDIA и Anthropic договорились о сотрудничестве

Microsoft, NVIDIA и Anthropic объявили о стратегическом партнёрстве, которое включает ряд новых инициатив. Как сообщается, Anthropic взяла на себя обязательство приобрести вычислительные мощности Azure стоимостью $30 млрд и заключить контракт на поставку дополнительных вычислительных мощностей объёмом до 1 ГВт для обеспечения будущих потребностей в масштабировании. В рамках партнёрства NVIDIA и Microsoft также обязуются инвестировать в Anthropic до $10 и $5 млрд соответственно.

Компании также расширят существующее партнёрство, чтобы обеспечить предприятиям более широкий доступ к ИИ-модели Claude. Клиенты Microsoft Azure AI Foundry смогут получить доступ к продвинутым (frontier) версиям модели Claude, включая Claude Sonnet 4.5, Claude Opus 4.1 и Claude Haiku 4.5. Это партнёрство делает Claude единственной frontier-моделью LLM, доступной во всех трёх самых известных облачных сервисах мира.

Также Claude будет интегрирована в пакет Copilot, включающий GitHub Copilot, Microsoft 365 Copilot и Copilot Studio. Генеральный директор Anthropic Дарио Амодеи (Dario Amodei) отметил, что акцент Microsoft на корпоративные платформы естественным образом подходит Claude, которая часто используется в бизнес-приложениях, пишет The Wall Street Journal.

 Источник изображения: NVIDIA

Источник изображения: NVIDIA

В рамках стратегического партнёрства Anthropic и NVIDIA будут сотрудничать в области проектирования и инжиниринга с целью обеспечения наилучшей производительности, экономичности и общей стоимости владения для моделей Anthropic, а также оптимизации будущих архитектур NVIDIA для рабочих нагрузок Anthropic. Первоначально Anthropic будет использовать вычислительные системы NVIDIA Grace Blackwell и Vera Rubin мощностью до 1 ГВт.

Аналитики Bank of America утверждают, что эти, на первый взгляд, цикличные сделки являются для лидеров отрасли способом расширить свой потенциальный целевой рынок, что «может многократно увеличить будущие выгоды». Как отметил ресурс Converge! Network Digest, с учётом нынешнего объявления портфель обязательств Microsoft в области ИИ теперь превышает $100 млрд, включая контракты с OpenAI, Inflection и Anthropic. Эти долгосрочные соглашения помогают Microsoft обосновать ускоренное строительство ИИ ЦОД, закупки электроэнергии и развёртывание ИИ-систем. Сделка также укрепляет позиции Azure по сравнению с AWS, запустившей для Anthropic ИИ-кластер Project Rainier, и Google Cloud, TPU которой также пользуется Anthropic.

Постоянный URL: http://servernews.ru/1132592
18.11.2025 [16:55], Владимир Мироненко

d-Matrix привлекла ещё $275 млн и объявила о разработке первого ИИ-ускорителя с 3D-памятью Raptor

d-Matrix сообщила о завершении раунда финансирования серии C, в ходе которого было привлечено $275 млн инвестиций с оценкой рыночной стоимости компании в $2 млрд. Общий объём привлечённых компанией средств достиг $450 млн. Полученные средства будут направлены на расширение международного присутствия компании и помощь клиентам в развёртывании ИИ-кластеров на основе её технологий.

Раунд C возглавил глобальный консорциум, включающий BullhoundCapital, Triatomic Capital и суверенный фонд благосостояния Сингапура Temasek. В раунде приняли участие Qatar Investment Authority (QIA) и EDBI, M12, венчурный фонд Microsoft, а также Nautilus Venture Partners, Industry Ventures и Mirae Asset.

Сид Шет (Sid Sheth), генеральный директор и соучредитель d-Matrix, отметил, с самого начала компания была сосредоточена исключительно на инференсе. «Мы предсказывали, что когда обученным моделям потребуется непрерывная масштабная работа, инфраструктура не будет готова. Последние шесть лет мы потратили на разработку решения: принципиально новой архитектуры, которая позволяет ИИ работать везде и всегда. Это финансирование подтверждает нашу концепцию, поскольку отрасль вступает в эпоху ИИ-инференса», — добавил он.

d-Matrix разработала ускоритель инференса Corsair на базе архитектуры с вычислениями в памяти DIMC (digital in-memory computing) — процессорные компоненты в нём встроены в память. Ускоритель предлагается вместе с сетевой картой JetStream. Также предлагается референсная архитектура SquadRack, которая упрощает создание ИИ-кластеров на базе Corsair. Она поддерживает до восьми серверов в стойке, каждая из которых содержит восемь ускорителей Corsair. Шасси SquadRack позволяет запускать ИИ-модели размером до 100 млрд параметров, хранящиеся полностью в SRAM.

По данным d-Matrix, такая конфигурация обеспечивает на порядок большую производительность по сравнению с чипами с HBM. Вместе с оборудованием компания предлагает программный стек Aviator, который автоматизирует часть работы, связанной с развертыванием ИИ-моделей на ускорителе. Aviator также включает набор инструментов для отладки моделей и мониторинга производительности.

 Источник изображения: d-Matrix

Источник изображения: d-Matrix

В следующем году d-Matrix планирует выпустить более производительный ускоритель инференса Raptor. Это первый в мире ускоритель на базе 3D DRAM. Решение разрабатывается в партнёрстве с Alchip, известной разработками в области ASIC. Благодаря сотрудничеству уже реализована ключевая технология d-Matrix 3DIMC, представленная в тестовом кристалле d-Matrix Pavehawk. По словам компаний, новинка обеспечит до 10 раз более быстрый инференс по сравнению с решениями на базе HBM4, что позволит повысить эффективность генеративных и агентных рабочих ИИ-нагрузок.

Также в Raptor будет использоваться процессор AndesCore AX46MPV от Andes Technology. Компании заявили, что их сотрудничество представляет собой конвергенцию вычислений, ориентированных на память, и инноваций в области процессоров на основе открытых стандартов для рабочих ИИ-нагрузок в масштабах ЦОД. Andes AX46MPV будет отвечать за оркестрацию наргрузок, распределение памяти, векторные вычисления и функции активации.

AX46MPV — 64-бит многоядерный RISC-V-процессор с поддержкой Linux. Он включает 2048-бит блок векторной обработки (RVV 1.0), высокоскоростную векторную память (HVM) и ряд других аппаратных блоков для работы с массивными вычислениями. В совокупности эти функции обеспечивают запас производительности и гибкость ПО, необходимые для систем инференса уровня ЦОД. Референсные ядра, являющиеся ключевыми для рабочих нагрузок ИИ-трансформеров и LLM, демонстрируют прирост производительности до 2,3 раза по сравнению с предшественником AX45MPV.

Постоянный URL: http://servernews.ru/1132561