Материалы по тегу: ff
26.03.2025 [10:39], Сергей Карасёв
SMART Modular представила энергонезависимые CXL-модули памяти NV-CMM-E3SКомпания SMART Modular Technologies объявила о начале пробных поставок улучшенных энергонезависимых модулей памяти CXL (Non-Volatile CXL Memory Module, NV-CMM), соответствующих стандарту CXL 2.0. Изделия ориентированы на применение в дата-центрах, которые поддерживают такие нагрузки, как резидентные базы данных, аналитика в реальном времени и приложения НРС. Новинка (NV-CMM-E3S) объединяет память DDR4-3200 DRAM, флеш-память NAND и источник резервного питания в форм-факторе E3.S 2T (EDSFF). Задействован интерфейс PCIe 5.0 x8. Применяются контроллеры на базе ASIC и FPGA. Устройство NV-CMM имеет ёмкость 32 Гбайт, а максимальная пропускная способность заявлена на уровне 32 Гбайт/с. Поддерживается шифрование информации по алгоритму AES-256. Интегрированный источник аварийного питания обеспечивает сохранность критически важных данных при непредвиденных отключениях электроэнергии, что повышает надёжность и доступность системы в целом. В случае сбоя в центральной сети энергоснабжения производится копирование данных из DRAM в NAND, а после восстановления подачи энергии выполняется обратный процесс. Изделие обеспечивает более быструю перезагрузку виртуальных машин и сокращает время простоя в облачных инфраструктурах. ![]() Источник изображения: SMART Modular Technologies Устройство имеет размеры 112,75 × 15 × 76 мм. Эксплуатироваться модуль может при температурах окружающей среды до +40 °C. Отмечается, что внедрение NV-CMM на основе стандарта CXL знаменует собой важную веху в удовлетворении растущих потребностей платформ ИИ, машинного обучения и аналитики больших данных.
24.03.2025 [23:55], Владимир Мироненко
Разработчик ИИ-ускорителей FuriosaAI отказался «влиться» в Meta✴ за $800 млнСтартап FuriosaAI из Южной Кореи, представивший в прошлом году ИИ-ускоритель RNGD для работы с большими языковыми моделями (LLM) и мультимодальным ИИ, отклонил предложение о поглощении со стороны Meta✴ Platforms, которая была готова заплатить за это $800 млн. FuriosaAI намерена и дальше развивать бизнес в качестве независимой компании. Об этом сообщил Bloomberg со ссылкой на информированный источник. По словам собеседника Bloomberg, Meta✴ вела переговоры о приобретении FuriosaAI из Сеула с начала этого года. После того как в феврале появились слухи о возможном поглощении стартапа, начали расти в цене акции его крупнейшего инвестора, южнокорейской венчурной компании DSC Investment, но после известий об отказе их стоимость упала в понедельник на 16 %. Ускоритель RNGD, выполненный по 5-нм техпроцессу компании TSMC и использующий чипы памяти HBM3, поставляемые SK Hynix, способен конкурировать чипами NVIDIA, а также других ИИ-стартапов, включая Groq, SambaNova и Cerebras. Персонал FuriosaAI составляет около 150 сотрудников, включая 15 человек, работающих в офисе в Кремниевой долине. В конце прошлого года стартап начал тестирование RNGD и рассылку образцов чипов клиентам, включая LG AI Research (ИИ-подразделение LG Group) и Saudi Aramco. Сообщается, что более десяти потенциальных клиентов будут тестировать образцы RNGD в I половине этого года. По словам источников, FuriosaAI планирует привлечь дополнительный капитал и лишь потом провести первичное публичное размещение акций (IPO). Ожидается, что примерно через месяц компания завершит расширенный раунд финансирования серии C, который позволит получить намеченную сумму. До этого основанная в 2017 году FuriosaAI привлекла за четыре раунда финансирования $115 млн, пишет Data Center Dynamics. В свою очередь, Meta✴ вкладывает значительные средства в ИИ-инфраструктуру, стремясь опередить конкурентов, включая OpenAI и Google. В январе 2025 года гендиректор Meta✴ Марк Цукерберг (Mark Zuckerberg) заявил, что компания выделит до $65 млрд на развитие ИИ в 2025 году, включая расходы на строительство крупного ЦОД и найм персонала в сфере ИИ. А всего неделю спустя Цукерберг сообщил инвесторам, что Meta✴ планирует потратить сотни миллиардов долларов на инфраструктуру ИИ. Meta✴ также работает над созданием собственных чипов. В 2023 году она представила чип Meta✴ Training and Inference Accelerator (MTIA) для ИИ-нагрузок, а в 2024 году был анонсирован ИИ-ускоритель MTIA второго поколения, втрое превосходящий предшественника по производительности. Сейчас компания ведёт тестирование собственного ускорителя для обучения ИИ-моделей.
24.03.2025 [11:59], Руслан Авдеев
OpenAI и Meta✴ ведут переговоры с индийской Reliance Jio о сотрудничестве в сфере ИИMeta✴ и OpenAI по отдельности ведут переговоры с индийской Reliance Industries о потенциальном сотрудничестве для расширения ИИ-сервисов, сообщает The Information. Так, OpenAI хотела бы при помощи Reliance Jio расширить использование ChatGPT в Индии — об этом изданию сообщили два независимых источника, знакомых с вопросом. Более того, OpenAI обсуждала с сотрудниками сокращение стоимости подписок на платный вариант ChatGPT с $20/мес. до всего нескольких долларов. Пока неизвестно, велись ли разговоры об этом в ходе переговоров с Reliance. С последней, как утверждается, обсуждали продажу ИИ-моделей OpenAI корпоративным клиентам (через API). Также индийская компания заинтересована в локальном хостинге моделей OpenAI, чтобы данные местных клиентов будут храниться в пределах Индии. По имеющимся данным, с OpenAI и Meta✴ велись переговоры о запуске ИИ-моделей компаний в 3-ГВт ЦОД, который Reliance пока только планирует построить. Утверждается, что это будет «крупнейший дата-центр в мире» — его возведут в Джамнагаре (штат Гуджарат). Стоит отметить, что Reliance Industries является одним из крупнейших конгломератов Индии, имеющих интересы как в нефтегазовой отрасли, так и в IT и смежных отраслях, а также в сфере «зелёной» энергетики. ![]() Источник изображения: Shivam Mistry/unsplash.com Индия в целом считается очень перспективной страной для развития инвестиций в ИИ. Например, в конце прошлого года глава NVIDIA Дженсен Хуанг (Jensen Huang) заявил, что страна должна стать одним из лидеров в области ИИ и создать собственную инфраструктуру. Тогда сообщалось, что Индия на государственном уровне обсуждает с NVIDIA совместную разработку чипов для ИИ-проектов, адаптированных к местным задачам. Также страна осваивает связанные с ИИ технологии — например, она затратит $1,2 млрд на суверенный ИИ-суперкомпьютер с 10 тыс. ускорителей и собственные LLM, а также готова покупать много ускорителей, включая ослабленные варианты, которые не достались Китаю после ужесточения американских санкций. И это далеко не все проекты, находящиеся сейчас на стадии разработки и реализации.
20.03.2025 [15:58], Сергей Карасёв
Supermicro анонсировала петабайтное 1U-хранилище All-Flash на базе Arm-суперчипа NVIDIA GraceКомпания Supermicro представила сервер ARS-121L-NE316R в форм-факторе 1U, на базе которого могут формироваться системы хранения данных петабайтной вместимости. В основу новинки положен суперчип NVIDIA Grace со 144 ядрами Arm Neoverse V2 и 960 Гбайт памяти LPDDR5x. Устройство оборудовано 16 фронтальными отсеками для NVMe-накопителей E3.S 1T. При использовании SSD ёмкостью 61,44 Тбайт суммарная вместимость может достигать 983 Тбайт. При этом до 40 серверов могут быть установлены в одну стойку, что обеспечит 39,3 Пбайт «сырой» ёмкости. Новинка располагает двумя внутренними посадочными местами для M.2 NVMe SSD и двумя слотами PCIe 5.0 x16 для карт типоразмера FHHL. Присутствуют сетевой порт управления 1GbE (RJ45), порт USB 3.0 Type-A и разъём mini-DP. Габариты сервера составляют 772,15 × 438,4 × 43,6 мм, масса — 19,8 кг без установленных накопителей. Питание обеспечивают два блока мощностью 1600 Вт с сертификатом 80 Plus Titanium. Применена система воздушного охлаждения с восемью съёмными вентиляторами диаметром 40 мм. Диапазон рабочих температур — от +10 до +35 °C. При необходимости сервер может быть оснащён двумя DPU NVIDIA BlueField-3 или двумя адаптерами ConnectX-8. Система подходит для поддержания рабочих нагрузок с интенсивным обменом данными, таких как ИИ-инференс, аналитика и пр. Отмечается, что при создании новинки Supermicro тесно сотрудничала с NVIDIA и WEKA (разработчик платформ хранения данных).
19.03.2025 [16:54], Руслан Авдеев
Solidigm представила СЖО для SSDПринадлежащая южнокорейской SK Hynix компания Solidigm представила технологию жидкостного охлаждения SSD. По словам разработчиков, благодаря этому можно будет создавать более компактные безвентиляторные серверы с ИИ-ускорителями и высокой плотностью хранения данных. По данным Solidigm, типичный ИИ-сервер на базе ИИ-ускорителей обычно имеет около 30 Тбайт памяти в восьми слотах и рост ёмкости будет, вероятно, продолжаться. SSD обычно охлаждается воздухом, но с ростом плотности компоновки такой подход становится проблематичным, поскольку твердотельные накопители сами достаточно горячи, что повышает риск отключений, а традиционное сочетание радиаторов и вентиляторов мешают эффективному использованию пространства. Поэтому Solidigm представила накопитель D7 PS110 E1.S толщиной 9,5 мм, дополненный водоблоком. Точнее говоря, сами водоблоки находятся в дисковой корзине, что оставляет возможность «горячей» замены самих SSD и в то же время позволяет отводить до 30 Вт, причём охлаждаются обе стороны накопителя. В Solidigm утверждается, что её технология станет первым решением корпоративного уровня с «полным жидкостным охлаждением», хотя на рынке уже есть варианты с похожей функциональностью. Например, у российской РСК давно есть и All-Flash СХД с полностью жидкостным охлаждением, и SSD в вычислительных узлах оснащены водоблоками. Технология Solidigm разработана совместно с неназванным партнёром и нацелена на «ИИ-серверы будущего». Точная дата премьеры пока не объявлена, но она состоится не раньше II половины текущего года. Пока Solidigm изучает точное влияние технологии охлаждения на общее энергопотребление. Переход к СЖО позволит избавиться от вентиляторов, которые сами по себе потребляют довольно много энергии. Кроме того, в этом случае не нужно будет обеспечивать относительно низкую температуру воздуха между стойками. При этом контур СЖО для SSD будет работать параллельно контуру СЖО для CPU и ускорителей, что потенциально может усложнить компоновку всей системы.
12.03.2025 [00:25], Владимир Мироненко
Meta✴ начала тестирование собственного ускорителя для обучения ИИ-моделейMeta✴ Platforms приступила к тестированию ИИ-ускорителя собственной разработки, который, в случае успеха, позволит ей снизить зависимость от поставок чипов NVIDIA, пишет Reuters со ссылкой на информированные источники. По словам одного из источников, новый чип Meta✴ представляет собой специализированный ускоритель, то есть ASIC, предназначенный для обработки только ИИ-нагрузок. Небольшую пробную партию чипов Meta✴ изготовила тайваньская TSMC. По словам собеседника Reuters, тестирование началось после завершения фазы Tape-out — это заключительный этап разработки чипов перед началом производства, что является значительным маркером успеха в их разработке, отметило Reuters. Обычно этап Tape-out занимает от трёх до шести месяцев, причём без гарантии, что всё пройдёт успешно, и обходится в десятки миллионов долларов. В случае неудачи Meta✴ потребуется диагностировать проблему и начать всё заново. Этот чип представляет собой новое поколение ИИ-ускорителей, разработанных в рамках программы Meta✴ Training and Inference Accelerator (MTIA). Разработка продвигается с переменным успехом уже много лет. В прошлом году Meta✴ добилась определённых успехов — второе поколение ИИ-ускорителей Meta✴ MTIA оказалось втрое быстрее первого. В прошлом году Meta✴ начала использовать MTIAv2 для инференса рекомендательных систем Facebook✴ и Instagram✴. ![]() Источник изображения: Meta✴ Meta✴ сообщила, что планирует к 2026 году начать использовать собственные ИИ-чипы для обучения моделей. Как и в случае с чипом для инференса, новый ИИ-ускоритель сначала пройдёт проверку в работе с рекомендательными системами, после чего его задействуют для приложений генеративного ИИ, таких как чат-бот Meta✴ AI, заявили в Meta✴. Крис Кокс (Chris Cox), директор по продуктам Meta✴, сообщил, что разработка чипов идёт с переменным успехом, отметив, что руководство компании посчитала ИИ-ускоритель для инференса первого поколения «большим успехом». Однако тестовые испытания он провалил, так что в 2022 году компания стала заказывать ускорители NVIDIA. С тех она остаётся крупным клиентом NVIDIA, используя её чипы как для обучения своих моделей, так и для инференса. Meta✴ прогнозирует общие расходы в 2025 году в размере от $114 до $119 млрд, в том числе до $65 млрд капитальных затрат, в основном связанных с расширением ИИ-инфраструктуры. Использование собственных чипов позволит компании значительно снизить затраты на это направление.
08.03.2025 [21:26], Сергей Карасёв
Team Group представила самоуничтожающиеся SSD P250Q, а также DDR5-модули памяти CU-DIMM, CSO-DIMM, (LP)CAMM и CXLКомпания Team Group 2025 анонсировала большое количество новинок для индустриального и коммерческого применения. Дебютировали SSD в различных форм-факторах, модули оперативной памяти, а также флеш-карты micro SD. В частности, представлен накопитель P250Q One-Click Data Destruction SSD, особенность которого заключается в поддержке физического уничтожения флеш-памяти с целью недопустимости извлечения информации. Эта функция дополняет традиционное программное стирание, исключая возможность восстановления конфиденциальных данных. Кроме того, анонсированы накопители RF40 E1.S Enterprise SSD в форм-факторе E1.S для дата-центров. Эти устройства допускают горячую замену, а за отвод тепла отвечает запатентованный медно-графеновый радиатор толщиной всего 0,17 мм. На промышленный сектор ориентированы изделия серий R840 и R250 типоразмера М.2, оснащённые интерфейсом PCIe 5.0 x4. В этих SSD применён контроллер, при производстве которого используется 6-нм технология TSMC. Информация о вместимости и скоростных характеристиках всех перечисленных изделий пока не раскрывается. В список новинок вошли модули оперативной памяти промышленного класса DDR5 стандартов CU-DIMM (Clocked Unbuffered DIMM) и CSO-DIMM (Clocked Small Outline DIMM). Они функционируют на частоте 6400 МГц при напряжении питания 1,1 В. Эти модули могут применяться в серверах, индустриальных ноутбуках повышенной прочности и пр. ![]() Источник изображения: Team Group Анонсированы также модули памяти CAMM2 и LPCAMM2 (Compression Attached Memory Module 2), рассчитанные на промышленные системы, edge-устройства и пр. Такие решения монтируются параллельно материнской плате, благодаря чему занимают меньше места в высоту. Для установки применяются резьбовые стойки. Память соответствует стандарту DDR5-6400. В число прочих новинок вошли серверные модули памяти CXL 2.0 Server Memory Module. Плюс к этому представлены карты памяти D500R WORM Memory Card и D500N Hidden Memory Card. Первые ориентированы WORM-нагрузки (Write Once, Read Many), что предотвращает стирание или изменение данных. Карты второго типа получили встроенную функцию скрытия разделов.
07.03.2025 [12:12], Сергей Карасёв
Advantech представила SSD объёмом до 30,7 Тбайт — интерфейс PCIe 5.0, память TLC, форматы U.2, E1.S и E3.SКомпания Advantech анонсировала SSD семейства SQFlash EU-2 PCIe/NVMe для дата-центров и платформ корпоративного уровня. Изделия выполнены на основе чипов флеш-памяти 3D TLC, а для обмена данными используется интерфейс PCIe 5.0 х4. Дебютировали решения SQF-CU2 EU-2 в форм-факторе SFF U.2 (SFF-8639), SQF-CE3 EU-2 стандарта E3.S (EDSFF 1C), а также SQF-CE1 EU-2 типоразмера E1.S (EDSFF 1C). Во всех случаях реализована поддержка NVMe 2.0, AES-256 и TCG-OPAL. Диапазон рабочих температур простирается от 0 до +70 °C. Накопители могут выдерживать до одной полной перезаписи в сутки (1 DWPD). Серия SQF-CU2 EU-2 включает модификации вместимостью от 1,9 до 30,7 Тбайт. Заявленная скорость последовательного чтения информации достигает o 14 000 Мбайт/с, скорость последовательной записи — 8500 Мбайт/с. Показатель IOPS при произвольном чтении — до 3 млн, при произвольной записи — до 400 тыс. Размеры устройств составляют 100,2 × 69,85 × 15,0 мм. ![]() Источник изображений: Advantech Изделия SQF-CE3 EU-2, в свою очередь, обладают ёмкостью от 1,9 до 15,3 Тбайт. Скорости последовательного чтения и записи — до 14 000 и 8500 Мбайт/с, величина IOPS при произвольных чтении и записи — до 3 млн и 480 тыс. Габариты — 112,75 × 76,0 × 7,5 мм. ![]() В серию SQF-CE1 EU-2 вошли SSD вместимостью от 1,9 до 7,6 Тбайт. Заявленные скорости последовательного чтения и записи достигают 14 000 и 8300 Мбайт/с, величина IOPS — 3 млн и 220 тыс. при произвольных чтении и записи соответственно. Размеры устройств — 118,75 × 33,75 × 9,0/15,0 мм. Кроме того, компания Advantech представила SSD семейства SQF-CE1 930L-D в формате E1.S с интерфейсом PCIe 4.0 х4. Они имеют вместимость от 480 Гбайт до 3,8 Тбайт. Скорость последовательного чтения информации составляет дo 6800 Мбайт/с, скорость последовательной записи — до 2000 Мбайт/с.
05.03.2025 [18:52], Руслан Авдеев
Meta✴ ведёт переговоры о привлечении $35 млрд на строительство ЦОДУправляющий альтернативными активами Apollo Global Management вероятно, возглавит раунд финансирования для привлечения Meta✴ Platforms приблизительно $35 млрд. По данным источников Bloomberg, средства предназначены для строительства новых дата-центров в США. В самой Meta✴ слухи не комментируют. Ранее она уже озвучила планы потратить $65 млрд на ИИ-инфраструктуру в текущем году. В том числе речь идёт о строительстве гигантского ЦОД и наборе сотрудников. Как сообщают источники, Apollo обсуждала возможность предоставления большей части финансов, но в раунде, вероятно, будет участвовать и KKR & Co. Переговоры о финансировании пока находятся на ранней стадии, и нет гарантии, что сделка будет завершена. Управляющие альтернативными активами договаривались о сотрудничестве с техногигантами и раньше, но потенциальная сделка с Meta✴ всё равно выделяется из общего ряда. Так, Databricks ранее привлекла более $5 млрд от компаний вроде Blackstone, Apollo и Blue Owl Capital, а в прошлом году Apollo возглавила раунд финансирования в объёме $11 млрд в совместное предприятие с Intel. По некоторым оценкам, для удовлетворения спроса на ИИ-инфраструктуру требуются сотни миллиардов долларов. Банкиры и инвесторы желают принять участие в подобных проектах, наблюдая за ИИ-компаниями, проявившими себя за прошедший год. В ходе недавних сделок Apollo вносила часть средств, давая возможность вложиться остальным инвесторам. Это позволяет ей принимать участие в крупных проектах с участием привлекательных для инвестиций корпораций. ![]() Источник изображения: Ruthson Zimmerman/unsplash.com В Meta✴ объявили, что намерены ввести в эксплуатацию около 1 ГВт вычислительных мощностей в 2025 году. Уже анонсировано строительство ЦОД за $10 млрд в Луизиане, для некоторых проектов закуплены новые ускорители. В последние годы Meta✴ довольно активно инвестировала в ИИ, а соответствующие продукты являются приоритетными внутри самой компании. По словам главы компании Марка Цукерберга (Mark Zuckerberg), ИИ-бот Meta✴ AI должен стать самым используемым в мире уже к концу года. Meta✴ также вкладывает большие средства в открытые модели семейства Llama. По словам Цукерберга, выступавшего перед инвесторами в январе, её вложения в ИИ-инфраструктуру в конечном итоге достигнут сотен миллиардов долларов. Впрочем, схожими целями могут похвастаться и компании вроде OpenAI. Последняя вовлечена в ИИ-проект Stargate — инвестиции в него составят порядка $100 млрд только на первом этапе, а в конечном итоге сумма может вырасти до $500 млрд.
27.02.2025 [12:37], Сергей Карасёв
М.2 SSD вместимостью до 15,36 Тбайт: Exascend представила накопители серии PE4Компания Exascend анонсировала SSD семейства PE4 в форм-факторе М.2 2280, способные хранить до 15,36 Тбайт информации. На сегодняшний день это самые вместительные изделия в своём классе. Устройства также доступны в форматах U.2 и E1.S. В основу накопителей положены чипы флеш-памяти 3D TLC NAND, а для обмена данными служит интерфейс PCIe 4.0 (NVMe 1.4). У стандартных (Standard) решений M.2 2280 заявленная скорость последовательного чтения информации достигает 3270 Мбайт/с, скорость последовательной записи — 2980 Мбайт/с. Величина IOPS на операциях произвольного чтения и записи блоками по 4 Кбайт — до 404 тыс. и 52 тыс. соответственно. Вместимость варьируется от 240 Гбайт до 15,36 Тбайт. Помимо стандартных SSD, серия PE4 М.2 2280 включает варианты Pro и Max. Первые используют чипы 3D TLC NAND, а их ёмкость варьируется от 240 Гбайт до 3,84 Тбайт. Скорость чтения/записи — до 3200/3005 Мбайт/с. Значение IOPS при чтении и записи составляет до 381 тыс. и 121 тыс. соответственно. Накопители Max, в свою очередь, построены на чипах pSLC, а их вместимость — от 240 Гбайт до 1,92 Тбайт. Скорость чтения и записи — до 3075 и 2980 Мбайт/с, показатель IOPS при произвольных чтении и записи — до 436 тыс. и 173 тыс. ![]() Источник изображения: Exascend Решения типоразмера U.2 и E1.S также доступны в версиях Standard, Pro и Max. Их ёмкость варьируется от 960 Гбайт до 15,36 Тбайт. Скоростные показатели в целом сопоставимы с таковыми у решений М.2 2280. Все SSD могут эксплуатироваться при температурах от 0 до +70 °C. Значение MTBF (средняя наработка на отказ) достигает 2 млн часов. Говорится о поддержке TCG Opal 2.01, шифрования AES-256, а также аппаратной функции Power Loss Protection (PLP), которая отвечают за сохранность информации при внезапном отключении питания. Производитель предоставляет на изделия пятилетнюю гарантию. |
|