Материалы по тегу: ix

02.02.2025 [23:59], Руслан Авдеев

Сети — это модно: Equinix и дизайнер Максимилиан Рейнор создали платье из отслуживших кабелей

Дизайнер Максимилиан Рейнор (Maximilian Raynor) и оператор ЦОД Equinix объединили усилия для создания необычной одежды из переработанного оборудования одного из лондонских дата-центров компании. По данным Equinix, на изготовление наряда, созданного преимущественно из отслуживших своё оптоволоконных кабелей, ушло около 640 часов.

По словам Рейнора, «вам не нужен доступ к лучшим материалам, чтобы создать что-то прекрасное» — можно использовать нетрадиционные материалы, ведь важнее сам подход к дизайну. Платье получилось действительно нетрадиционным — оно состоит из 3600 м «оптики» и весит порядка 25 кг.

Как заявил представитель Equinix, устраняя границы между материальным и виртуальным, партнёры хотели создать нечто «осязаемое», что послужило бы темой для обсуждения, чтобы подчеркнуть важность многих тысяч связей, созданных Equinix для ежедневной поддержки компаний и людей.

 Источник изображения: Equinix

Источник изображения: Equinix

В компании подчеркнули, что дизайн «отдаёт дань уважения» материальной природе жизненно важной инфраструктуры, лежащей в основе интернет. Речь идёт не о некой странной магии или необъяснимой силе, а о физической, сложной сети кабелей, пересекающей сушу, моря и создающую физические связи в ЦОД по всему миру.

 Источник изображения: Equinix

Источник изображения: Equinix

По данным представителей Equinix, компания хочет продемонстрировать реальное влияние интернета на повседневную жизнь и бизнес, а также его жизненно важную роль в экономике Великобритании. Компания стремится повысить глобальную осведомлённость о стремительно развивающейся и важной отрасли.

Постоянный URL: http://servernews.ru/1117623
24.01.2025 [02:05], Владимир Мироненко

В IV квартале 2024 года SK hynix получила самую большую операционную прибыль в Южной Корее, опередив Samsung

Компания SK hynix, один из крупнейших производителей микросхем памяти в мире, объявила финансовые результаты IV квартала и 2024 года в целом. Компания отметила, что были достигнуты рекордные показатели благодаря высокому спросу на ряд её продуктов, в том числе на память HBM, которая используется в ИИ-ускорителях. SK hynix объявила, что были достигнуты лучшие финансовые показатели за год за всю её историю — по выручке, операционной прибыли и чистой прибыли.

 Источник изображения: SK hynix

Источник изображения: SK hynix

Выручка SK hynix за IV квартал составила ₩19,76 вон ($13,76 млрд), что на 74,7 % больше год к году и на 12 % последовательно при консенсус-прогнозе аналитиков, опрошенных LSEG, в ₩19,76 трлн вон, а операционная прибыль подскочила на 2236 % до ₩8,08 трлн (около $5,6 млрд) или на 15 % последовательно. Прогноз Уолл-стрит, согласно данным LSEG, равен ₩8,08 трлн. Чистая прибыль в размере ₩8 трлн (около $5,56 млрд) заметно контрастирует с убытком в ₩1,38 трлн (около $960 млн) годом ранее. По словам SK hynix, чипы HBM принесли ей 40 % от общего дохода от производства DRAM.

Согласно данным ресурса The Korea Times, SK hynix впервые опередила по квартальной операционной прибыли своего конкурента и крупнейший бизнес страны Samsung Electronics, став лидером по этому показателю в Южной Корее.

За 2024 год выручка SK hynix составила ₩66,19 трлн (около $45,97 млрд), превысив показатель предыдущего года на 102 %. Операционная прибыль равняется ₩23,47 трлн (около $16,4 млрд) по сравнению убытками в 2023 году и чистая прибыль — ₩19,8 трлн (около $13,8 млрд, в 2023 году — убытки). Выручка SK hynix от HBM увеличилась в 2024 году более чем в 4,5 раза по сравнению с 2023 годом. Компания отметила, что «сектор памяти трансформируется в рынок высокопроизводительной и высококачественной памяти с ростом спроса на память для ИИ». Также в 2024 году продажи серверных SSD подскочили на 300 % благодаря высокому спросу со стороны провайдеров ЦОД.

Однако акции SK hynix упали на 4,7 % после того, как финансовый директор Ким У-хен (Kim Woo-hyun) предупредил о слабом спросе, растущей конкуренции и растущей рыночной неопределённости, пишет Reuters. «В этом году рынок микросхем памяти остается неопределённым, поскольку растёт торговый протекционизм и углубляются геополитические риски, в то время как производители ПК и смартфонов корректируют запасы», — сообщил финансовый директор в ходе отчёта о финансовых результатах. До объявления финансовых результатов акции SK hynix выросли с начала года примерно на 30 %.

Вместе с тем SK hynix прогнозирует рост спроса на HBM и высокоплотную серверную DRAM для HPC-нагрузок «по мере роста инвестиций крупных мировых технологических компаний в ИИ-серверы и повышения значимости инференса», пишет Blocks & Files. Korean Times сообщает, что SK hynix ожидает, что её продажи памяти HBM удвоятся в 2025 году. Вместе с тем компания заявила, что поставки чипов DRAM и NAND снизятся на 10–20 % в I квартале по сравнению с предыдущим. Согласно Reuters, компания сообщила аналитикам, что её капитальные расходы в 2025 году вырастут лишь незначительно год к году, и этот консервативный план усилил опасения рынка по поводу замедления спроса.

В комментарии к финансовому отчёту SK hynix говорится, что в I половине этого года на чипы HBM3E будет приходиться более половины дохода от памяти HBM. Компания полагает, что 12-ярусная HBM4 станет её флагманским продуктом в 2026 году. В этом году SK hynix планирует завершить её разработку и начать подготовку к массовому производству во II полугодии. Поставки HBM4 начнутся с чипов 12-Hi, а затем последуют и 16-Hi. «Ожидается, что 16-ярусные чипы будут поставляться в соответствии с требованиями клиентов, вероятно, во II половине 2026 года», — сообщила компания.

Постоянный URL: http://servernews.ru/1117204
20.01.2025 [07:53], Владимир Мироненко

SRAM, да и только: d-Matrix готовит ИИ-ускоритель Corsair

Стартап d-Matrix создал ИИ-ускоритель Corsair, оптимизированный для быстрого пакетного инференса больших языковых моделей (LLM). Архитектура ускорителя основана на модифицированных ячейках SRAM для вычислений в памяти (DIMC), работающих на скорости порядка 150 Тбайт/с. Новинка, по словам компании, отличается производительностью и энергоэффективностью, пишет EE Times. Массовое производство Corsair начнётся во II квартале. Среди инвесторов d-Matrix — Microsoft, Nautilus Venture Partners, Entrada Ventures и SK hynix.

d-Matrix фокусируется на пакетном инференсе с низкой задержкой. В случае Llama3-8B сервер d-Matrix (16 четырёхчиплетных ускорителей в составе восьми карт) может производить 60 тыс. токенов/с с задержкой 1 мс/токен. Для Llama3-70B стойка d-Matrix (128 чипов) может производить 30 тыс. токенов в секунду с задержкой 2 мс/токен. Клиенты d-Matrix могут рассчитывать на достижение этих показателей для размеров пакетов порядка 48–64 (в зависимости от длины контекста), сообщила EE Times руководитель отдела продуктов d-Matrix Шри Ганесан (Sree Ganesan).

 Источник изображений: d-Matrix

Источник изображений: d-Matrix

Производительность оптимизирована для исполнения моделей в расчёте до 100 млрд параметров на одну стойку. По словам Ганесан, это реалистичный сценарий использования LLM. В таких сценариях решение d-Matrix обеспечивает 10-кратное преимущество в интерактивности (время до получения токена) по сравнению с решениями на базе традиционных ускорителей, таких как NVIDIA H100. Corsair ориентирован на модели размером менее 70 млрд параметров, подходящих для генерации кода, интерактивной генерации видео или агентского ИИ, которые требуют высокой интерактивности в сочетании с пропускной способностью, энергоэффективностью и низкой стоимостью.

Ранние версии архитектуры d-Matrix использовали MAC-блоки на базе SRAM-ячеек, дополненных большим количеством транзисторов для операций умножения. Сложение же выполнялось в аналоговом виде с использованием разрядных линий, измерения тока и аналого-цифрового преобразования. В 2020 году компания выпустила чиплетную платформу Nighthawk на основе этой архитектуры. «[Nighthawk] продемонстрировал, что мы можем значительно повысить точность по сравнению с традиционными аналоговыми решениями, но мы всё ещё отстаем на пару процентных пунктов от традиционных решений типа GPU», — сказал EE Times генеральный директор d-Matrix Сид Шет (Sid Sheth).

Однако потенциальным клиентам не понравилось, что при таком подходе возможно снижение точности, так что в Corsair компания вынужденно сделала выбор в пользу полностью цифрового сумматора. ASIC d-Matrix включает четыре чиплета, каждый из которых содержит по четыре вычислительных блока, объединённых посредством DMX Link по схеме каждый-с-каждым, и по одному планировщику и RISC-V ядру. Внутри каждого вычислительного блока есть 16 DIMC-ядер, состоящих из наборов SRAM-ячеек (64×64), а также два SIMD-ядра и движок преобразования данных. Суммарно доступен 1 Гбайт SRAM с пропускной способностью 150 Тбайт/с.

ASIC объединён со 128 Гбайт LPDDR5 (до 400 Гбайт/с) посредством органической подложки (без дорогостоящего кремниевого интерпозера). Хотя текущее поколение ASIC включает только четыре чиплета именно из-за ограничений подложки, в будущем их количество увеличится. Внешние интерфейсы ASIC представлены стандартным PCIe 5.0 x16 (128 Гбайт/с) и фирменным интерконнектом DMX Link (1 Тбайт/с) для объединения чиплетов.

FHFL-карта Corsair включает два ASIC d-Matrix (т.е. всего восемь чиплетов) и имеет TDP на уровне 600 Вт. Ускоритель работает с форматами данных OCP MX (Microscaling Formats) и обеспечивает до 2400 Тфлопс в MXINT8-вычислениях или 9600 Тфолпс в случае MXINT4. Две карты Corsair можно объединить посредством 512-Гбайт/с мостика DMX Bridge. Их, по словам компании, достаточно для задействования тензорного параллелизма. Дальнейшее масштабирование возможно посредством PCIe-коммутации. Именно поэтому d-Matrix работает с GigaIO и Liqid. В одно шасси можно поместить восемь карт Corsair, а в стойку, которая будет потреблять порядка 6–7 кВт — 64 карты.

d-Matrix уже разрабатывает ASIC следующего поколения Raptor, который должен выйти в 2026 году. Raptor будет ориентирован на «думающие» модели и получит ещё больше памяти за счёт размещения DRAM непосредственно поверх вычислительных чиплетов. SRAM-чиплеты Raptor также перейдут с 6-нм техпроцесса TSMC, который используется при изготовлении Corsair, к 4 нм без существенных изменений микроархитектуры. По словам компании, она потратила два года на работу с TSMC, чтобы создать 3D-упаковку для нового поколения ASIC.

Как отмечает EETimes, команда разработчиков ПО d-Matrix в два раза больше команды разработчиков оборудования (120 против 60). Стратегия компании в области ПО заключается в максимальном использовании open source экосистемы, включая PyTorch, OpenAI Triton, MLIR, OpenBMC и т.д. Вместе они образуют программный стек Aviator, который отвечает за конвертацию моделей в числовые форматы d-Matrix, применяет к ним фирменные методы разрежения, компилирует их, распределяет нагрузку по картам и серверам, а также управляет исполнением моделей, включая обслуживание большого количества запросов.

Постоянный URL: http://servernews.ru/1116718
26.12.2024 [16:50], Руслан Авдеев

Equinix предложил ИИ-фабрики на базе систем Dell с ускорителями NVIDIA

Оператор ЦОД Equinix совместно с Dell Technologies предложил частные ИИ-облака на базе Dell AI Factory. Использование комплекса Dell AI Factory with NVIDIA в ЦОД IBX позволяет комбинировать различные продукты, решения и сервисы на нейтральной площадке, где клиенты смогут безопасно и экономически эффективно объединить ресурсы публичных облаков, колокейшн-объектов, а также собственных облачных и локальных инфраструктур.

Dell AI Factory with NVIDIA включает серверы Dell PowerEdge XE9680 с ускорителями NVIDIA, Ethernet-решения NVIDIA Spectrum-X и BlueField-3, а также СХД Dell PowerScale F710. Кроме того, будут доступны и 4U-серверы PowerEdge XE9680L, поддерживающие до восьми новейших ускорителей NVIDIA Blackwell. Решение будет доступно в более чем 260 ЦОД Equinix IBX.

В Equinix объявили, что намерены обеспечить клиентов передовой ИИ-инфраструктурой, отвечающей самым высоким стандартам производительности, безопасности и надёжности, а сотрудничество с Dell и NVIDIA позволит использовать максимум ресурсов систем генеративного ИИ, сохраняя контроль над данными и поддерживая собственные корпоративные цели достижения экоустойчивости.

 Источнки изображения: Dell

Источнки изображения: Dell

Наличие площадок Equinix в более 70 мегаполисах мира, время бесперебойной работы 99,999 %, масштабируемость проектов и сотрудничество с тысячами сетей и провайдеров, а также обеспечение ЦОД на 96 % возобновляемой энергией (100 % на ключевых рынках) в сочетании с платформой Dell AI Factory with NVIDIA, которая уже доступна в ЦОД Equinix в большинстве регионов мира, позволит заказчикам повысить удобство, безопасность и экологичность работы с генеративным ИИ.

Постоянный URL: http://servernews.ru/1115960
25.12.2024 [00:55], Владимир Мироненко

Netflix подал в суд на Broadcom, заявив, что VMware нарушает его патенты в области виртуализации

Стриминговый гигант Netflix подал в понедельник иск к Broadcom в окружной суд США по Северному округу Калифорнии с обвинением принадлежащего ей дочернего предприятия VMware в нарушении пяти патентов, связанных с работой виртуальных машин («патент 424», «патент 707», «патент 891», «патент 893» и «патент 122»).

Как сообщает SiliconANGLE, три из этих патентов касаются использования CPU в виртуальных машинах, а два — запуска по крайней мере одной виртуальной машины с использованием балансировщика нагрузки. Согласно иску, нарушения патентов были допущены в VMware vSphere Foundation, VMware Cloud Foundation, VMware Cloud on AWS и облачных решениях, предлагаемых Microsoft, Google, Oracle, IBM и Alibaba.

В частности, в вышеуказанных продуктах, по словам Netflix, допущены нарушения «патента 424». Netflix заявил, что VMware умышленно нарушает авторские права с 2012 года, когда она узнала об этом патенте. «Патент 424 был процитирован экспертом Бюро по патентам и товарным знакам США при отклонении заявки VMware, которая в конечном итоге была оформлена как патент США № 8 650 564», — указал Netflix в иске.

 Источник изображения: Broadcom

Источник изображения: Broadcom

Учитывая осведомлённость VMware об этом патенте, Netflix утверждает, что Broadcom и VMware занимались «умышленным нарушением», и попросила суд обязать Broadcom возместить убытки, размер которых в иске не указан.

Патентная война Netflix и Broadcom началась в 2018 году, когда Broadcom подала в суд на Netflix, обвинив его в нарушении своих патентов на технологию потокового видео. Дела были возбуждены в Калифорнии, Германии и Нидерландах. Судебное разбирательство по иску Netflix запланировано на июнь 2025 года.

Постоянный URL: http://servernews.ru/1115903
18.12.2024 [13:00], Сергей Карасёв

SK hynix анонсировала 61-Тбайт U.2 SSD серии PS1012 с интерфейсом PCIe 5.0 и QLC-памятью

Компания SK hynix анонсировала SSD семейства PS1012, выполненные в форм-факторе U.2 SFF. Эти накопители большой ёмкости рассчитаны на современные дата-центры, спроектированные для ИИ-нагрузок. Пробные поставки новинок начнутся до конца текущего месяца.

В основу изделий PS1012 положены микрочипы флеш-памяти QLC NAND. Для обмена данными служит интерфейс PCIe 5.0. Заявленная скорость последовательного чтения информации достигает 13 Гбайт/с, что, как утверждается, вдвое больше по сравнению с продуктами предыдущего поколения.

Вместимость новинки составляет 61,44 Тбайт. В разработке также находится вариант ёмкостью 122 Тбайт, который планируется представить в III квартале следующего года. Кроме того, SK hynix намерена вывести на рынок SSD, способные хранить 244 Тбайт информации. В основу этих устройств лягут 321-слойные чипы флеш-памяти 4D NAND.

 Источник изображения: SK hynix

Источник изображения: SK hynix

«По мере стремительного развития ИИ спрос на высокопроизводительные твердотельные накопители корпоративного класса быстро растёт, а технология QLC , обеспечивающая высокую ёмкость, становится отраслевым стандартом. SK hynix следует этой тенденции и представляет новый продукт на 61 Тбайт», — говорится в заявлении компании.

Отмечается, что накопители PS1012 соответствуют стандарту Open Compute Project (OCP) 2.0. Прочие технические характеристики пока не раскрываются. Образцы SSD планируется предоставить ведущим мировым производителям серверов для оценки.

Постоянный URL: http://servernews.ru/1115589
05.11.2024 [11:11], Сергей Карасёв

SK hynix представила первые в отрасли 16-ярусные чипы HBM3E ёмкостью 48 Гбайт

Компания SK hynix на мероприятии SK AI Summit в Сеуле (Южная Корея) сообщила о разработке первых в отрасли 16-ярусных чипов памяти HBM3E, ёмкость которых составляет 48 Гбайт. Клиенты получат образцы таких изделий в начале 2025 года.

Генеральный директор SK hynix Квак Но-Джунг (Kwak Noh-Jung) сообщил, что компания намерена трансформироваться в поставщика ИИ-памяти «полного стека». Ассортимент продукции будет охватывать изделия всех типов — от DRAM до NAND. При этом планируется налаживание тесного сотрудничества с заинтересованными сторонами.

 Источник изображения: techpowerup.com

Источник изображения: techpowerup.com

При производстве 16-Hi HBM3E компания будет применять передовую технологию Advanced MR-MUF, которая ранее использовалась при изготовлении 12-слойных продуктов. Память рассчитана на высокопроизводительные ИИ-ускорители. Утверждается, что 16-ярусные изделия по сравнению с 12-слойными аналогами обеспечивают прирост быстродействия на 18 % при обучении ИИ-моделей и на 32 % при инференсе.

SK hynix намерена предложить заказчикам кастомизируемые решения HBM с оптимизированной производительностью, которые будут соответствовать различным требованиям к ёмкости, пропускной способности и функциональности. Плюс к этому SK hynix планирует интегрировать логику непосредственно в кристаллы HBM4. Ранее говорилось, что компания рассчитывает начать поставки памяти HBM4 заказчикам во II половине 2025 года.

В числе других готовящихся продуктов SK hynix упоминает модули LPCAMM2 (Compression Attached Memory Module 2) для ПК и ЦОД, решения LPDDR5 и LPDDR6 с технологией производства 1c-класса, SSD с интерфейсом PCIe 6.0, накопители eSSD и UFS 5.0 большой вместимости на основе чипов флеш-памяти QLC NAND.

Постоянный URL: http://servernews.ru/1113504
01.11.2024 [19:11], Руслан Авдеев

Tesla надумала закупить у SK hynix серверные SSD на $725 млн

Производитель электромобилей и разработчик других умных машин Tesla обсуждает с южнокорейской SK Hynix возможный заказ SSD корпоративного класса на сумму ₩1 трлн (около $725 млн), передаёт The Korea Economic Daily.

Solidigm, дочерняя компания SK hynix, отмечает, что без ёмких и быстрых SSD работа с ИИ невозможна. Предполагается, что Tesla столь большая закупка SSD нужен как раз для развития ИИ-инфраструктуры. Компания вот-вот запустит ИИ-кластер из 50 тыс. NVIDIA H100. Также у неё есть собственный ИИ-суперкомпьютер Dojo, а в целом в этом году капитальные затраты за год, как ожидается, превысят $11 млрд. Значительная часть из них уйдёт как раз на ИИ ЦОД.

Как уточняет ресурс Blocks & Files, поставщиками All-Flash СХД для обеих систем являются несколько вендоров. В данном случае, судя по всему, идёт закупке QLC-накопителей D5-P5336 ёмкостью 61,44 Тбайт. За указанную сумму можно приобрести порядка 100–200 тыс. накопителей суммарной ёмкостью от 10 Эбайт — конкретные значения будут зависеть от размера скидки, а при такой крупной закупке она обязательно будет.

 Источник изображения: Tesla

Источник изображения: Tesla

На прошлой неделе SK hynix заявила, что в III квартале она практически удвоила прибыль. SK Hynix намерена наращивать инвестиции в чипы, связанные с ИИ-технологиями — SSD и HBM. Ожидается, что спрос на них и в следующем году будет весьма высок. В компании игнорируют опасения отраслевых экспертов, предрекающих «зиму» спроса на чипы памяти. Наоборот, компания рассчитывает на дефицит поставок памяти для ИИ-ускорителей из-за огромного спроса на соответствующую продукцию.

Постоянный URL: http://servernews.ru/1113388
30.10.2024 [16:03], Руслан Авдеев

Equinix открыла первый ЦОД в Южной Африке и намерена построить ещё два в Таиланде

Компания Equinix запустила свой первый в Южной Африке ЦОД IBX. По информации Datacenter Dynamics, впервые анонсированный ещё в декабре 2022 года дата-центр официально заработал на прошлой неделе. Расположенный в городском округе Джермистон ЦОД JN1 Johannesburg IBX Data Center имеет около 1,9 тыс м2 колокейшн-площадей, но со временем площадь должна вырасти до 9,5 тыс. м2.

На начальном этапе речь идёт о 700 серверных стойках, но в итоге их число должно вырасти до 3475. Ёмкость поэтапно вырастет с 4 МВт до 20 МВт. Особенностью ЦОД является поддержка СЖО. Ранее компания заявляла, что намерена инвестировать в проект $160 млн. Первыми резидентами ЦОД названы Liquid Intelligent Technologies, Intelys Technology Group, Seacom и WorkOnline Communications, а также Johannesburg Internet Exchange (JINX), принадлежащая INX-ZA. В числе прочих операторов, действующих в окрестностях Йоханнесбурга — Digital Parks Africa, OADC, Digital Realty (Teraco), Vantage, NTT и Africa Data Centers.

По словам представителя Equinix в Южной Африке, новый ЦОД IBX станет мощной платформой для бизнеса и инноваций и поспособствует процветанию не только ЮАР, но и соседних стран. Новый объект должен стать ключевым центром перекрёстной связи на континенте для ряда наиболее быстро развивающихся стран и бизнесов. Первые шаги на континенте Equinix сделала в декабре 2021 года, купив компанию MainOne, «дочка» которой (MDXi) управляет четырьмя объектами общей площадью 5,95 тыс. м2 в Нигерии, Гане и Кот-д'Ивуаре.

 Источник изображения:  Simon Hurry/unsplash.com

Источник изображения: Simon Hurry/unsplash.com

ЮАР интересы Equinix не ограничиваются — компания расширяет присутствие в Таиланде, намереваясь поэтапно инвестировать здесь около $500 млн в течение следующих десяти лет. На покупку земли в Бангкоке уйдёт $34 млн. Приобретённых участков площадью 18,7 тыс. м2 хватит на строительство двух ЦОД IBX на 3375 стоек. Сроки окончания строительства пока не называются.

В компании утверждают, что Таиланд находится на переднем крае цифрового развития Юго-Восточной Азии и становится ключевым игроком в региональной цифровой экономике. Проект в Бангкоке — ещё один этап стратегии развития связей между Таиландом и остальной частью Юго-Восточной Азии. Новые проекты, предположительно, будут реализованы для обеспечения запросов корпоративных клиентов, а также крупнейших облачных провайдеров — драйвером развития станет близость Таиланда к Камбодже, Лаосу, Мьянме и Вьетнаму, а также «проактивной политике» правительства Cloud First Policy.

Сегодня Equinix уже присутствует в ряде стран и территорий Азиатско-Тихоокеанского региона: Индии, Индонезии, Японии, Сингапуре, Австралии, Южной Корее, Малайзии, в материковом Китае, а также в Гонконге. В Таиланде ведут деятельность и другие операторы ЦОД: Edgnex, Etix Everywhere, NextDC, NTT, STT GDC, CtrlS, Evolution DC, Telehouse, Singtel, True IDC, Digital Edge, Bridge DC, Edge Centres, Supernap и др.

Постоянный URL: http://servernews.ru/1113246
06.10.2024 [22:58], Владимир Мироненко

Cosmos для ИИ: VAST Data сформировала сообщество ИИ-специалистов, к которому уже присоединились NVIDIA, xAI, Supermicro, Cisco и др.

Компания VAST Data, специализирующаяся на разработке инфраструктуры для ИИ, объявила о создании Cosmos — онлайн-сообщества, предназначенного для объединения ИИ-специалистов из разных отраслей. Учитывая стремительный темп изменений на рынке ИИ, оставаться в курсе последних достижений может быть непростой задачей, отметила VAST Data, добавив, что компании спешат внедрить ИИ, чтобы трансформировать свою деятельность. При этом ИИ-специалисты сталкиваются со сложными проблемами, требующими постоянного обучения и адаптации.

VAST Data сообщила, что сообщество Cosmos предоставит специалистам по ИИ возможность общаться, делиться передовым опытом и имеющимися знаниями. Благодаря обсуждениям в реальном времени, практическим занятиям и библиотеке ресурсов Cosmos поможет компаниями добиться успеха в их проектах по развитию ИИ, независимо от их сложности.

В качестве платформы для общения выбран Discord. Для обучения предлагаются практические лаборатории Cosmos Lab, где будет возможность ознакомиться с реальными примерами работы над ИИ под руководством экспертов, которые понимают аспекты развёртывания таких решений. Лаборатории призваны помочь специалистам углубить свои навыки в интерактивной среде. Центральным узлом сообщества станет форум Discourse. Это будет место для объёмного контента, включая подробные статьи, обмен знаниями, календари событий и презентации поставщиков. «Именно здесь Cosmos превращается в нечто большее, чем просто чат — это библиотека знаний, созданная сообществом для сообщества», — отметила VAST Data.

 Источник изображения: VAST Data

Источник изображения: VAST Data

VAST Data также уточнила, что Cosmos предназначено не только для тех, кто уже является экспертом: «Независимо от того, возглавляете ли вы команду ИИ, являетесь ли вы студентом, интересующимся тем, как ИИ повлияет на вашу будущую карьеру, или только начинаете развёртывать свою первую модель, Cosmos предлагает пространство, где вы можете учиться, сотрудничать и расти».

Соучредитель VAST Data Джефф Денворт (Jeff Denworth) сообщил ресурсу The Register, что одной из моделей функционирования нового сообщества является организация Open Compute Project, занимающаяся разработкой оборудования и лучших практик с помощью совместных усилий организаций-членов, выкладывающих свои решения в open source. Ещё один ориентир для Cosmos — Конференция RSA (RSA Conference), на которой обсуждаются технологии современной защиты информационных систем, проблемы безопасности, тенденции развития сетевых угроз и вредоносных программ и т.д.

Денворт также сообщил, что был разработан кодекс поведения участника и начался набор экспертов для руководства контентными треками. На должность менеджера сообщества назначен Джонас Росланд (Jonas Rosland), занимавший должности менеджера сообщества в VMware, CIQ и Dell EMC. К сообществу уже присоединились NVIDIA, xAI, Supermicro, Deloitte, WWT, Cisco, CoreWeave, Core42, NEA, Impetus, Run:AI и Dremio.

 Источник изображения: VAST Data

Источник изображения: VAST Data

Параллельно VAST Data объявила о новом сотрудничестве с NVIDIA, Cisco и Equinix, пишет ресурс Blocks and Files. На прошедшей неделе VAST Data представила решение VAST InsightEngine with NVIDIA для безопасного получения, обработки и извлечения всех корпоративных данных (файлов, объектов, таблиц и потоков) в режиме реального времени. В нём VAST Data интегрировала своё ИИ-хранилище и обработку данных с ускорителями NVIDIA и микросервисами NIM. Теперь ускорители могут напрямую работать с данными в массивах VAST, а микросервисы NIM работают непосредственно внутри программной среды VAST.

В свою очередь, Cisco в рамках сотрудничества с VAST Data планирует предлагать ПО VAST Data Platform на некоторых серверах UCS в качестве готовой интегрированной системы. Серверы Cisco UCS с ПО VAST Data и Cisco Nexus HyperFabric AI будут доступны в I половине 2025 года. А Equinix, которая уже предлагает оборудование Dell, NetApp, PureStorage и Seagate (Lyve Cloud) в 26 объектах IBX, планирует добавить платформу VAST для систем NVIDIA DGX, включая SuperPOD, а также платформу NVIDIA AI Enterprise. Сотрудничество с NVIDIA, Cisco и Equinix позволит VAST Data расширить возможности поставок своего продукта на рынки различных стран.

Постоянный URL: http://servernews.ru/1112064