Материалы по тегу: ff
10.02.2024 [01:53], Владимир Мироненко
Pure Storage, намеревающаяся изжить жёсткие диски, сократила 4 % штатаКомпания Pure Storage, специализирующаяся на All-Flash СХД, провела очередной раунд увольнений, уволив до 275 сотрудников, сообщил ресурс Blocks & Files. По данным издания, сокращения затронули направление по защите данных, а также специалистов в области ИИ, аналитики, баз данных, альянсов и в сфере неструктурированных данных. Представитель Pure рассказал изданию, что компания продолжает масштабироваться и поддерживать высокие темпы роста и инноваций. Нынешнее сокращение призвано привести структуру штата в соответствие с приоритетами компании и областями, которые являются стратегическими для бизнеса. Уволенным сотрудникам предоставили право подать заявки на открытые вакансии, а также предложили помощь в трудоустройстве за пределами Pure. Pure показала хорошие результаты в III квартале 2024 финансового года, завершившемся 5 ноября. Выручка выросла на 13 % в годовом исчислении до $762,8 млн, а прибыль составила $70,4 млн в то время, как год назад у компании были небольшие убытки. Вместе с тем Pure прогнозирует в IV квартале снижение выручки год к году на 3,5 % до $782 млн. Снижение показателя объясняется переходом на подписку, а также отсрочкой поставок на $41 млн. По словам Blocks & Files, Meta✴, а это один из крупных заказчиков Pure Storage, не вполне довольна её СХД. Для обучения больших языковых моделей (LLM) Meta✴ строит кластеры из тысячи узлов хранения с суммарной пропускной способностью 100 Тбит/с, используя при этом L3-коммутацию без RDMA и NVMe-oF. Источник издания утверждает, что Meta✴, как и другим гиперскейлерами, нужна масштабируемая POSIX-совместимая файловая система на базе типовых серверов. Этим условиям удовлетворяет Hammerspace. Источники издания также сообщили, что решение VAST Data, которое как раз и базируется на типовых серверах и предлагает NVMe-oF, дорого и не может масштабироваться более чем на 30 узлов без заметного падения производительности.
04.02.2024 [21:02], Сергей Карасёв
Meta✴ намерена активно внедрять собственные ИИ-ускорители Artemis в качестве альтернативы решениям NVIDIA и AMDВ 2024 году компания Meta✴, по сообщению The Register, после многих лет разработки может начать массовое внедрение собственных ИИ-чипов. Они станут альтернативой ускорителям NVIDIA и AMD, что поможет снизить зависимость от продукции сторонних поставщиков. В 2024 году компания намерена потратить до $37 млрд на развитие своей инфраструктуры. В настоящее время для поддержания ИИ-нагрузок Meta✴ применяет такие решения, как NVIDIA H100. Ожидается, что к концу 2024 года компания будет иметь в своём распоряжении 350 тыс. этих ускорителей. Вместе с тем Meta✴ проявляет интерес и к изделиям AMD Instinct MI300. Ранее компания высоко оценила возможности Qualcomm Cloud AI 100, но отказалась от них из-за несовершенства ПО. Не приглянулись Meta✴ и чипы Esperanto. Сейчас Meta✴ ведёт разработку собственных ИИ-ускорителей. Весной 2023 года стало известно, что компания создала свой первый ИИ-процессор. Чип под названием MTIA (Meta✴ Training and Inference Accelerator; на изображении) представляет собой ASIC в виде набора блоков, функционирующих в параллельном режиме. Задействованы 64 вычислительных элемента в виде матрицы 8 × 8, каждый из которых объединяет два ядра с архитектурой RISC-V. Конструкция включает 128 Мбайт памяти SRAM, а также до 64/128 Гбайт памяти LPDDR5. Показатель TDP равен 25 Вт. Заявленная производительность на операциях INT8 достигает 102,4 TOPS, на операциях FP16 — 51,2 Тфлопс. Процессор производится по 7-нм технологии TSMC. Как теперь сообщается, в 2024-м Meta✴ намерена начать активное использование собственных ИИ-ускорителей с кодовым именем Artemis. В их основу лягут компоненты MTIA первого поколения. Чип Artemis, оптимизированный для инференса, будет применяться наряду с ускорителями сторонних поставщиков. При этом, как отметили представители компании, изделия Artemis обеспечат «оптимальное сочетание производительности и эффективности при рабочих нагрузках, специфичных для Meta✴». Компания пока не раскрывает ни архитектуру Artemis, ни конкретные рабочие нагрузки, которые будет поддерживать чип. Участники рынка полагают, что Meta✴ будет запускать готовые ИИ-модели на собственных специализированных ASIC, чтобы высвободить ресурсы ускорителей для развивающихся приложений. По данным SemiAnalysis, Artemis получит улучшенные ядра, а компоненты LPDDR5 уступят место более быстрой памяти, использующей технологию TSMC CoWoS. Нужно добавить, что Amazon и Google уже несколько лет используют собственные чипы для ИИ-задач. Например, Amazon недавно ИИ-ускорители Trainium2 и Inferenetia2, тогда как Google в 2023 году представила сразу два новых ускорителя: Cloud TPU v5p и TPU v5e. А Microsoft сообщила о создании ИИ-ускорителя Maia 100.
04.02.2024 [00:06], Сергей Карасёв
Meta✴ потратит в 2024 году до $37 млрд на развитие своей инфраструктуры, в основном для ИИMeta✴ отрапортовала о работе в IV квартале и 2023 финансовом году в целом, который был завершён 31 декабря. По ключевым показателям зафиксирован значительный рост, что корпорация связывает с успешной реализацией ряда инициатив, в том числе в области ИИ. Суммарная выручка за последнюю четверть 2023-го поднялась в годовом исчислении на 25 % — с $32,17 млрд до $40,11 млрд. Годовое значение увеличилось на 16 %, достигнув $134,90 млрд против $116,61 млрд в 2022-м. Чистая квартальная прибыль Meta✴ в годовом исчислении взлетела на 201 % — с $4,65 млрд до $14,02 млрд, а прибыль в пересчёте на одну ценную бумагу составила $5,33 (около $1,76 в IV квартале 2022-го). Годовая прибыль зафиксирована на отметке $39,10 млрд: это на 69 % больше по сравнению с 2022 годом, когда компания заработала $23,20 млрд. Прибыль на акцию поднялась с $8,59 до $14,87. Учитывая, что финансовые перспективы оказались лучше, чем ожидалось, Meta✴ сообщила о намерении увеличить капитальные затраты (CapEx) в 2024 году: они составят от $30 млрд до $37 млрд. Таким образом, верхняя граница поднялась на $2 млрд. Средства пойдут на развитие инфраструктуры. В частности, планируется закупка дополнительного оборудования, включая серверы, для обучения и поддержания работы ИИ-приложений. Кроме того, компания продолжит расширять экосистему своих дата-центров. Финансовый директор Meta✴ Сьюзан Ли (Susan Li) отмечает, что итоговая сумма капитальных затрат будет зависеть от спроса на услуги ИИ, а также от доступности компонентов. Речь идёт прежде всего о высокопроизводительных ускорителях на базе GPU. Компания также не исключает рост инвестиций в цифровую инфраструктуру после 2024 года. Отметим, что Meta✴ пересматривает архитектуру своих ЦОД в связи с повсеместным внедрением ИИ. Компания делает ставку на СЖО и новые средства управления питанием. Meta✴ также стремится использовать больше собственных чипов в дата-центрах, чтобы уменьшить зависимость от изделий таких поставщиков, как NVIDIA.
28.01.2024 [00:16], Сергей Карасёв
Meta✴ поселит свой ИИ в «зелёный» дата-центр стоимостью $800 млнКорпорация Meta✴, по сообщению Bloomberg, построит в Индиане (США) один из своих первых дата-центров, специально спроектированных для генеративного ИИ. Ожидается, что затраты на реализацию этого масштабного проекта составят приблизительно $800 млн. Об инициативе объявили губернатор штата Индиана и руководители Meta✴. ЦОД расположится в центре River Ridge в Джефферсонвилле, заняв площадь около 65 тыс. м2. Планируется, что объект будет получать питание исключительно от возобновляемых источников энергии. Дата-центр будет оснащён стойками высокой плотности. Говорится о применении собственных чипов и сторонних ускорителей. Серверы и сетевые компоненты будут использовать одну и ту же физическую инфраструктуру. Жидкостное охлаждение планируется реализовать по схеме Direct-to-chip. В процесс строительства ЦОД будут вовлечены около 1250 инженеров и рабочих. Запустить объект в эксплуатацию компания Meta✴ намерена к 2026 году. Он же даст работу примерно сотне высокооплачиваемых специалистов. По условиям соглашения с властями штата, Meta✴ получит 35-летнее освобождение от налога с продаж в Индиане. Причём этот срок может быть увеличен, если компания решит и дальше развивать свои кампусы ЦОД в регионе.
20.01.2024 [23:35], Сергей Карасёв
Solidigm начала продажи самого ёмкого в мирe NVMe SSD — 61,44 Тбайт стоят менее $4000Компания Solidigm, по сообщению TechRadar, начала приём заказов на самый вместительный в мире QLC NVMe SSD, предназначенный для применения в СХД высокой плотности для дата-центров. Речь идёт об изделии D5-P5336, способном вмещать 61,44 Тбайт информации. Устройство было представлено летом прошлого года. Оно имеет формат E1.L; задействован интерфейс PCIe 4.0 x4 (NVMe 1.4). В конструкции применены 192-слойные микрочипы флеш-памяти QLC 3D NAND. Стоит отметить, что данный накопитель является наиболее ёмким среди «обычных» NVMe SSD. Проприетарные решения Pure Storage DFM и IBM FlashCore предлагают до 75 Тбайт и до 114 Тбайт (с учётом компрессии) соответственно. Кроме того, существуют SATA-накопители Nimbus ExaDrive ёмкостью 64 Тбайт (QLC) и 100 Тбайт (TLC), которые три года назад оценивались в $11 тыс. и $40 тыс. соответственно. D5-P5336 подходит для рабочих нагрузок с интенсивным чтением, таких как ИИ, машинное обучение, сети доставки контента и объектное хранилище. Заявленная скорость последовательного чтения данных достигает 7000 Мбайт/с, скорость последовательной записи — 3000 Мбайт/с. Величина IOPS при произвольном чтении блоками по 4 Кбайт, согласно техническим характеристикам, составляет до 1 005 000, при произвольной записи — до 43 800. Устройство может выдерживать 0,58 перезаписи в сутки (показатель DWPD), а значение MTBF составляет 2 млн часов. Энергопотребление в активном режиме равно 23 Вт, в режиме простоя — 5 Вт. Диапазон рабочих температур — от 0 до +70 °C. Отмечается, что накопитель D5-P5336 вместимостью 61,44 Тбайт доступен для заказа у ряда ретейлеров. Так, на площадке PCNation устройство можно приобрести по цене примерно $3975, тогда как Tech-America предлагает его за $3692 на момент написания материала. Производитель предоставляет на изделие пятилетнюю гарантию.
19.01.2024 [01:35], Владимир Мироненко
У Meta✴ будет уже 350 тыс. ускорителей NVIDIA H100 к концу 2024 годаК концу 2024 года компания Meta✴ планирует иметь в распоряжении 350 тыс. ускорителей NVIDIA H100. А общая произвдительность всех ИИ-чипов компании будет эквивалента 600 тыс. H100. Об этом сообщил основатель Meta✴ Марк Цукерберг в своём Instagram✴. Meta✴ заинтересовалась ускорителями AMD Instinct MI300, а также разработала собственный ИИ-чип MTIA. В интервью ресурсу The Verge глава Meta✴ уточнил , что для создания продуктов, которые компания хотела бы иметь в своём портфолио, необходимо разработать сильный искусственный интеллект (AGI). В настоящее время компания занимается проектом по развёртыванию метавселенной, который приносит ей пока только миллиардные убытки. но Meta✴ верит, что за сочетанием ИИ и метавсленными будущее. В рамках реализации планов по совершенствованию технологий ИИ компания пересмотрела находящиеся на стадии разработки проекты, отменив часть из них, что привело к падению капитальных затрат по сравнению с предыдущим годом. В IV квартале компания потратила $6,8 млрд, что на $3 млрд меньше год к году. При этом компания увеличивает вложения в ИИ и разработала новую архитектуру ЦОД, которая позволит повысить эффективность использования ИИ-кластеров. Всего в 2023 году капвложения Meta✴, по оценкам, составят $27–29 млрд. В 2024 году компания планирует потратить на эти цели $30–35 млрд, причём рост будет обусловлен инвестициями в серверы (включая оборудование, не связанное с ИИ), а также в дата-центры на базе обновлённой архитектуры.
11.01.2024 [21:04], Сергей Карасёв
Gigabyte представила сервер хранения S183-SH0 для больших языковых моделейКомпания Gigabyte анонсировала сервер хранения S183-SH0, предназначенный, как она сама говорит, для работы с большими языковыми моделями (LLM). Новинка, выполненная в форм-факторе 1U, допускает установку двух процессоров Intel Xeon Sapphire Rapids или Emerald Rapids. Во фронтальной части сервера расположены 32 посадочных места для накопителей E1.S NVMe SSD с возможностью горячей замены. Это позволяет сформировать сверхбыстрое хранилище для обработки данных LLM. Кроме того, предусмотрены два коннектора для накопителей M.2 с интерфейсом PCIe 3.0 x4 или SATA 3.0. Доступны 32 слота для модулей оперативной памяти DDR5-4800/5600. Могут быть установлены три карты FHHL с интерфейсом PCIe 5.0 x16 или x8. В оснащение входит контроллер Aspeed AST2600. Есть два сетевых порта 1GbE (Intel I350-AM2) с поддержкой NCSI и выделенный сетевой порт управления. Питание обеспечивают два блока мощностью 1600 Вт с сертификатом 80 PLUS Titanium. Габариты сервера составляют 438 × 43,5 × 730 мм. Имеются три порта USB 3.2 Gen1 (один выведен на лицевую панель), интерфейс Mini-DP и гнёзда RJ-45 для сетевых кабелей. Реализована система воздушного охлаждения с семью вентиляторами диаметром 40 мм. Диапазон рабочих температур — от +10 до +35 °C.
03.11.2023 [22:48], Владимир Мироненко
Llama 2 в хорошие руки: Dell и Meta✴ предложили готовый программно-аппаратный комплекс для локального развёртывания ИИDell и Meta✴ предложили совместную разработку для повышения эффективности работы компаний в области генеративного ИИ, основанную на использовании большой языковой модели Meta✴ Llama 2 и инфраструктуры Dell. Запуск таких приложений генеративного ИИ, как чат-боты, виртуальные помощники, в том числе для написания кода, предполагает обучение моделей на собственных данных компаний. Однако решения в публичных облаках хотя и удобны, часто имеют определённые ограничения, включая риски безопасности, связанные с суверенитетом данных, а также непредсказуемые затраты и проблемы с соблюдением регуляторных требований. Локальное развёртывания открытых больших языковых моделей (LLM) вроде Llama 2 обеспечивает клиентам предсказуемые затраты и полный контроль над своими данными, снижая риск для безопасности и утечки интеллектуальной собственности, а также обеспечивая соответствие нормативным требованиям, говорит Dell. Решения Dell Generative AI Solutions вместе с Dell Validated Design for Generative AI предлагают клиентам готовый, предварительно протестированный программно-аппаратный, специально созданный для работы с генеративным ИИ. Теперь же Dell в сотрудничестве с Meta✴ расширила свой портфель предложений для работы с генеративным ИИ — клиентам доступно упрощённое развёртывание и тюнинг ИИ-моделей Meta✴ Llama 2 от Meta✴ в локальной среде. Решение Dell Validated Design for Generative AI вместе с Llama 2 предоставляет компаниям готовую инфраструктуру, ПО и сервисы Dell для оптимизации развёртывания и управления локальными ИИ-проектами. Llama 2 протестирована и проверена Dell, в том числе при работе с (SFT), LoRA и p-tuning на моделях с 7, 13 и 70 млрд параметров Благодаря руководству по развёртыванию и настройке компании смогут быстро запустить свою ИИ-инфраструктуру и использовать Llama 2 с большей предсказуемостью. В частности, доступны анализ использования памяти, задержек и эффективности LLM. «Наша цель — стать предпочтительным поставщиком локальной инфраструктуры для клиентов, развёртывающих Llama 2, и предоставить нашим клиентам лучшие в своём классе генеративные решения ИИ», — сообщила компания. Аппаратная основа включает серверы PowerEdge XE9680, а также PowerEdge R760xa (с NVIDIA L40S).
28.10.2023 [14:13], Сергей Карасёв
Квартальные капвложения Meta✴ в ЦОД и серверы рухнули почти на третьКомпания Meta✴ опубликовала отчёт о работе в III четверти 2023 финансового года, которая была завершена 30 сентября. Говорится, что капиталовложения в серверы, дата-центры и сетевую инфраструктуру в годовом исчислении сократились приблизительно на треть, что объясняется прежде всего пересмотром и приостановкой ряда крупных ЦОД-проектов. За трёхмесячный период Meta✴ получила выручку в размере $34,15 млрд, что на 23 % больше прошлогоднего результата. Чистая прибыль при этом взлетела на 164 % — с $4,40 млрд до $11,58 млрд. Прибыль в пересчёте на одну ценную бумагу составила $4,39 против $1,64 в III квартале 2022-го. В свете сложившейся макроэкономической ситуации и стремительного развития рынка ИИ Meta✴ инициировала масштабную трансформацию. В конце 2022 года компания объявила о пересмотре архитектуры своих дата-центров с прицелом на ИИ и СЖО. С тех пор были приостановлены около десятка проектов по всему миру. Meta✴ также сообщила о сокращении расходов на ЦОД на $4 млрд и об отказе от дальнейшего внедрения инференс-чипов собственной разработки в пользу ускорителей NVIDIA. По итогам закрытого квартала капвложения Meta✴ в ЦОД и серверы оказались на отметке $6,8 млрд, тогда как годом ранее этот показатель равнялся $9,52 млрд. Компания ожидает, что её капитальные затраты в 2023 году в целом составят $27–$29 млрд, а не $27–$30 млрд, как предполагалось ранее. В 2024 году это значение окажется в диапазоне от $30 до $35 млрд: планируемый рост будет обусловлен инвестициями в серверы, включая оборудование, не связанное с ИИ, и в дата-центры. По состоянию на 30 сентября 2023 года численность штата Meta✴ в глобальном масштабе составляла 66 185 сотрудников. Это на 24 % меньше, нежели годом ранее.
22.10.2023 [22:00], Руслан Авдеев
400-Тбит/с транслатлантический интернет-кабель Amitié готов к коммерческой эксплуатацииВозглавляемый Meta✴ проект Amitié с участием ряда других телеком-компаний подошёл к завершению первой стадии и готов к реализации следующего этапа. Как сообщает Datacenter Dynamics, 400-Тбит/c трансатлантический кабель протяжённостью 6800 км, соединяющий Францию и США, готов к коммерческому применению. Изначально строительство Amitié анонсировали в 2020 году, кабель должны были ввести в строй ещё в прошлом году. Фактически работы по прокладке завершились ещё в июле, но официальный ввод в эксплуатацию состоялся только сейчас. Amitié объединяет 16 оптоволоконных пар. Посадочные станции расположены в Линне близ Бостона (принадлежит дочерней структуре Meta✴ — Edge USA), в Буде (Англия), в также дата-центре Equinix в Бордо (Франция). Meta✴ имеет наибольшую долю в проекте (80 %), а в число партнёров входят Aqua Comms, Microsoft и Vodafone. Оператором станции в Бордо является телеком-провайдер Orange, владеющий частями кабеля протяжённостью до 22,2 км, тянущимися от побережья Франции. Известно, что компании принадлежит право на использование двух оптоволоконных пар кабеля. По словам представителей Orange, комбинация кабелей Amitié и Dunant обеспечила Франции размещение в сердце межконтинентальных обменов информацией — между Европой и Соединёнными Штатами, а также Азией и Африкой. Задержка при прохождении сигнаоа от Бордо до Нью-Йорка составляет 34 мс. Для сравнения, принадлежащий Google трансатлантический кабель Dunant может предложить 38 мс. В 860 километрах от побережья Франции и 650 километрах от берегов Великобритании имеется дополнительный блок управления, позволяющий эффективно менять настройки передачи сигнала между отдельными посадочными станциями, переключаясь между длинами волн или волокнами. |
|