Материалы по тегу: i
|
26.11.2025 [13:48], Сергей Карасёв
MSI представила рабочую станцию CT60-S8060 на базе NVIDIA GB300Компания MSI анонсировала мощную рабочую станцию CT60-S8060, ориентированную на ресурсоёмкие задачи в сфере ИИ, такие как обучение больших языковых моделей и инференс, а также на анализ крупных массивов данных и пр. Новинка построена на аппаратной платформе NVIDIA. В основу системы положен «персональный ИИ-суперкомпьютер» DGX Station. Используется суперчип GB300: объединены ускоритель B300 с 288 Гбайт памяти HBM3E (до 8 Тбайт/с) и процессор Grace с 72 Arm-ядрами. Присутствуют 496 Гбайт памяти LPDDR5X с пропускной способностью до 396 Гбайт/с. Блоки CPU и GPU связаны интерконнектом NVLink-C2C, который обеспечивает скорость передачи данных до 900 Гбайт/с. Рабочая станция заключена в корпус с габаритами 245 × 528,4 × 595 мм. Доступны два слота PCIe 5.0 x16 (на уровне сигналов x8 каждый) для карт расширения одинарной ширины и слот PCIe 5.0 x16 для карты двойной ширины. Кроме того, есть по два разъёма М.2 2280 с интерфейсом PCIe 5.0 x2 (NVMe) и M.2 2280 с интерфейсом PCIe 6.0 x4 (NVMe) для SSD, а также коннектор М.2 2232 (PCIe x1) для комбинированного адаптера Wi-Fi/Bluetooth. Система располагает контроллером Aspeed AST2600 BMC, сетевым адаптером NVIDIA ConnectX-8 с двумя портами 400GbE QSFP и контроллером Marvel AQC113, на основе которого реализован порт 10GbE RJ45. В тыльной части сосредоточены аудиогнёзда, порты USB Type-A и USB Type-C. Питание обеспечивает блок формата ATX мощностью 1600 Вт с сертификатом 80 PLUS Titanium.
23.11.2025 [17:01], Руслан Авдеев
OpenAI и Foxconn оптимизируют стоечные решения для ИИ ЦОД, которые будут выпускаться в СШАКомпании OpenAI и Foxconn займутся совместной оптимизацией проектирования дата-центров. ИИ-гигант объявил, что партнёрство с Foxconn (Hon Hai Technology) сосредоточится на совместной разработке и подготовке производства в США нового поколения аппаратного обеспечения для ИИ-инфраструктур. Компании займутся проектированием и подготовке к реализации проектов «многочисленных поколений ИИ-стоек для дата-центров», чтобы обеспечить их соответствие потребностям новых моделей ускорителей. Упор сделан на расширение выпуска на всей территории США, увеличение доли местных поставщиков, локализацию тестирования и сборки. Foxconn намерена выпускать в Соединённых Штатах ключевые компоненты, включая кабели, сетевое оборудование, системы электропитания и охлаждения. Хотя конкретные обязательства по финансам и закупкам в соглашении отсутствуют, оговорено, что OpenAI будет иметь ранний доступ для оценки новых систем и заключения контрактов на их закупки. Компании уже довольно давно совместно работают над проектом Stargate. Ранее Foxconn подтвердила, что станет выпускать для проекта оборудование на бывшем производстве General Motors в Лордстауне (Lordstown, Огайо). Это последний в серии шагов, предпринятых тайваньским производителем электроники для расширения бизнеса на территории США за последний год. В июле 2025 года Foxconn заключила контракт с американским филиалом тайваньской Teco, занимающейся производством электродвигателей. Они договорились о выпуске модульных ЦОД в США. Американское правительство и бизнес призывают ключевые тайваньские полупроводниковые компании переносить производство в США на фоне опасений, что напряжённость в отношениях с материковым Китаем может поставить под угрозу глобальную цепочку поставок. А по словам главы OpenAI Сэма Альтмана (Sam Altman), востребованная ИИ-инфраструктура — редчайшая возможность реиндустриализации Америки. Некоторые из общих усилий уже начинают приносить плоды. Так, на фабрике TSMC в Финиксе (Phoenix, Аризона) изготовили первую в США пластину с чипами NVIDIA Blackwell и первую же пластину с CCD AMD EPYC Venice. Многие связанные с производством оборудования и компонентов для ЦОД компании также принимают решение о локализации производства в США. Так, в начале апреля об инвестициях в производство на территории Соединённых Штатов заявила Wistron. Schneider Electric инвестирует $140 млн на выпуск в стране электрооборудования, а Hitachi Energy — $1 млрд.
20.11.2025 [14:09], Руслан Авдеев
xAI, Humain и NVIDIA построят крупный ИИ ЦОД в Саудовской АравииГлава компании xAI Илон Маск (Elon Musk) объявил о новом совместном проекте xAI, NVIDIA и Humain в Саудовской Аравии. Новость появилась на фоне официального визита саудовского наследного принца Мухаммеда бин Салмана (Mohammed bin Salman) в США, сообщает NBC News. Проект был анонсирован практически одновременно с аналогичным проектом AMD, Cisco и Humain. По словам Маска, с использованием чипов NVIDIA и при участии Humain, созданной при поддержке суверенного фонда благосостояния Саудовской Аравии, компанией xAI будет построен дата-центр мощностью 500 МВт. Для сравнения, кампус ЦОД Colossus 1 компании xAI в Мемфисе является одним из крупнейших в мире действующих вычислительных кластеров и его мощность пока составляет около 300 МВт. Как заявляют в Белом доме, заявления о партнёрстве последовали после заключения меморандума о взаимопонимании в сфере ИИ между США и Саудовской Аравией. В соответствии с новым соглашением, Соединённые Штаты предоставляют ближневосточному королевству доступ к ведущим американским системам и одновременно американские технологии будут защищены от «иностранного влияния».
Источник изображения: NEOM/unspalsh.com По словам Маска, будущее буквально наполнено роботами и космическими ИИ ЦОД. В частности, он заявил, что «гуманоидные роботы станут крупнешим продуктом в истории», что сделает работу «необязательной». Прогнозируя будущее отрасли ИИ, Маск предположил, что через четыре-пять лет спутники с ИИ-модулями на солнечных батареях могут стать самым дешёвым способом обеспечить вычисления.
18.11.2025 [16:01], Руслан Авдеев
Samsung и Hyundai инвестируют $400 млрд в ИИ-проекты в Южной КорееКомпании Samsung и Hyundai объявили о масштабных инвестициях в размере $400 млрд в ИИ-проекты на территории Южной Кореи, сообщает Datacenter Dynamics. Анонс сделан вскоре после того, как США и Южная Корея договорились о торговой сделке, в рамках которой Южная Корея обязалась инвестировать $350 млрд в различные секторы американской экономики, в том числе полупроводниковую отрасль, энергетику и искусственный интеллект. На внутреннем рынке Samsung намерена инвестировать ₩450 трлн ($308 млрд). Значительная доля средств пойдёт на бизнес, связанный с ЦОД и производством полупроводников. В частности, к 2028 году будет построена пятая производственная линия на заводе в Пхёнтхэке (Pyeongtaek), где выпускаются чипы памяти HBM. Впрочем, практически ничего нового компания не сказала. О переносе строительства говорилось и ранее. Теперь компания добавила, что намерена вкладывать средства в обеспечение стабильного выпуска HBM. Также средства пойдут на строительство в Южной Корее производства для немецкой Flakt, выпускающей системы воздушного охлаждения, которую Samsung купила в начале ноября. Масштабы инвестиций особенно впечатляют, если учесть тяжёлый для выпускающей полупроводники «флагманской» дочерней структуры — Samsung Electronics. В III квартале наметились признаки восстановления бизнеса, и компания объявила о росте консолидированной выручки на 15,4 % квартал к кварталу, а также о рекордно высокой квартальной выручке подразделения, отвечающего за производство памяти. Тем не менее, ещё во II квартале компания столкнулась со значительным спадом, со снижением операционной прибыли на 94 % год к году.
Источник изображения: Yu Kato/unsplash.com Hyundai намерена инвестировать в отечественную экономику ₩125,2 трлн ($85 млрд) в течение пяти лет, начиная с 2026 года. При этом ₩50,5 трлн ($34,5 млрд) потратят на дата-центры, ИИ, электрификацию, робототехнику, водородные технологии и умный транспорт. Мощности ЦОД автопроизводителя будут использовать для обработки данных и эксплуатации ИИ, с особым упором на автономные транспортные средства и ИИ-роботов. По-видимому, именно об этом говорилось в соглашении с NVIDIA на поставку 50 тыс. ускорителей для создания ИИ-фабрики. Переговоры о тарифах между Южной Кореей и США оказались сложными. Президент США Дональд Трамп потребовал, чтобы Южная Корея вложила в экономику США $350 млрд. Депортация южнокорейских инженеров с аккумуляторного завода в США только подлила масла в огонь. Корейские власти заявили, что такой шаг поставит страну в положение, в котором она оказалась во время финансового кризиса 1997 года. Пока что американские пошлины на южнокорейские автомобили и автозапчасти снижены с 25 % до 15 %, а для полупроводников гарантируется режим не менее благоприятный, чем у других стран с развитой соответствующей отраслью.
18.11.2025 [12:43], Руслан Авдеев
Crusoe завершила строительство последнего здания первого кампуса StargateЗавершено возведение последнего, восьмого по счёту объекта первого американского кампуса мегапроекта OpenAI Stargate в Абилине (Abilene, Техас). Отвественная за строительство Crusoe выразила благодарность партнёрам и инвесторам за поддержку проекта, а также 7 тыс. электриков, строителей и квалифицированных рабочих. В Crusoe подчеркнули, что гордятся этим важным достижением. Дата-центры строятся Crusoe на территории кампуса Lancium Clean. Эпохальное строительство ведётся с 2024 года. В сентябре Crusoe сообщила, что два первых здания ЦОД ввели в эксплуатацию. Они используются Oracle Cloud Infrastructure (OCI) в интересах OpenAI. Площадь зданий составляет более 91 тыс. м2, общая мощность IT-ресурсов — более 200 МВт. В марте 2025 года начались работы над второй очередью проекта, в рамках которого было запланировано строительство ещё шести зданий. Это увеличит общую площадь объектов до более 371 тыс. м2, а их мощность — до 1,2 ГВт. В полном объёме работы планируется завершить к середине 2026 года. Кампус получит 450 тыс. ускорителей NVIDIA. В октябре 2025 года глава Oracle Ларри Эллисон (Larry Ellison), подтвердил, что проект Stargate будет использовать все мощности кампуса Crusoe. Кампус станет первым из введённых в эксплуатацию объектов Stargate. При этом компания уже сделала ряд объявлений о создании дата-центров «франшизы» на территории США и в других странах, от Аргентины до Южной Кореи и ОАЭ.
17.11.2025 [16:09], Руслан Авдеев
Программный «ускоритель» Huawei обещает практически удвоить производительность дефицитных ИИ-чиповКитайский техногигант Huawei Technologies инфраструктурное ПО для повышения эффективности использования ИИ-ускорителей, сообщает гонконгская SCMP со ссылкой на государственные СМИ КНР. По имеющимся данным, технология позволит поднять эффективность использования ИИ-чипов, включая GPU и NPU, до 70 % по сравнению с нынешними 30–40 %. Это будет ещё одним крупным достижением в области «компенсации отставания в аппаратном обеспечении за счет совершенствования программного». Новая технология, премьера которой должна состояться на одной из посвящённых ИИ-тематике конференций, позволит «унифицированно управлять» не только ускорителями самой Huawei, но и NVIDIA, а также моделями прочих разработчиков. В самой Huawei от комментариев пока воздержались. Это особенно актуально в свете недоступности актуальных ускорителей NVIDIA, из-за чего китайские компании скупают чипы прошлых поколений. Важность оптимизации использования имеющихся ресурсов наглядна показала «революция DeepSeek». Если информация подтвердится, технология может значительно улучшить продажи ИИ-чипов семейства Huawei Ascend в Китае (возможно, и за его пределами). Это может снизить зависимость КНР от чипов NVIDIA и других американских разработчиков. Утверждается, что новая технология Huawei будет аналогична продукту, разрабатывавшемуся израильским стартапом Run:ai и купленному NVIDIA в 2024 году за $700 млн. Его ПО позволяет организовать оркестрацию крупномасштабных ИИ-нагрузок между массивами ИИ-ускорителей. При этом и сама NVIDIA постоянно оптимизирует собственное ПО, повышая производительность исполнения рабочих нагрузок ИИ. Новость может стать хорошим дополнением к сентябрьскому анонсу. Тогда компания поделилась планами выпуска ИИ-ускорителей Ascend следующего поколения. Готовящиеся изделия призваны составить конкуренцию передовым чипов NVIDIA и подготовке мощных ИИ-систем SuperPOD, объединяющих 8192 и 15 488 ускорителей Ascend. На основе таких платформ будут формироваться суперкластеры, насчитывающие до 500 тыс. и более экземпляров Ascend.
06.11.2025 [16:40], Руслан Авдеев
xFusion, созданная на базе серверного подразделения Huawei, готовится к выходу на биржуКомпания xFusion, сформированная в 2019 году путём выделения серверного подразделения Huawei Technologies в отдельный бизнес, которому досталось портфолио x86-серверов, объявила о подготовке к IPO после четырёх лет стабильного роста и развития технологий, сообщает портал Huawei New OS. За последние годы xFusion не только укрепила позиции, но и расширила присутствие в смежных рыночных нишах. Готовясь к IPO, компания позиционирует себя не обычным поставщиком серверов, но и как партнёра по созданию комплексных IT-решений. Данная стратегическая переориентация бизнеса нацелена на удовлетворение растущего спроса на интегрированные услуги, отвечающие сложным потребностям корпоративных клиентов. Ожидается, что IPO привлечёт значительные средства, хотя конкретные прогнозы пока отсутствуют. Это позволит продолжить инвестиции в разработки и исследования, а также реализовать инициативы по расширению бизнеса на международном уровне. IPO поможет укрепить xFusion присутствие на международных рынках и закрепить лидерские позиции в сфере инноваций и серверных технологий. Сама Huawei продолжает наращивать компетенции в разных сферах. В июле 2025 года сообщалось, что компания представила ИИ-систему CloudMatrix 384 — конкурента NVIDIA GB200 NVL72. Более того, по оценкам Omdia, санкции США не особенно помешали успехам Huawei в 5G-секторе, а полная «зачистка сетей» от решений компании по всему миру так и не удалась. Наконец, в сентябре компания раскрыла планы по выпуску новых ИИ-ускорителей семейства Ascend.
04.11.2025 [20:35], Сергей Карасёв
От -40 до +70 °C: MSI выпустила одноплатный Pico-ITX-компьютер MS-CF16 V3.0 для экстремальных условийКомпания MSI IPC анонсировала одноплатный компьютер MS-CF16 V3.0, предназначенный для использования в неблагоприятных условиях. Новинка подходит для построения систем промышленной автоматизации, периферийного оборудования, автомобильных вычислительных комплексов и пр. В зависимости от модификации устройство комплектуется чипом Intel Processor N97 поколения Alder Lake-N (до 3,6 ГГц; 12 Вт), Atom X7433RE семейства Amston Lake (до 3,4 ГГц; 9 Вт) или Processor N150 серии Twin Lake-N (до 3,6 ГГц; 6 Вт). Все эти изделия содержат четыре вычислительных ядра (четыре потока) и графический ускоритель Intel HD Graphics. Одноплатный компьютер поддерживает до 16 Гбайт LPDDR5-4800. Есть порт SATA 3.0 для накопителя, коннектор М.2 E key 2230 (PCIe x1 + USB 2.0) для адаптера Wi-Fi / Bluetooth и разъём М.2 B key 2242/3042 (PCIe x1/SATA 3.0 + USB 3.2 Gen 2 + USB 2.0) для сотового модема. В оснащение входят сетевые контроллеры 2.5GbE и 1GbE, звуковой кодек Realtek ALC897, IO-чип Fintek F81966AB-I и ТРМ-контроллер Infineon SLB 9672VU2.0 (SLB 9672XU2.0 у варианта с процессором Amston Lake).
Источник изображения: MSI Новинка допускает вывод изображения одновременно на два дисплея через интерфейсы HDMI (до 3840 × 2160 пикселей; 30 Гц) и eDP / LVDS (до 1920 × 1200 точек; 60 Гц). Предусмотрены два гнезда RJ45 для сетевых кабелей и два порта USB 3.2. Через разъёмы на плате могут быть задействованы два последовательных порта (RS-232/422/485) и два порта USB 2.0. Модель MS-CF16 V3.0 выполнена в форм-факторе Pico-ITX с размерами 101 × 73 мм. Диапазон рабочих температур простирается от -10 до +60 °C (от -40 до +70 °C у модификации на основе Amston Lake). Питание подаётся через DC-разъём (12 В). Обеспечивается совместимость с Windows 11 IoT Enterprise 24H2 LTSC и Linux.
04.11.2025 [01:00], Владимир Мироненко
OpenAI потратит $38 млрд на аренду ускорителей NVIDIA у AWS, а AWS за $5,5 млрд арендует мощности у Cipher MiningAWS и OpenAI объявили о многолетнем стратегическом партнёрстве, в рамках которого AWS предоставит OpenAI ИИ-инфраструктуру. В рамках соглашения стоимостью $38 млрд OpenAI на семь лет получает доступ к вычислительным ресурсам AWS, включающим сотни тысяч ускорителей NVIDIA GB200/GB300 NVL72 в составе EC2 UltraServer, с возможностью расширения до десятков миллионов чипов для быстрого масштабирования агентных рабочих нагрузок. Согласно пресс-релизу, OpenAI сразу же начнёт использовать вычислительные ресурсы AWS. На первом этапе сделки будут использоваться существующие дата-центры AWS, а Amazon в конечном итоге развернёт дополнительную инфраструктуру для OpenAI. Развёртывание вычислительных мощностей планируется завершить до конца 2026 года. В 2027 году и далее возможно их расширение. В интервью ресурсу CNBC Дэйв Браун (Dave Brown), вице-президент по вычислительным сервисам и сервисам машинного обучения AWS, отметил, что OpenAI достанутся отдельные мощности, часть из которых уже доступна и используется. «Масштабирование передовых ИИ-технологий требует мощных и надёжных вычислений, — заявил генеральный директор OpenAI Сэм Альтман (Sam Altman). — Наше партнёрство с AWS укрепляет обширную вычислительную экосистему, которая станет движущей силой новой эры и сделает передовой ИИ доступным каждому». Примечательно, что для OpenAI будут развёрнуты узлы с преимущественно NVIDIA Connect-X, а не EFA, ради которых AWS переработала стойки GB300 NVL72, передаёт SemiAnalysis. Также OpenAI не будет использовать фирменные инструменты вроде SageMaker HyperPod, а задействует собственные решения для управления инфраструктурой. Т.е. речь идёт скорее о сдаче в аренду серверов, а не облачных сервисах. По-видимому, Project Ceiba также не относится к сделке. Вместе с тем OpenAI продолжит активно сотрудничать с Microsoft, обязавшись приобрести сервисы Azure на $250 млрд. Сделка была заключена после завершения реструктуризации OpenAI, в связи с чем ей уже нет необходимости получать одобрение Microsoft на покупку вычислительных сервисов у других компаний. В 2019–2023 гг. OpenAI использовала только вычислительные мощности Microsoft, являвшейся её основным инвестором. За последние 18 месяцев, несмотря на жалобы OpenAI на то, что ей не удалось получить от Microsoft всю необходимую вычислительную мощность, технологический гигант позволил стартапу заключить отдельные соглашения с двумя другими облачными провайдерами, пишет The New York Times. В последнее время OpenAI активно заключает сделки, в том числе, с такими компаниями, как AMD, CoreWeave, NVIDIA, Broadcom, Oracle и Google. Общая сумма сделок составила около $1,4 трлн, что побудило некоторых экспертов заявить о грядущем пузыре в сфере ИИ. Они также высказывают сомнения в наличии у США необходимых ресурсов и возможностей для воплощения этих амбициозных обещаний в реальность. Попутно стало известно о заключении AWS договора с оператором майнинговых дата-центров Cipher Mining на сумму около $5,5 млрд, согласно которому ей будут предоставлены в аренду на 15 лет площади и электропитание в ЦОД последней. Как сообщает Data Center Dynamics, согласно условиям договора, Cipher Mining предоставит AWS в 2026 году 300 МВт с поддержкой воздушного и жидкостного охлаждения стоек.
01.11.2025 [01:07], Владимир Мироненко
NVIDIA продаст Южной Корее 260 тыс. ускорителей для создания суверенной ИИ-инфраструктуры
hardware
hyundai
kakao
lg
naver
nvidia
samsung
sk group
ии
медицина
производство
робототехника
сделка
суперкомпьютер
цифровой двойник
южная корея
NVIDIA объявила на саммите АТЭС о стратегическом партнёрстве с рядом ведущих южнокорейских компаний и Министерством науки и ИКТ (MSIT) Южной Кореи, в рамках которого в стране будет развёрнута ИИ-инфраструктура с использованием 260 тыс. ИИ-ускорителей NVIDIA для поддержки суверенного ИИ, развития робототехники, производства и цифровой трансформации в различных отраслях. Как сообщается в пресс-релизе, масштабную инициативу поддержала коалиция крупнейших компаний Южной Кореи, включающая Samsung Electronics, SK Group, Hyundai Motor Group, NAVER Cloud, LG и т.д. Согласно соглашению, MSIT развернёт до 50 тыс. ускорителей NVIDIA у облачных провайдеров NHN Cloud, Kakao и NAVER Cloud, реализуя свою программу по созданию суверенной ИИ-инфраструктуры. На первом этапе буде установлено 13 тыс. ускорителей NVIDIA Blackwell с последующим наращиванием их количества в ближайшие годы. Samsung, SK Group и Hyundai Motor Group построят ИИ-фабрики, каждая из которых будет оснащена до 50 тыс. ускорителей NVIDIA; ещё 60 тыс. ускорителей развернёт NAVER. Samsung заявила, что использует ускорители NVIDIA для внедрения ИИ на всех этапах производства чипов, а также для разработки и проектирования микросхем, что позволит создать новое поколение полупроводников, мобильных устройств и робототехники с расширенными возможностями ИИ. Как сообщает SiliconANGLE, на планируемом Samsung заводе с «единой интеллектуальной сетью» ИИ будет непрерывно отслеживать и анализировать производственные условия, делать прогнозы, предоставлять информацию для технического обслуживания и оптимизировать все процессы для повышения производительности производства микросхем. Для этого компания будет активно использовать цифровых двойников на базе ИИ, или виртуальные копии своих микросхем, созданные с помощью NVIDIA CUDA-X, cuLitho, моделей Nemotron, а также Omniverse. Используя платформу NVIDIA Omniverse, компания создаст цифровые двойники каждого компонента, используемого в полупроводниках, включая память, логику, современную компоновку и т.д. Также компания планирует создать цифровых двойников своих производственных предприятий и дорогостоящего оборудования, что позволит моделировать процессы производства чипов в виртуальной среде, где она сможет проверить их работу до запуска реальных производственных линий. Это позволит выявлять отклонения и определять, где необходимо профилактическое обслуживание, как оптимизировать производство и многое другое, а затем применять полученные знания на своем реальном заводе. В свою очередь, SK Group разрабатывает ИИ-фабрику на базе до 60 тыс. ускорителей NVIDIA, включая ИИ-облако на базе ускорителей RTX PRO 6000 Blackwell Server Edition. После ввода в эксплуатацию (завершение заключительного этапа ожидается в конце 2027 года) она станет одной из крупнейших в стране ИИ-фабрик, которая будет обслуживать дочерние компании SK, включая SK Hynix и SK Telecom, а также внешние организации по модели GPUaaS. Сообщается, что SK Telecom предоставит отечественным производителям и стартапам суверенную инфраструктуру для создания цифровых двойников и ИИ-агентов, а также приложений для робототехники. Какие именно ускорители NVIDIA будут использовать Samsung и SK Group, пока не уточняется. Hyundai Motor Group сообщила, что совместно с MSIT и NVIDIA создаёт ИИ-фабрику с 50 тыс. ускорителей NVIDIA Blackwell, которая обеспечит обучение, валидацию и развёртывание ИИ-моделей для производства, автономного вождения и робототехники. Компания планирует использовать NVIDIA DRIVE AGX Thor, NeMo, Nemotron и Omniverse для моделирования заводских процессов. Партнёрство будет способствовать созданию Центра ИИ-приложений и Центра ИИ-технологий. Компания также заявила, что построит суперкомпьютер, пишет Data Center Dynamics. Компания NAVER добавит 60 тыс. ускорителей в свою инфраструктуру NVIDIA AI, ориентируясь на задачи суверенного и физического ИИ. Компания планирует разрабатываать отраслевые модели для судостроения, безопасности и услуг в сфере ИИ для граждан Южной Кореи. Также сообщается, что MSIT возглавляет проект Sovereign AI Foundation Models в сотрудничестве с LG AI Research, NAVER Cloud, NC AI, SK Telecom, Upstage и NVIDIA. В его реализации будут использоваться ПО NVIDIA NeMo и открытые наборы данных NVIDIA Nemotron, что позволит использовать локальные данные для разработки моделей с поддержкой корейского языка с функциями рассуждения и речи. NVIDIA и LG сотрудничают в поддержке академических кругов и стартапов, используя модели LG EXAONE, включая модель EXAONE Path в сфере здравоохранения для диагностики рака, созданную на основе фреймворка MONAI. Компания также сотрудничает с NVIDIA в поддержке стартапов в области физического ИИ и академических исследований. В свою очередь, Корейский институт научно-технической информации (KISTI) сотрудничает с NVIDIA с целью создания Центра передового опыта в области квантовых вычислений и научных исследований. Используя свой суперкомпьютер HANGANG шестого поколения и платформу NVIDIA CUDA-Q, KISTI будет изучать гибридные квантовые вычисления, физически информированные ИИ-модели (physics-informed AI models) и базовые SF-модели (Scientific Foundation Models), созданные с помощью фреймворка NVIDIA PhysicsNeMo. |
|





