Лента новостей
07.07.2025 [14:09], Сергей Карасёв
Axiomtek выпустила 1,6″ одноплатный компьютер KIWI330 на базе Intel Alder Lake-N для приложений AIoTКомпания Axiomtek анонсировала крошечный одноплатный компьютер KIWI330 формата 1,6″, предназначенный для построения интеллектуальных устройств интернета вещей (AIoT), встраиваемых и периферийных систем, робототехники, платформ промышленной автоматизации и пр. В основу новинки положена аппаратная платформа Intel Alder Lake-N. Плата имеет размеры 72 × 56 мм. Применён чип Intel Processor N50 (два ядра; до 3,4 ГГц; 6 Вт), функционирующий в тандеме с 4 Гбайт оперативной памяти LPDDR5. Обработкой графики занят интегрированный ускоритель Intel UHD Graphics. Предусмотрен NVMe SSD вместимостью 64 Гбайт. Диапазон рабочих температур простирается от 0 до +60 °C. ![]() Источник изображения: Axiomtek Имеется коннектор M.2 Key E 2230 (USB 2.0, PCIe), что позволяет подключать модули беспроводной связи или ИИ-ускорители. Изделие располагает горизонтальными портами USB 3.2 Type-C (USB 3.2 + USB 2.0 + 5 В / 3 A + DisplayPort) и USB 3.2 Type-C (USB 3.2 + USB 2.0 + 5 В / 3 A), а также вертикальным портом USB 3.2 Type-C (USB 3.2 + USB 2.0 + 5 В / 3 A) и коннектором USB 2.0. Реализован интерфейс eDP. Отмечается, что KIWI330 поддерживает дополнительные модули расширения MIO, что позволяет добавлять последовательные порты (COM), сетевые LAN-разъёмы или блоки GPIO. Питание подаётся через двухконтактный коннектор Phoenix. Одноплатный компьютер может применяться в компактных устройствах с ограниченным пространством внутри корпуса. Заявлена совместимость с Windows и Linux. Приём заказов на новинку уже начался.
07.07.2025 [14:05], Сергей Карасёв
Суперкомпьютер Doudna получит смешанное All-Flash хранилище IBM и VAST DataНациональная лаборатория им. Лоуренса в Беркли (Berkeley Lab), принадлежащая Министерству энергетики США (DOE), сообщила о том, что суперкомпьютер Doudna получит передовую подсистему хранения данных на основе технологий IBM и VAST Data. Эта платформа сможет с высокой эффективностью справляться с интенсивными нагрузками, связанными с обучением ИИ-моделей и инференсом. НРС-комплекс Doudna (NERSC-10) расположится в Национальном вычислительном центре энергетических исследований США (NERSC) в составе Berkeley Lab. Основой суперкомпьютера послужат системы Dell Integrated Rack Scalable Systems и серверы PowerEdge с ускорителями NVIDIA Vera Rubin. По предварительным данным, машина обеспечит FP64-быстродействие до 790 Пфлопс при потреблении 5,8–8,7 МВт. С целью достижения стабильной и предсказуемой производительности в задачах, требующих анализа данных в режиме, близком к реальному времени, для Doudna выбрана гибридная подсистема хранения, включающая зоны QSS (Quality-of-service Storage System) и PSS (Platform Storage System). Первая ориентирована прежде всего на ИИ-нагрузки: предполагается применение решений VAST Data, включая платформу VAST AI OS. Эта платформа, как утверждается, «объединяет возможности хранения информации, базы данных, вычислений, обмена сообщениями и рассуждений в единую инфраструктуру, созданную с нуля для ИИ и программных агентов». В свою очередь, PSS использует в качестве основы программно-определяемое решение IBM Storage Scale: этот сегмент будет функционировать как быстродействующая параллельная файловая система. Говорится о высокой производительности, масштабируемости и эффективности, что поможет устранить узкие места и оптимизировать рабочие процессы, связанные с обработкой данных. Для обоих сегментов СХД предусмотрено использование архитектуры All-Flash, то есть, будут задействованы исключительно SSD. Как отмечает Berkeley Lab, гибридная подсистема хранения обеспечит в пять раз более высокую производительность, нежели нынешний НРС-комплекс NERSC. Это позволит справляться с крупномасштабными рабочими нагрузками в таких областях исследований, как молекулярная динамика и геофизическое моделирование. Ввести суперкомпьютер в эксплуатацию планируется в 2026 году.
07.07.2025 [13:22], Сергей Карасёв
«Солар» представила межсетевые экраны Solar NGFW S и M с производительностью до 20 Гбит/сГруппа компаний «Солар» анонсировала межсетевые экраны нового поколения (NGFW) для предприятий федерального уровня с разветвлённой сетью филиалов, организаций малого и среднего бизнеса. Дебютировали программно-аппаратные комплексы Solar NGFW S и Solar NGFW М c производительностью до 10 и 20 Гбит/с соответственно. По оценкам «Солар», более половины (56 %) компаний в России используют решения NGFW для защиты сетей, в том числе сегментированных. Причём 72 % клиентов — это региональные заказчики и филиалы крупных организаций, которым требуются NGFW с производительностью до 6 Гбит/с. Приобретать мощные решения класса 100 Гбит/с для них нецелесообразно: как раз на таких заказчиков и ориентированы новые изделия Solar NGFW S и Solar NGFW М. Новинки обеспечивают контроль доступа, фильтрацию трафика, базовый мониторинг и обнаружение угроз внутри локальных сетей. Устройства подходят для поддержания безопасности геораспределённой инфраструктуры — например, филиалов и удалённых офисов, находящихся в различных регионах. В частности, ретейлеры смогут использовать эти NGFW для защиты терминалов самообслуживания и других точек взаимодействия с покупателями. В случае телеком-операторов изделия помогут организовать первичный уровень защиты на границах представительств. Среди других сфер применения названы добывающий и нефтегазовый секторы. ![]() Источник изображения: «Солар» «Компаниям, у которых небольшая нагрузка на сеть, например, около 10–20 Гбит/с, решения NGFW с производительностью 100 Гбит/с невыгодны, поскольку сетевая нагрузка существенно ниже, чем на инфраструктуру головных офисов. Поэтому на базе новой линейки даже небольшой бизнес может позволить себе защиту уровня Enterprise, а корпорации — унифицированное решение для всей сети», — отмечает директор Центра технологий кибербезопасности ГК «Солар». По оценкам, в настоящее время около 40–50 % развёртываний NGFW в России базируется на решениях иностранных производителей. Новые продукты ГК «Солар», как ожидается, помогут ускорить процессы импортозамещения в данной области. «Солар» сотрудничает по проектам NGFW с более чем 100 крупными компаниями, в число которых входит государственные организации, телеком-операторы, нефтегазовые, энергетические и промышленные предприятия, а также финтех.
07.07.2025 [10:15], Руслан Авдеев
DPU-революция так и не состоялась, но развитие ИИ может изменить ситуациюВ 2013 году AWS представила инстансы EC2 C3, вскользь упомянув о расширенных сетевых возможностях благодаря появлению Intel Virtual Function. Позже компания пояснила, что кастомные сетевые адаптеры позволили перенести на них часть нагрузок вроде межсетевого экрана, что высвободило ресурсы серверов. Данное решение оставалось нишевым, но развитие ИИ может всё изменить, сообщает The Register. Решение нашло отклик и у других гиперскейлеров. Они начали создавать собственные SmartNIC или DPU. Mellanox в 2017 году представила DPU BlueField, изначально предназначенный для ускорения перемещения данных All-Flash хранилищ. Чуть позже VMware начала адаптацию своего гипервизора для работы со SmartNIC, предусматривающую запуск сетевых функций на DPU. Потенциал разработки оценила и NVIDIA, которая и приобрела Mellanox, а позже — ещё и Nebulon. В 2021 году Intel вместе с Google разработала Infrastructure Processing Unit (IPU), а годом позже AMD купила разработчика DPU Pensando. В 2022 году VMware представила vSphere Distributed Services Engine, предназначенный для управления SmartNIC и реализации на них распределённого файрвола. Хотя за SmartNIC стояли ключевые игроки IT-отрасли вроде VMware, Intel, AMD и NVIDIA, у каждой из которых было немало клиентов из сферы дата-центров, никакой революции с массовым применением DPU не произошло. VMware признала, что Distributed Services Engine не получил всеобщего признания, а эксперты отрасли подчеркнули, что основными потребителями DPU являются AWS и Microsoft Azure, сдающие мощности конечным заказчикам. ⅔ развёртываний DPU и SmartNIC приходится именно на этих двух гиперскейлеров, а за пределами облачного сегмента особенного прогресса нет. ![]() Источник изображения: Microsoft Впрочем, намечаются и новые сценарии применения DPU, например — в Ethernet-коммутаторах или даже в качестве замены CPU. Потенциально это поможет расширить клиентскую базу. Например, Cisco применяет DPU в «защитных» продуктах Hypershield и смарт-коммутаторах N9300, а первыми DPU в свои коммутаторы CX 1000 внедрила Aruba ещё в 2021 году. Но такие продукты массовыми так и не стали. Ситуацию может изменить стремительное развитие ИИ-технологий. Недавно аналитики Gartner представили «эталонную» архитектуру для работы с ИИ на периферии и в Kubernetes-средах. В обоих случаях рекомендуется использовать DPU. Аналогичный подход в архитектуре для ИИ-облаков поддерживает и NVIDIA. Red Hat тоже поддержала идею использования DPU для виртуальных коммутаторов, балансировщиков, межсетевых экранов, для оптимизации работы баз данных или аналитических нагрузок за счёт прямого взаимодействия с NVMe и даже для инференса. Так, в OpenShift скоро появится DPU Operator. Пять лет назад Fungible объявила, что DPU должны стать «третьим сокетом» наравне с CPU и GPU, а через два года она была куплена Microsoft. И ей ещё повезло, потому что, например, Kalray оказалась вынуждена продать часть своего бизнеса. Возможно, в жизни этой компании и других стартапов наступит светлая полоса — революция в сфере ИИ может привести и к революционному развитию DPU.
07.07.2025 [08:57], Руслан Авдеев
Непредсказуемые пошлины США и общая геополитическая нестабильность ведут к увеличению стоимости и сроков строительства ЦОД в ЕвропеОператоры дата-центров Северной Европы уверены, что вводимые США тарифы и растущая геополитическая нестабильность приведут к росту расходов и задержкам строительства ЦОД, сообщает The Register. Ситуация усугубляется тем, что за последние два года благодаря ИИ спрос на мощности значительно вырос. Проведённый Onnec Nordics опрос показал, что за последние 12 месяцев рабочие нагрузки ИИ выросли в среднем на 42 %, а почти ⅔ операторов заявили, что требования к обеспечению работы ИИ-систем оказались выше, чем ожидалось, из-за чего приходится увеличивать ёмкость как действующих, так и планируемых площадок. В исследовании приняли участие 250 топ-менеджеров из Великобритании, Ирландии и стран Северной Европы. 69 % опрошенных отметили, что непредсказуемая тарифная политика и другие геополитические проблемы увеличивают стоимость и время строительства дата-центров. Ещё в апреле производители оборудования предупреждали, что пошлины, вероятно, приведут к росту цен на серверы, а финансовые аналитики подчёркивали, что неопределённость оставила технологическую отрасль в «подвешенном» состоянии, поскольку оборудование и комплектующие часто поступают из разных источников, из-за чего работа с цепочками поставок усложняется. В Onnec также подчеркнули, что протекционистская политика заставляет операторов принимать решения исходя из необходимости минимизации затрат, что не может не влиять на качество конечной инфраструктуры. В отчёте сообщается, что более 50 % операторов ожидают, что бум ИИ сократит сроки службы действующих ЦОД — ИИ-нагрузки нередко превышают возможности систем питания и охлаждения и пропускной способности сетей. 74 % представителей операторов утверждают, что стратегии энергоснабжения, охлаждения и размещения ЦОД пришлось пересмотреть для создания готовых к использованию ИИ-оборудования объектов. Это уже коснулось некоторых крупных игроков. Не так давно сообщалось, что Microsoft отменила аренду некоторых объектов — возможно, исходя из новых требований к энергопотреблению и охлаждению оборудования. Как сообщает Savills, работающая в сфере недвижимости, затраты на строительство ЦОД в Европе уже выросли в 2024 году, в среднем на 6,5 % год к году, до $9,1 млн/МВт. Дороже всего их строительство в Цюрихе, Лондоне и Франкфурте, основные затраты приходятся на землю, собственно здания, инженерные коммуникации, механические системы и охлаждение. 79 % респондентов назвали нехватку квалифицированных кадров ещё одним фактором, способным замедлить реализацию проектов строительства ЦОД. Решение ряда проблем и снижение ценового давления станет ключом к созданию ИИ-инфраструктуры, отвечающей долгосрочным потребностям операторов. Также слабым звеном называется кабельная инфраструктура — 70 % представителей операторов согласны с тем, что некачественные кабели могут поставить под угрозу производительность дата-центров и снизить их надёжность.
06.07.2025 [23:08], Сергей Карасёв
Giga Computing представила ИИ-серверы на базе NVIDIA HGX B200 с воздушным и жидкостным охлаждениемКомпания Giga Computing, подразделение Gigabyte, представила серверы G4L3-SD1-LAX5, G4L3-ZD1-LAX5, G894-AD1-AAX5 и G894-SD1-AAX5 для приложений ИИ, инференса и других ресурсоёмких нагрузок. В основу новинок положена платформа NVIDIA HGX B200 в конфигурации 8 × SXM. Модель G4L3-SD1-LAX5 типоразмера 4U оснащена системой прямого жидкостного охлаждения (DLC) с отдельными зонами CPU и GPU. Допускается установка двух процессоров Intel Xeon Sapphire Rapids или Xeon Emerald Rapids с показателем TDP до 385 Вт. Предусмотрены 32 слота для модулей DDR5-5600, восемь фронтальных отсеков для SFF-накопителей (NVMe/SATA), а также два коннектора для SSD типоразмера M.2 2280/22110 (PCIe 3.0 x2 и PCIe 3.0 x1). Доступны восемь разъёмов для однослотовых карт расширения FHHL PCIe 5.0 x16 и четыре разъёма для карт FHHL PCIe 5.0 x16 двойной ширины. В оснащение входят контроллер ASPEED AST2600, два сетевых порта 10GbE на базе Intel X710-AT2 и выделенный сетевой порт управления 1GbE. Питание обеспечивают восемь блоков мощностью 3000 Вт с сертификатом 80 PLUS Titanium. Диапазон рабочих температур простирается от +10 до +35 °C. Вариант G4L3-ZD1-LAX5 рассчитан на два чипа AMD EPYC 9004 (Genoa) или EPYC 9005 (Turin) с TDP до 500 Вт. Этот сервер также выполнен в формате 4U и оборудован DLC-охлаждением. Есть 24 слота для модулей DDR5-6400, восемь фронтальных отсеков для SFF-накопителей NVMe и два внутренних коннектора для SSD стандартов M.2 2280/22110 (PCIe 3.0 x4 и PCIe 3.0 x1). Прочие характеристики аналогичны предыдущей модели. Двухпроцессорные серверы G894-AD1-AAX5 и G894-SD1-AAX5 типоразмера 8U наделены воздушным охлаждением, включая 15 вентиляторов диаметром 80 мм в зоне GPU. Вариант G894-AD1-AAX5 поддерживает установку чипов Intel Xeon 6900 с показателем TDP до 500 Вт и 24 модулей DDR5 (RDIMM-6400 или MRDIMM-8800). Модификация G894-SD1-AAX5, в свою очередь, рассчитана на процессоры Intel Xeon 6700/6500 с TDP до 350 Вт и 32 модуля DDR5 (RDIMM-6400 или MRDIMM-8000). Оба сервера оборудованы двумя портами 10GbE (Intel X710-AT2), сетевым портом управления 1GbE, контроллером ASPEED AST2600, восемью фронтальными отсеками для SFF-накопителей NVMe, двумя коннекторами M.2 2280/22110 (PCIe 5.0 x4 и PCIe 5.0 x2). Имеются восемь разъёмов для карт расширения FHHL PCIe 5.0 x16 одинарной ширины и четыре разъёма для карт FHHL PCIe 5.0 x16 двойной ширины. Установлены 12 блоков питания мощностью 3000 Вт с сертификатом 80 PLUS Titanium. Серверы могут эксплуатироваться при температурах от +10 до +30 °C.
06.07.2025 [16:23], Руслан Авдеев
Let's Encrypt начал выдавать бесплатные сертификаты для IP-адресов, но нужно это немногимУдостоверяющий центр Let's Encrypt начал выдачу сертификатов для IP-адресов. PositiveSSL, Sectigo и GeoTrust тоже могут выдавать TLS/SSL для IP-адресов, но за $40-$90/год, тогда как Let's Encrypt делает это бесплатно, сообщает The Register. Благодаря этому владельцы ресурсов в Сети смогут предложить безопасное соединение, привязанное к «числовому» адресу ресурса, избегая расходов на доменное имя. Общедоступным сервис станет до конца 2025 года. Впрочем, никаких веских причин использовать IP-адреса при обращении к ресурсам у большинства пользователей нет. Логичнее и привычнее использовать DNS. Кроме того, в отношении доменных имён установлены правила арбитража, существует единая политика Uniform Domain Name Dispute Resolution Policy (UDRP), а споры относительно IP-адресов могут быть очень запутанными. ![]() Источник изображения: FlyD/unsplash.com Тем не менее сертификаты для IP-адресов стали востребованы, как минимум, с 2017 года и есть по крайней мере несколько сценариев, когда их использование оправдано. Так, хостинг-провайдер может создать целевую страницу на случай, если кто-то введёт в браузере IP-адрес вместо доменного имени. Некоторые компании и вовсе не хотят платить за доменное имя, им тоже будет достаточно сертификата для IP. Кроме того, DoH-серверы тоже могут выиграть от использования таких сертификатов. Ещё один сценарий — использование прямых IP-адресов для безопасного удалённого доступа к определённым домашним устройствам вроде NAS или короткоживущих подключений для администрирования серверов. Краткосрочные соединения с отдельными сертификатами, вероятно, через несколько лет станут нормой отрасли. В таких случаях придётся автоматизировать обновление сертификатов владельцами, но инструменты для этого уже существуют. Let's Encrypt ограничивает действие сертификата для IP-адреса шестью днями по соображениям безопасности. В апреле всемирная организация CA/Browser Forum проголосовала за сокращение сроков действия SSL/TLS-сертификатов. С весны 2029 года они будут действовать не более 47 дней, а не 398 дней, как сейчас.
06.07.2025 [00:44], Владимир Мироненко
Esperanto, создатель уникального тысячеядерного RISC-V-ускорителя, закрывается — всех инженеров переманили крупные компанииСтартап Esperanto, специализирующийся на разработке серверных ускорителей на базе архитектуры RISC-V, сворачивает свою деятельность, сообщил ресурс EE Times. В настоящее время компания, которую уже покинуло большинство сотрудников, ищет покупателя на свои технологии или заинтересованных в лицензировании её разработок. Компания известна созданием тысячеядерного ИИ-ускорителя ET-SoC-1. Генеральный директор Esperanto Арт Свифт (Art Swift) сообщил EE Times о закрытии дочерних предприятий в Европе — у неё была значительная инженерная команда в Испании и ещё одна небольшая в Сербии. В штаб-квартире Esperanto в Маунтин-Вью (Калифорния) численность персонала сократилась на 90 %. Свифт и еще несколько инженеров остались, чтобы продать или лицензировать разработки компании и содействовать любой потенциальной передаче технологий. По словам Свифта, компания подверглась атаке со стороны богатых конкурентов, которые предлагали зарплату «в два, три, даже в четыре раза выше», чем могла предложить небольшая Esperanto. «Они фактически уничтожили наши команды — очень жаль, но мы не смогли конкурировать с ними», — говорит Свифт, отмечая, что уже несколько компаний проявило интерес к приобретению технологии или её лицензированию на неисключительной основе. Он добавил, что у Esperanto был крупный клиент, которому есть что предложить, что добавляет оптимизма. Ранее компания, судя по всему, пыталась предложить свои чипы Meta✴. ![]() Источник изображения: Esperanto Technologies Интерес рынка к RISC-V для чипов ЦОД остаётся высоким, особенно в Европе, где инвестирует в новую экосистему чипов на основе RISC-V. Вместе с тем именно ключевое преимущество разработок Esperanto — энергоэффективность — оказалось труднореализуемым, говорит гендиректор: «При неограниченном бюджете на электроэнергию энергоэффективность на самом деле не имеет значения». Esperanto готовила к выпуску чиплет второго поколения, который должен был поступить в производство на мощностях Samsung по 4-нм техроцессу в 2026 году. Чиплет предложил бы до 16 Тфлопс в FP64-вычислениях или до 256 Тфлопс в FP8-расчётах при потреблении 15–60 Вт. В один чип можно объединить до восьми чиплетов. Третье поколение технологии удвоило бы вычислительную мощность чиплетов. «Компании действительно были заинтересованы в получении этой технологии, так что посмотрим», — говорит Свифт. В прошлом году Esperanto договорилась с корпорацией NEC о сотрудничестве в области НРС с целью создания программных и аппаратных решений следующего поколения с архитектурой RISC-V. Также сообщалось о разработке чипа ET-SoC-2 для НРС и ИИ-задач. На пике развития штат Esperanto составлял 140 человек. По словам Свифта, 95 % бывших сотрудников стартапа уже нашли новую работу. В аналогичной ситуации оказалась Codasip, объявившая о готовности продать свои активы, поскольку обострение конкуренции на рынке RISC-V и отсутствие достаточного запаса средств ограничивают возможности небольших компаний, которые зачастую не могут конкурировать с IT-гигантами. ИИ-стартап Untether AI тоже провалил тест на выживание, объявив о закрытии бизнеса после того, как AMD переманила ряд его ведущих специалистов.
05.07.2025 [15:16], Алексей Разин
Повальный спрос на HBM тормозит внедрение CXL- и PIM-памятиОтраслевые аналитики уже не раз отмечали, что бурное развитие отрасли искусственного интеллекта, сопряжённое с ростом спроса на память типа HBM, ограничивает ресурсы производителей памяти на других направлениях. Помимо DDR, от этого страдают и перспективные виды памяти, которые производители хотели бы вывести на рынок. Об этом сообщило издание Business Korea, приведя в пример задержки с внедрением памяти типа CXL компанией Samsung Electronics и памяти типа PIM (Processing-in-Memory) компанией SK hynix. В последнем случае речь идёт о микросхемах памяти, способных самостоятельно выполнять специфические вычисления. Оба типа памяти могли бы в известной мере дополнить HBM в сегменте систем искусственного интеллекта. ![]() Источник изображения: SK hynix Samsung рассчитывала приступить к продвижению CXL-памяти ещё во II половине 2024 года, но её сертификация ключевыми клиентами до сих пор не завершена. SK hynix разрабатывает GDDR6-AiM с 2022 года, но до её фактического выпуска дело так и не дошло из-за неготовности рыночной экосистемы. Кроме того, сами производители памяти ограничены в свободных ресурсах, поскольку все силы бросили на выполнение заказов по производству HBM. Всё доступное оборудование задействовано для выпуска именно HBM, не давая производителям шанса заняться подготовкой к выпуску других перспективных типов памяти. На этом фоне у южнокорейских игроков рынка даже возникают опасения, что китайские конкуренты быстрее справятся с выводом на рынок модулей CXL и PIM. В этой ситуации корейские производители начали всё сильнее рассчитывать на поддержку государства, причём не столько финансовую, сколько регуляторную. С технической точки зрения к выводу на рынок CXL и PIM всё уже почти готово, но по факту на память этих типов пока нет достаточного спроса.
05.07.2025 [14:25], Руслан Авдеев
Маску дали разрешение на 15 турбин для питания ИИ-суперкомпьютера xAI Colossus, но на снимках по-прежнему видны 24 турбиныПосле нескольких напряжённых месяцев, во время которых эксплуатация газовых турбин на площадке xAI была под вопросом, компания всё-таки получила разрешение на работу нескольких генераторов для питания своего ИИ-суперкомпьютера Colossus в Мемфисе (Теннесси, США). Тем не менее, экоактивисты утверждают, что дело не закончено, сообщает Ars Technica. В минувшую среду Департамент здравоохранения округа Шелби выдал xAI разрешение на определённый объём выбросов, позволяющее эксплуатировать 15 турбин. Срок разрешения истекает 2 января 2027 года, а от xAI требуется уже к 1 сентября установить систему контроля выбросов (BACT). При этом любые нарушения могут привести к санкциям со стороны властей. Жители Мемфиса требуют от властей расследования деятельности xAI, более года эксплуатирующей турбины без BACT. В июне ассоциация NAACP пригрозила компании судебным иском, если xAI откажется от встречи с активистами, обеспокоенными вероятным загрязнением воздуха. Как заявили юристы SELC, представляющие интересы NAACP и уже подававшие иск против xAI, сам факт требования установки BACT не успокаивает потенциальных пострадавших. Проблема в том, что разрешение на выбросы, вероятно, не распространяется на все газовые турбины, стоящие на площадке xAI. На спутниковом снимке от 1 июля видно, что всего на объекте установлены 24 генератора (а было и вовсе 35), хотя только для 15 из них есть разрешение. Утверждается, что даже одна турбина без BACT выбрасывает вещества, вызывающие приступы астмы, проблемы с сердцем и даже онкологические заболевания. При этом данная местность и без того не соответствует многим национальным стандартам, касающимся выбросов. Уровень заболевания астмой и раком здесь в четыре раза выше, чем в среднем по стране. SELC обвиняет власти в закрытии глаз на явные нарушения «Закона о чистом воздухе» и требует большей прозрачности. В частности, даже методика проверки загрязнения воздуха возле дата-центра xAI вызвала вопросы у экологов. Впрочем, если раньше данные о работе генераторов удавалось получать с большим трудом, то теперь xAI обязали подробно отчитываться о каждом запуске каждой турбины и всегда минимизировать их выбросы. Записи должны предоставляться в Департамент здравоохранения раз в полгода, а первый отчёт нужно подготовить к 31 декабря. В разрешении указываются даже такие параметры, как уровень видимости выбросов, время работы и частота запуска генераторов: общая продолжительность работы 15 турбин не должна превышать 110 часов в год, каждую из них можно запускать и останавливать не более 22 раз в год. Также xAI обязана хранить архив записей о запусках и эксплуатации турбин за пять лет, которые власти смогут запросить в любое время. SELC, агентство и его партнёры намерены и дальше контролировать деятельность xAI в районе Мемфиса. Подчёркивается, что компания собирается построить поблизости и второй дата-центр, что вызовет новые экологические проблемы. Например, xAI не сообщила, как намерена обеспечивать питанием новый ЦОД и будет ли использовать для него газовые турбины. Ходили слухи, что xAI может построить 1,56-ГВт газовую электростанцию для очередного ИИ-суперкомпьютера, а то и вовсе привезти её из-за границы. |
|