Лента новостей

26.11.2025 [09:50], Руслан Авдеев

У Amazon насчитали более 900 ЦОД в полусотне стран, но компании всё равно этого мало

Инфраструктура ЦОД Amazon, вероятно, гораздо масштабнее, чем принято считать. Выяснилось, что более 50 стран стали прибежищем для свыше 900 дата-центров компании, включая совсем небольшие объекты для периферийных сервисов, сообщает Bloomberg со ссылкой на данные SourceMaterial.

Крупнейшие кампусы AWS находятся в США, в Вирджинии и Орегоне. Однако у компании есть множество как собственных ЦОД, так и арендованных на долгий срок объектов. Компания размещает стойки в сотнях колокейшн-ЦОД, при этом на них приходится лишь приблизительно 20 % всех вычислительных мощностей AWS. Где-то AWS размещает всего несколько стоек, а где-то, как во Франкфурте и Токио, арендует крупные ЦОД целиком. Согласно документам об энергопотреблении, крупнейшие арендуемые AWS ЦОД, вероятно, расположены во Франкфурте, Монреале, Мумбаи, Сеуле, Сингапуре и Токио или окрестностях этих мегаполисов.

 Источник изображения: AWS

Источник изображения: AWS

Точное местоположение дата-центров не раскрывается, но документы дают некоторое представление о возможностях компании. Они же свидетельствуют о том, что AWS является одним из крупнейших в мире арендаторов колокейшн-площадей. По словам New Relic, помогающей бизнесам управлять технологической инфраструктурой, помимо крупных ЦОД у гиперскейлеров обычно есть и более мелкие облачные объекты, но провайдеры не любят раскрывать их локации.

Всего на начало 2024 года AWS пользовалась услугами более 440 колокейшн-ЦОД. Ещё более 220 дополнительных объектов относятся к периферийным, так что полноценными дата-центрами их назвать сложно. Они часто размещаются рядом с мегаполисами и на территории телеком-хабов. Как сообщают в AWS, хотя компания владеет и управляет большинством своих ЦОД, используются и возможности сторонних организаций, чтобы быстро реагировать на меняющиеся требования клиентов. При выходе на новые рынки или изменении спроса AWS опирается на сторонние компании, наращивая мощности для новых клиентов и ИИ-проектов. А, к примеру, в Китае, компания и вовсе обязана работать через местных партнёров.

 Источник изображения: AWS

Источник изображения: AWS

В конце 2023 года Amazon заявила, что имеет втрое больше дата-центров, чем ближайший конкурент. Речь шла о Microsoft, которая в то время имела портфолио из 300 объектов. Baxtel говорит о присутствии Amazon в 449 ЦОД на 49 рынках. DC Byte оценивает парк AWS в 364 объекта в 33 странах. Впрочем, точно установить количество невозможно, поскольку соглашения об аренде обычно носят конфиденциальный характер. В целом, судя по документам, Amazon имеет соглашения, как минимум, со 180 организациями в рамках колокейшн-договоров. По имеющимся данным, компания владеет зданиями общей площадью более 2,4 млн м2 и ещё примерно столько же арендует.

Несмотря на огромный парк ЦОД, дела у компании не всегда идут гладко. Не всегда она успевает за спросом и не всегда может обеспечить необходимое качество услуг. Так, согласно Business Insider, нехватка ИИ-мощностей AWS и проблемы с производительностью заставили многих клиентов обратиться к соперникам. Тем не менее, в III квартале облако Amazon принесло $33 млрд и остаётся самым прибыльным в компании, т.ч. только в этом году объём капитальных затрат составит $125 млрд. Масштабы бизнеса стали очевидны в октябре, когда сбой AWS вывел из строя онлайн-сервисы по всему миру.

Постоянный URL: https://servernews.ru/1132925
26.11.2025 [09:09], Владимир Мироненко

Google плетёт сети в Индийском океане: подводный интернет-кабель TalayLink свяжет Австралию и Таиланд

Google объявила о планах по строительству нового подводного кабеля TalayLink, соединяющего Австралию и Таиланд, который позволит «значительно увеличить дальность, надёжность и отказоустойчивость цифровой связи в Азиатско-Тихоокеанском регионе и по всему миру».

В рамках проекта также намечено строительства новых коммуникационных хабов в Западной Австралии (Мандура, Mandurah) и Южном Таиланде. Хаб в Мандуре станет точкой выхода из Перта (Perth), где в настоящее время сходятся большинство существующих подводных кабелей в Западной Австралии. Мандура расположен примерно в 75 км к югу от центра Перта.

В Южном Таиланде находится известный перекрёсток подводных кабелей. В этом регионе Google сотрудничает с провайдером AIS. «Сочетание новой, разветвлённой подводной кабельной сети Google и высоконадёжных сервисов AIS по размещению оборудования обеспечит возможность цифровое инфраструктуре региона поддерживать стратегию страны в области ИИ», — отметил глава AIS.

 Источник изображения: cloud.google.com

Источник изображения: cloud.google.com

Ключевым партнёром Google в прокладке нового подводного кабеля в Таиланде выступит International Gateway Company (IGC), дочерняя компания ALT Telecom PLC. ALT IGC управляет станцией выхода подводного кабеля на берег в Сатуне (Satun), на юго-западной оконечности Таиланда.

По словам Google, новые хабы меньше по размеру и потребляют меньше энергии, чем её традиционные ЦОД — они представляют собой «стратегические инвестиции, направленные на обеспечение региональной связи в будущем и ускорение предоставления услуг нового поколения благодаря трём основным функциям: кабельной коммутации, кешированию контента и колокации в одном месте».

Компания отметила, что TalayLink и коммуникационные хабы будут способствовать устойчивости работы сетей в Австралии, Африке и Юго-Восточной Азии, а также в сочетании с её ранее анонсированными коммуникационными хабами на Мальдивах и острове Рождества обеспечат дальнейшее подключение через Индийский океан и далее, на Ближний Восток.

 Источник изображения: cloud.google.com

Источник изображения: cloud.google.com

Генеральный секретарь Совета по инвестициям Таиланда (BOI) заявил, что TalayLink станет ключевым элементом цифровой инфраструктуры, повысив уровень связность и устойчивость связи Таиланда. Вместе с будущим регионом и ЦОД Google Cloud в Таиланде он позволит значительно расширить региональную сеть и вычислительные мощности страны.

Остров Рождества (Кристмас) в настоящее время является точкой приземления австралийско-сингапурского кабеля Vocus. Кабели Australia Connect Interlink и Bosun компании Google свяжут остров с Австралией после их запуска в 2027 году. Компания также недавно объявила о кабеле, соединяющем остров с Оманом, и о планах создания там хаба связи. Помимо трёх точек выхода на остров Рождества, компания планирует построить Азиаотско-Тихоокеанском регионе подводные кабели Australia Connect Interlink, Honomoana, Humboldt, Bulikula, Taihei, Proa, Echo/Bifrost, Dhivaru и Umoja.

Постоянный URL: https://servernews.ru/1132938
26.11.2025 [00:54], Владимир Мироненко

Планы Meta✴ использовать ИИ-ускорители Google TPU ударили по акциям NVIDIA

Во вторник рынок ценных бумаг компаний в сфере ИИ пришёл в движение после появления в понедельник публикации ресурса The Information о том, что Meta ведёт переговоры с Google об использовании ИИ-ускорителей TPU в её ЦОД в 2027 году. По данным источника ресурса, стороны также обсуждают возможность аренды этих чипов в Google Cloud уже в следующем году, что являются частью более масштабной стратегии Google по привлечению клиентов к использованию TPU в её облаке.

Этот шаг ознаменует собой отход от текущей стратегии Google, нацеленной на использование TPU только в собственных ЦОД, что приведёт к обострению конкуренции на многомиллиардном рынке ИИ-ускорителей, отметило агентство Reuters. В Google Cloud предположили, что эта стратегия может помочь компании получить до 10 % годовой выручки NVIDIA, т.е. миллиарды долларов, говорится в публикации The Information.

Заключение сделки станет сигналом о растущем спросе на чипы Google и потенциальной возможности бросить в будущем вызов доминированию NVIDIA на рынке, тем более что Google ранее договорилась о поставке Anthropic до 1 млн чипов TPU, пишет Bloomberg. О таком развитии событий аналитики говорили ещё в прошлом году, а уже в этом году появились слухи, что Google готова предложить свои чипы другим провайдерам. Впрочем, Anthropic получила и полмиллиона фирменных ускорителей AWS Trainium.

 Источник изображения: Google

Источник изображения: Google

Новость о переговорах вызвала падение во вторник акций NVIDIA на 4,3 %. Акции Alphabet, материнской компании Google, выросли на 4,2 % после более чем 6 % роста в понедельник. Акции Broadcom, участвующей в разработке TPU, выросли более чем на 2 % на премаркете во вторник после роста на 11 % накануне, сообщил CNBC. «Google Cloud испытывает растущий спрос как на наши собственные TPU, так и на GPU NVIDIA; мы намерены поддерживать обе платформы, как и делали это много лет», — заявил представитель Google телеканалу CNBC.

Акции AMD, ранее считавшейся наиболее реальным конкурентом NVIDIA на рынке GPU, во вторник упали на 7,5 %. Акции разработчика чипов Arm упали на 4,2 %. Акции компаний в Азии, связанных с Alphabet, выросли в начале торгов во вторник. В Южной Корее акции IsuPetasys Co., которая поставляет многослойные платы для Alphabet, подскочили на 18 %, установив новый рекорд роста в течение дня. На Тайване акции MediaTek выросли почти на 5 %.

В последние месяцы Google набрала обороты, сумев привлечь Berkshire Hathaway, принадлежащую Уоррену Баффету (Warren Buffett), в качестве инвестора, превратив облачное подразделение в двигатель роста и получив высокие первые отзывы о своей новейшей модели Gemini 3. Предоставление чипов NVIDIA в аренду клиентам является крупным источником дохода для ее облачного подразделения, пишет Reuters.

Чтобы справиться с доминированием NVIDIA, компании потребуется преодолеть почти двадцатилетнюю историю NVIDIA CUDA, которая затрудняет вытеснение её экосистемы. Более 4 млн разработчиков по всему миру используют CUDA для создания ИИ-приложений и других программ. Кроме того, Google должно хватать TPU на всех клиентов. Следует учесть и то, что Meta разрабатывает собственные ИИ-ускорители MTIA.

Постоянный URL: https://servernews.ru/1132948
25.11.2025 [17:23], Сергей Карасёв

JBOG-массив OpenYard HG402 допускает установку восьми GPU

Российский разработчик и производитель серверного оборудования OpenYard анонсировал JBOG-массив HG402, предназначенный для решения ресурсоёмких вычислительных задач, связанных в том числе с машинным обучением и приложениями ИИ.

Новинка выполнена в форм-факторе 4OU в соответствии со стандартом OpenRack v2.2. Доступны восемь слотов для установки карт с интерфейсом PCIe 4.0 x16. Производитель говорит о совместимости с такими картами, как NVIDIA GeForce RTX 4080 и RTX 5090 (с собственными радиаторами OpenYard), а также NVIDIA A100 и H100. Для подключения массивов к хосту используются кабели MCIO (PCIe 4.0). При этом один хост может задействовать до четырёх GPU. Таким образом, ресурсы массива могут использоваться одновременно двумя серверами.

 Источник изображения: OpenYard

Источник изображения: OpenYard

Среди преимуществ решения OpenYard HG402 разработчик называет возможность применения ускорителей потребительского уровня для инференса, оптимизированное охлаждение, а также управление через систему OYBMC. Обеспечивается быстрая замена GPU и вентиляторов; при этом для обслуживания массива не требуются инструменты.

Ранее компания OpenYard представила GPU-сервер HN203I, построенный на аппаратной платформе Intel. Устройство допускает установку двух процессоров Xeon 6700E (Sierra Forest-SP) или Xeon 6500P/6700P (Granite Rapids-SP), до 8 Тбайт оперативной памяти DDR5, десяти SFF-накопителей (NVMe) с возможностью горячей замены и четырёх LFF-устройств с интерфейсом SATA/SAS. Есть восемь слотов PCIe 5.0 x16 MCIO и три слота PCIe 5.0 x4 MCIO, а также разъём OCP 3.0 (PCIe 5.0 x16).

Постоянный URL: https://servernews.ru/1132923
25.11.2025 [16:24], Руслан Авдеев

Нехватка ИИ-мощностей и проблемы с производительностью вынудили многих клиентов AWS обратиться к конкурентам

Летом 2025 года облачный бизнес Amazon (AWS) с трудом справлялся с растущим спросом на ИИ и упустил часть доходов. Сервис Bedrock занимает ключевое место в развитии ИИ-проектов компании. Однако летом Bedrock столкнулся с нехваткой мощностей, из-за чего некоторые клиенты ушли к конкурентам, в том числе к Google, сообщает Business Insider. Это привело к потерям десятков миллионов долларов и отложенной выручки.

Например, проект Fortnite стоимостью $10 млн достался Google Cloud после того, как AWS не смогла выделить ей необходимые квоты (лимит на токены или вызовы API). Согласно внутреннему документу AWS, попавшему в распоряжение журналистов, нефтетрейдер Vitol также перенёс проекты из AWS, а некоторые крупные клиенты, включая Atlassian и GovTech Singapore, летом были вынуждены ожидать увеличения квот, что привело к «отсроченным продажам» минимум на $52,6 млн. Более того, задержки с одобрением выделения мощностей и отказ в обработке нерегулярных, вынудили Stripe, Robinhood и Vanguard отказаться от переноса нагрузок в Bedrock.

Подчёркивается, что проблемы Bedrock потенциально ведут к потерям выручки и проблемам с клиентами. Это объясняет, почему облачные компании стремятся построить как можно больше ИИ ЦОД. Высокий спрос хорош только тогда, когда можно его удовлетворить и удержать клиентов от перехода к конкурентам. Бывшие и действующие сотрудники AWS отмечают, что проблемы с вычислительными мощностями были одними из наиболее значимых для компании в сентябре. AWS и раньше испытывала проблемы с нехваткой мощностей даже для собственных нужд, но сейчас ситуация обострилась.

 Источник изображения: LARAM/unsplash.com

Источник изображения: LARAM/unsplash.com

Тем временем в Amazon утверждают, что Bedrock быстро растёт, а AWS стремительно наращивает мощности для удовлетворения спроса, за 12 месяцев добавив 3,8 ГВт. Это больше, чем смогу получить любой другой облачный провайдер. AWS удвоила мощность с 2022 года и намерена сделать то же самое к 2027 году. Компания и далее намерена быть «очень агрессивной» в деле масштабирования вычислительных мощностей, причём AWS может монетизировать новые мощности «практически незамедлительно», а Bedrock имеет не меньший потенциал роста, чем EC2.

Частично проблемы с Bedrock могут быть связаны с тем, что компания отдаёт предпочтение крупным клиентам. В октябре заявлялось, что большинство задач Bedrock выполняется с помощью «доморощенных» ИИ-чипов Trainium, но в основном нагрузки приходятся на нескольких очень крупных клиентов, которые, по-видимому, готовы вкладываться в развитие инструментов на не самой популярной платформе. Ожидается, что компании среднего размера в ближайшие месяцы тоже начнут использовать Trainium нового поколения. Впрочем, последние иногда всё ещё не могут конкурировать с чипами NVIDIA.

Впрочем, помешала Bedrock не только нехватка мощностей. Так, Figma, Intercom и Wealthsimple предпочли использовать LLM Claude в Google Cloud или на платформе самой Anthropic из-за недостатка функций и высокой задержки в Bedrock. Британская госслужба Government Digital Service рассматривала переход в Microsoft Azure только потому, что Claude 3.7 Sonnet работала медленнее на платформе Bedrock. Thomson Reuters также выбрала Google Cloud для своего ИИ-продукта CoCounsel, поскольку сервис AWS оказался на 15–30 % медленнее и не имел ключевых правительственных сертификатов.

 Источник изображения: Vitaly Gariev/unspalsh.com

Источник изображения: Vitaly Gariev/unspalsh.com

В документе AWS отмечается, что платформа Bedrock уступает Google. Для моделей Gemini квоты в пять-шесть раз выше, а Gemini Pro побеждает Claude в Bedrock во многих бенчмарках. Хуже того, Gemini Flash обеспечивает сравнимое качество при кратно меньших затратах. Некоторые стартапы буквально «сбежали» по этой причине. TainAI перенесла 40 % задач на Gemini Flash, отказавшись от Claude в Bedrock и экономя тем самым $85 тыс./день, а Hotel Planner намеревалась перейти в Google Cloud или к OpenAI. Всё это было ещё до запуска Gemini 3.

Ещё более важная проблема, согласно документу, заключается в том, что у AWS нет целостного видения ИИ-инференса, хотя это ключевой сервис Bedrock. Это сыграло на руку не только гиперскейлерам, но и компаниями поменьше. Без чёткой стратегии AWS рискует упустить одну из самых привлекательных возможностей на рынке ИИ. Но этим проблемы не ограничиваются. Октябрьский сбой AWS продемонстрировал зависимость мировой Сети от лидера облачного рынка, так что многие задумались о переносе хотя бы части нагрузок на другие платформы, а Евросоюз рассматривает необходимость ограничения возможностей американских облачных гигантов.

В последние недели инвесторы обеспокоены расходами на ИИ, опасаясь возникновения очередного пузыря на рынке IT. В этом контексте дефицит мощностей для Amazon играет двоякую роль. Это свидетельствует, что спрос со стороны клиентов до сих пор высок. С другой стороны, дефицит — ещё одна причина тратить больше денег в развитие инфраструктуры, что повышает риск возникновения пузыря. Amazon утверждает, что намерена выделить $125 млрд на капитальные затраты в текущем году, и ещё больше — в 2026-м.

Постоянный URL: https://servernews.ru/1132903
25.11.2025 [14:40], Руслан Авдеев

«Миссия Генезис» — США бросят силы на развитие ИИ для научных открытий

В понедельник президент США подписал указ о выполнении «Миссии Генезис» (Genesis Mission). Речь идёт о федеральной программе стимулирования инноваций с использование ИИ-технологий. Это последний из шагов нынешней администрации по продвижению и внедрению ИИ, сообщает Bloomberg. По словам представителя Белого дома, усилия направлены на оптимизацию координации исследований, проводимых правительственными ведомствами. Также предусмотрена более эффективная интеграция ИИ-инструментов для обеспечения всё новых научных прорывов.

Сообщается, что для выполнения миссии будут задействовать вычислительные ресурсы национальных лабораторий Министерства энергетики для доступа к федеральным наборам данных и проведения большего количества экспериментов с применением ИИ-технологий. Предполагается, что подобные усилия могут помочь быстрее совершать научные открытия. Как сообщают источники в администрации президента, развитию суперкомпьютерных ресурсов в лабораториях министерства будут способствовать договоры с частными компаниями, включая NVIDIA, Dell, HPE и AMD.

Новая инициатива, как ожидается, ускорит научные открытия в сфере материаловедения, здравоохранения и энергетики. Также в Белом доме подчёркивают необходимость инноваций для развития производства и снижения цен — это ещё один из приоритетов администрации. Заявляется, что благодаря ИИ Америка находится «на пороге научной революции».

 Источник изображения: CDC/unspalsh.com

Источник изображения: CDC/unspalsh.com

Тем не менее, внедрение новых технологий может увеличить нагрузку на энергосети США. В Министерстве энергетики, наоборот, подчёркивают, что Genesis поможет противостоять росту цен на электричество, одна из конечных целей программы в энергетическом секторе — получить больше энергии и сделать сеть более эффективной, а также обратить вспять рост цен, вызвавший недовольство американских граждан. Предполагается, что сначала цены стабилизируются, а потом начнут снижаться.

Ранее в ноябре об инициативе уже говорили в Белом доме. Подчёркивалось, что в администрации Трампа гонку ИИ-технологий считают столь же важной, как, в своё время, Манхэттенский проект (создание атомной бомбы). Миссию даже назвали крупнейшей мобилизацией федеральных научных ресурсов со времён программы «Аполлон», в рамках которой людей отправляли на Луну.

Текущая администрация сделала развитие ИИ одним из главных приоритетов, стремясь одержать победу в гонке с Китаем и другими странами за первенство в этой сфере. Ряд указов предусматривает смягчение налогового бремени, чтобы упростить бизнесу создание ИИ-инфраструктуры и ЦОД, а союзникам — получить ключевое оборудование и программное обеспечение. Кроме того, обещана более жёсткая борьба с правительствами штатов — готовится указ, позволяющий подавать на штаты в суд за регулирование сферы ИИ — он считает его неконституционным.

В июле сообщалось, что Министерство энергетики США выделило бизнесу свои земли для ускоренного строительства ЦОД и электростанций в соответствии с программой AI Action Plan, направленной на сохранение мирового лидерства в сфере ИИ.

Постоянный URL: https://servernews.ru/1132917
25.11.2025 [14:05], Владимир Мироненко

AWS потратит $50 млрд на расширение облачных мощностей для правительства США: +1,3 ГВт на ИИ и HPC

Amazon объявила о планах инвестировать до $50 млрд в расширение инфраструктуры ИИ и HPC для правительства США. Компания начнёт реализацию проектов в 2026 году и планирует добавить почти 1,3 ГВт вычислительной мощности в регионах AWS Top Secret, AWS Secret и AWS GovCloud (US) на всех уровнях секретности путём строительства новых ЦОД.

Федеральные агентства получат расширенный доступ к комплексным ИИ-сервисам AWS, включая SageMaker, Bedrock, Nova и Anthropic Claude. Также в их распоряжение будут предоставлены ведущие модели класса open-weight foundation, ИИ-ускорители Trainium и ИИ-инфраструктура NVIDIA, что позволит им разрабатывать индивидуальные решения в области ИИ, оптимизировать большие наборы данных и повышать производительность труда, сообщила Amazon. Ранее AWS, Google, Oracle, Microsoft, xAI и др. IT-гиганты предоставили госслужбам США существенные скидки на облачные услуги в рамках программы OneGov.

Это позволит государственным агентствам ускорить обработку информации и принятие решений. Интеграция ИИ с моделированием и имитацией позволит им решать за считанные часы самые сложные задачи, на которые раньше уходили недели или месяцы, а также «автоматически обнаруживать угрозы и разрабатывать планы реагирования», обрабатывая спутниковые снимки, данные датчиков и исторические закономерности в «беспрецедентном масштабе».

 Источник изображения: Amazon.com

Источник изображения: Amazon.com

«Наши инвестиции в специализированную правительственную инфраструктуру ИИ и облачные технологии коренным образом изменят подход федеральных агентств к использованию суперкомпьютинга, — заявил генеральный директор AWS Мэтт Гарман. — Мы предоставляем агентствам расширенный доступ к передовым возможностям ИИ, которые позволят им ускорить выполнение критически важных задач — от кибербезопасности до разработки лекарств. Эти инвестиции устраняют технологические барьеры, сдерживавшие развитие правительства, и укрепляют лидирующие позиции Америки в эпоху ИИ».

Компания отметила, что этот шаг подчёркивает позицию AWS как лидера в области государственных облачных вычислений, поддерживающего более 11 тыс. государственных учреждений. AWS уже давно предоставляет правительству США выделенные облачные регионы. В 2011 году она запустила AWS GovCloud (US-West), AWS Top Secret-East — изолированное облако для секретных рабочих нагрузок — в 2014 году, AWS Secret Region — в 2017 году, с 2018 года добавила второй регион GovCloud (US-East), AWS Top Secret-West, а в октябре 2025 года — AWS Secret-West. Компания не раскрывает точное местоположение ЦОД и регионов.

Как пишет Data Center Dynamics, другие страны также доверяют AWS свою самую секретную информацию. В Великобритании в 2021 году сообщили, что три британских разведывательных агентства использовали AWS для хранения совершенно секретных данных. В 2024 году AWS получила контракт стоимостью $1,3 млрд правительства Австралии на строительство ЦОД для совершенно секретной информации — спецслужбы получат возможность работы без использования открытого интернета.

Постоянный URL: https://servernews.ru/1132897
25.11.2025 [13:42], Андрей Крупин

Yandex B2B Tech открыла доступ к Alice AI LLM — самому мощному семейству нейросетей «Яндекса»

Yandex B2B Tech (бизнес-группа «Яндекса», объединяющая технологии и инструменты компании для корпоративных пользователей, включая продукты Yandex Cloud и «Яндекс 360») сообщила о доступности пользователям облачной платформы Yandex Cloud нового семейства генеративных моделей — Alice AI LLM.

Alice AI LLM является флагманской ИИ-разработкой компании «Яндекс». Модель построена на архитектуре MoE (Mixture of Experts) с технологией тренировки на основе обучения с подкреплением (Online RL). Нейросеть понимает около 20 языков (в том числе японский) и может быть использована для решения сложных задач: поиска по базам знаний и генерации результатов на основе найденной информации (RAG-сценарий), анализа документов, построения отчётов и аналитики, извлечения информации и автоматизации заполнения полей, форм и баз CRM, а также для создания «человеко-ориентированных» ИИ-ассистентов.

 Источник изображения: пресс-служба «Яндекса» / company.yandex.ru

Источник изображения: пресс-служба «Яндекса» / company.yandex.ru

Alice AI LLM доступна через OpenAI-совместимые Completions API и Responses API, а также собственный API генерации текста в форматах REST и gRPC. Модель поддерживает интеграцию с популярными open source-библиотеками LangChain, AutoGPT и LlamaIndex.

В Yandex B2B Tech подчёркивают, что стоимость использования Alice AI значительно ниже, чем у опенсорсных нейросетей, благодаря оптимизированному под русский язык разделению текста на токены. В один токен в Alice AI помещаются примерно 4–5 символов на кириллице, а в опенсорсных моделях — примерно 2–3 символа. Таким образом, конечная стоимость использования Alice AI в 1,5–2 раза ниже открытых моделей с той же тарификацией. Кроме того, запросы пользователя к нейросети и ответы модели тарифицируются по-разному: токены «на вход» нейросети стоят в четыре раза дешевле, чем «на выход», что позволяет использовать модель более экономно.

Постоянный URL: https://servernews.ru/1132916
25.11.2025 [12:16], Руслан Авдеев

Российские магистральные ВОЛС близки к предельному возрасту эксплуатации

Уже в 2025 году на направлении запад–восток в Российской Федерации 50–70 % доступной инфраструктуры ВОЛС выйдет за пределы гарантийных сроков эксплуатации. Соответствующую информацию привёл представитель телеком-группы «Атлас» со ссылкой на данные аналитиков J’son & Partners Consulting, сообщают «Ведомости».

Предел «комфортной» эксплуатации ВОЛС составляет 70 % загрузки линии из-за необходимости сохранения резервов на случай обрывов на других кабелях. При этом, например, загрузка цифровых магистралей от Москвы до Улан-Удэ уже составляет 60-70 %.

Как считает J’son & Partners, в 2020–2030 гг. в России необходимо заменить более 400 тыс. км оптоволокна, эксплуатируемого уже более 20 лет. На конец 2020 года протяжённость ВОЛС крупнейших операторов составляла порядка 700 тыс. км. А ведь есть ещё крупные ведомственные сети. Пик прокладки магистрального оптоволокна пришёлся на начало 2000-х гг., при этом стандартный срок службы ВОЛС составляет 20–25 лет.

Так, «Ростелеком» запустил линию Москва–Хабаровск в 1999 году, «Транстелеком» — ВОЛС запад–восток на 45 тыс. км в 2001 гоу, в 2007–2009 гг. начали прокладывать ВОЛС в регионах федеральные операторы МТС, «Мегафон» и «Билайн», пишет издание. По оценкам экспертов, замена может обойтись в сотни миллиардов рублей. А пересечение сложных препятствий, например, крупных рек очень дорого.

 Источник изображения: Umberto/unsplash.com

Источник изображения: Umberto/unsplash.com

В РФ оптоволокно выпускает только компания «Оптиковолоконные системы» (ОВС), а кабель производят «Инкаб», «Еврокабель», «Москабель», «Сарансккабель-оптика» и др., всего более десятка компаний. При этом российское оптоволокно теснит китайская продукция, заместившая предложения американской Corning. Доля ОВС на рынке России уменьшилась с 30 % в 2021 году до 25 % в 2024-м, а китайские поставщики нарастили долю с 6 % до 75 %. Некоторые эксперты винят в этом демпинг с китайской стороны и поддержку со стороны правительства КНР. При этом, с 2022 года потребление оптоволокна в России постоянно сокращается.

По информации «Ведомостей», диагностику и мониторинг своих магистральных сетей с точечной заменой регулярно проводят «Мегафон» и «Билайн». В «Билайне» утверждают, что занимаются и модернизацией инфраструктуры. МТС компенсирует нехватку пропускной способности ВОЛС «переходом на более высокие канальные скорости, использует дополнительные волокна на существующих трассах и новых маршрутах». Компания разделяет маршруты пропуска зарубежного трафика через восток и запад и строит региональные ЦОД.

В июне сообщалось, что российские IT-компании заинтересовались арендой тёмного оптоволокна. Месяцем позже появилась новость, что «Россети» намерены построить единую оптическую линию связи за 80 млрд рублей. Также нельзя не отметить интерес к теме компании «Атлас», тесно связанной с «Ростелекомом» — она отвечает за строительство трансъевразийской ВОЛС TEA NEXT, которая призвана соединить западные и восточные рубежи России с посадочными станциями в крупнейших городах страны и выходами на границах с Монголией, Китаем и др.

Постоянный URL: https://servernews.ru/1132896
25.11.2025 [11:24], Сергей Карасёв

Стартап Kneron представил чип KL1140 для работы с ИИ-моделями на периферии

Американский стартап Kneron, по сообщению ресурса SiliconANGLE, разработал ИИ-чип KL1140, предназначенный для запуска больших языковых моделей (LLM) на периферийных устройствах. Утверждается, что изделие обеспечивает ряд существенных преимуществ перед облачными развёртываниями.

Kneron, основанная в 2015 году, базируется в Сан-Диего (Калифорния, США). Стартап проектирует чипы для всевозможного оборудования с ИИ-функциями: это могут быть роботы, подключённые автомобили и пр. Ранее Kneron представила решение KL730, которое объединяет четырёхъядерный CPU на архитектуре Arm и акселератор для задач инференса. В 2023 году компания привлекла на развитие $49 млн от Foxconn and HH-CTBC Partnership (Foxconn Co-GP Fund), Alltek, Horizons Ventures, Liteon Technology Corp, Adata и Palpilot. В общей сложности на сегодняшний день Kneron получила более $200 млн от различных инвесторов.

 Источник изображения: Kneron

Источник изображения: Kneron

Характеристики нового чипа KL1140 полностью пока не раскрываются. Kneron заявляет, что это первый нейронный процессор, способный полноценно работать с сетями-трансформерами на периферии. Связка из четырёх чипов KL1140, как утверждается, обеспечивает производительность на уровне GPU при работе с ИИ-моделями, насчитывающими до 120 млрд параметров. При этом энергопотребление сокращается на 50–66 %. Суммарные затраты на оборудование могут быть снижены в 10 раз по сравнению с существующими облачными решениями. Среди других преимуществ запуска LLM на периферийных устройствах названы уменьшение задержки, отсутствие необходимости отправки конфиденциальных данных на внешние серверы и возможность использования даже без подключения к интернету.

Чип KL1140 ориентирован на такие задачи, как обработка естественного языка в реальном времени, голосовые интерфейсы, системы машинного зрения, интеллектуальные платформы видеонаблюдения и др. Разработчики могут применять изделие для безопасного локального развёртывания приложений ИИ без необходимости использования облачных ресурсов.

Постоянный URL: https://servernews.ru/1132890

Входит в перечень общественных объединений и религиозных организаций, в отношении которых судом принято вступившее в законную силу решение о ликвидации или запрете деятельности по основаниям, предусмотренным Федеральным законом от 25.07.2002 № 114-ФЗ «О противодействии экстремистской деятельности»;

Система Orphus