Материалы по тегу: сбой

23.12.2025 [08:21], Владимир Мироненко

Сбой питания из-за бури привёл к ошибке в работе атомных часов NIST и проблемам с NTP

Сотрудник Национального института стандартов и технологий США (NIST) попытался отключить резервные генераторы, питающие часть инфраструктуры, обеспечивающей поддержку протокола сетевого времени (NTP), после того как отключение электроэнергии в минувшую субботу в районе Боулдера (Boulder, штат Колорадо) из-за плохих погодных условий, привело к ошибкам в работе атомных часов, пишет The Register. Ошибка часов на станции в Боулдере на тот момент составляла <4,8 мкс.

«Шкала времени, генерируемая на основе ансамбля атомных часов в нашем кампусе в Боулдере вышла из строя из-за длительного отключения электроэнергии», — пояснил Джеффри Шерман (Jeffrey Sherman), физик-руководитель NIST, ответственный за обслуживание атомных часов института, добавив, что из-за этого «службы интернет-времени Боулдера больше не имеют точной привязки времени».

NIST использует свои атомные часы, в частности, для предоставления NTP-сервиса, используемого для синхронизации работы устройств Сети. Если NTP не работает, это может привести к трудностям с аутентификацией между системами и нестабильной работе приложений. Впрочем, крупные игроки используют собственные NTP-сервисы. А для синхронизации нередко используются сигналы GNSS.

Шерман также рассказал, что резервный генератор включился и продолжил поддерживать работу серверов, в связи с чем он попытается его отключить, «чтобы избежать распространения неверного времени». Но сделать это оказалось проблемой, поскольку буря, вызвавшая сбой электроэнергии, была настолько сильной, что объект было разрешено посещать только сотрудникам экстренных служб.

 Источник изображения: KWON JUNHO/unsplash.com

Источник изображения: KWON JUNHO/unsplash.com

Учёный отметил, что, судя по всему, из-за погодных условий вышел из строя один из основных генераторов. «В другом здании кампуса находятся дополнительные часы, резервные источники питания которых обеспечиваются другим генератором; если они останутся работоспособными, это позволит нам перенастроить основную шкалу времени, когда восстановится стабильность работы станции, без использования внешних часов или опорных сигналов», — добавил он.

«Чтобы представить отклонение в несколько микросекунд в контексте, следует отметить, что шкала времени NIST обычно работает примерно в пять тысяч раз лучше на наносекундном уровне, используя специальное статистическое среднее многих часов», — указал Шерман в сообщении. «Такая точность важна для научных приложений, телекоммуникаций, критической инфраструктуры и контроля целостности систем позиционирования. Но такая точность недостижима при передаче времени через общедоступный интернет; более типичны неопределённости порядка 1 мс из-за асимметрии и колебаний задержки пакетов», — добавил он.

Компания Xcel Energy, местный поставщик электроэнергии, объяснила отключение электроэнергии сильным ветром. NIST сообщил ресурсу CBS News, что предупредил своих пользователей, включая телекоммуникационные и аэрокосмические организации, о возможных проблемах из-за погодных условий в районе Боулдера, рекомендовав им использовать другие источники информации о времени. 22 декабря, в 06:00 UTC (9:00 мск) NIST сообщил, что все службы времени, предоставляемые кампусом в Боулдере, снова доступны и отдают точное время.

Постоянный URL: http://servernews.ru/1134313
21.12.2025 [22:43], Руслан Авдеев

И так сойдёт: лень и безалаберность инженеров Nokia и Optus привели к смерти людей, которые не смогли дозвониться до скорой

Согласно выводам независимого расследования сентябрьского инцидента с ошибкой обновления брандмауэра телеком-оператора Optus, в результате которого умерло два человека (ранее сообщалось о трёх умерших), не сумевших дозвониться в экстренные службы, технические специалисты допустили не менее 10 ошибок, сообщает The Register.

Номер 000 в Австралии служит для вызова скорой и иных экстренных служб, местные телеком-провайдеры обязаны обеспечить перенаправление звонков операторам службы спасения. 18 сентября 2025 года провайдер Optus в течение 14 часов кряду не мог обеспечить соответствующую связь. Более того, он даже не подозревал о существовании проблемы — о ней сообщили клиенты, позвонившие в колл-центр компании. В результате сбоя 455 звонков в службу 000 остались без ответа, двое звонивших умерли.

На днях Optus опубликовала доклад доктора Керри Шотт (Kerry Schott) с подробным разбором инцидента. Как оказалось, инженеры допустили целый ряд ошибок и проигнорировали первые сигналы о возможных проблемах. Часть специалистов не посещали заседания, где оценивались возможные последствия запланированных работ. Сами работы проводились в необоснованной спешке, а проконтролировать некоторые результаты и вовсе было невозможно.

 Источник изображения: Icons8 Team/unsplash.com

Источник изображения: Icons8 Team/unsplash.com

Optus планировала провести 18 обновлений брандмауэров, но без сбоев удалось провести только 15. Для 16-го Optus выпустила некорректные инструкции для своего подрядчика — компании Nokia. Сотрудники Optus потребовали изменений конфигурации, в результате которых сетевые устройства попадали в изоляцию, а доступ к шлюзу блокировался, т.е. трафик невозможно было перенаправить. Подобная процедура не применялась Optus в ходе шести предыдущих обновлений брандмауэров.

В Nokia же почему-то выбрали устаревшую процедуру (Method of Procedure) от 2022 года, не подходившую для текущих работ. Также инженеры Nokia некорректно посчитали, что проводимые работы не повлияют на сетевой трафик. Optus со своей стороны присвоила работам статус срочных, что фактически означало отказ от предварительных проверок. После обновления и Nokia, и Optus зарегистрировали признаки сбоев в сети, но обе не придали им значения.

В 02:40 по местному времени обновление было завершено, а команды сделали финальную проверку, которая показала, что уровень отказов вызовов рос, хотя ожидалось его снижение, но сама аномалия выявлена не была. Наконец, Optus ошибочно решила использовать недостаточно детализированные общенациональные данные для оценки колебаний объёмов вызовов, в результате чего локальные сбои, вызванные неудачным обновлением, не удалось заметить.

 Источник изображения: Can Ahtam/unsplash.com

Источник изображения: Can Ahtam/unsplash.com

По словам эксперта, причинами сбоя стали плохое управление и низкое качество работы Optus и Nokia — процедуры не соблюдались, методы работы были выбраны неверные, проверок было мало, меры контроля обходились, а на предупреждения обращали слишком мало внимания. Специалисты Optus оказались слишком нерешительными для своевременного обращения к более опытным сотрудникам, а основной приоритет отдавался скорости решения задачи, а не корректности выполненных работ. Самые жёсткие отзывы касаются деятельности команд, участвовавших в неудачном обновлении. Отмечается, что такой сбой во время стандартного обновления брандмауэра непростителен — необходимо организовать значительно более строгий контроль за персоналом и работой Nokia.

Но и этим дело не ограничивается. Недавно выяснилось, что в сетях операторах TPG, Optus и Telstra невозможно дозвониться до 000 с некоторых смартфонов Samsung с устаревшим ПО, что уже привело минимум к одной смерти. Отмечается, что австралийские телеком-операторы пытаются перенаправить трафик во время сбоев, но это нелегко, и усложняется тем, что разные смартфоны ведут себя при возникновении проблем по-разному. Optus рекомендует клиентам проверять возможность дозвона до 000, а также ведёт список «проблемных» устройств. Тем не менее, неприятности могут возникнуть у владельцев «серых» гаджетов, которые покупаются онлайн или за границей.

Сбои в информационных системах происходят довольно часто, и не всегда они несут лишь финансовые или просто технические проблемы. Так, в июле 2024 года глобальный сбой из-за обновления CrowdStrike затронул 8,5 млн ПК на Windows. Годом позже выяснилось, что от него пострадало не менее 750 больниц в Соединённых Штатах, хотя в CrowdStrike резко раскритиковали исследование.

Постоянный URL: http://servernews.ru/1134251
12.12.2025 [12:59], Руслан Авдеев

«ТМТ Консалтинг»: в России отмечено рекордное количество подключений к домашнему интернету

На фоне проблем с мобильным интернетом в Российской Федерации зарегистрировали рекордное количество подключений к домашнему. «Известия» со ссылкой на данные «ТМТ Консалтинг» сообщают, что в III квартале 2025 года количество российских абонентов фиксированного интернет-доступа выросло на 500 тыс. человек. Рост спроса наблюдается у ключевых провайдеров, и в ближайшее время число абонентов продолжит расти.

Как сообщают в «ТМТ Консалтинг», на конец ноября в России насчитывалось 38,46 млн подключённых домохозяйств, темпы прироста на 500 тыс. подписчиков в компании называют рекордными для рынка проводного интернета, как минимум, с 2010 года. В I квартале абонентская база фиксированного широкополосного доступа выросла на 170 тыс. человек, во II квартале — на 200 тыс. Лидером по количеству подключений стали «Ростелеком» с 237 тыс. абонентов и МТС со 169 тыс. Из-за нестабильности работы мобильного интернета абонентская база активнее всего увеличивалась на юге России, на Урале, в Поволжье и Московской области.

 Источник изображения: Mika Baumeister/unsplash.com

Источник изображения: Mika Baumeister/unsplash.com

Фиксируется и рост заявок от бизнеса, особенно малых и средних предприятий. Клиенты переходят на фиксированный интернет для собственных информационных систем, для кассовых аппаратов и раздачи беспроводной связи посетителям. По данным «Ростелекома», в последние месяцы рост подтверждённых обращений на подключение домашнего интернета составлял 12–15 % ежегодно. Максимальный рост в III квартале отмечен и у других провайдеров. В том числе вырос спрос и на спутниковый интернет.

В ComNews Research полагают, что в IV квартале не исключено появление ещё 600–700 тыс. новых подписчиков. При этом, по словам экспертов, провайдеры фиксированного интернета пытаются воспользоваться ситуацией для поднятия цен.

Постоянный URL: http://servernews.ru/1133813
04.12.2025 [09:04], Руслан Авдеев

Крысы распробовали быстрый интернет: жители британского городка остались без Сети из-за перегрызенного оптоволокна

Причиной десятидневного сбоя в сетях инфраструктурного провайдера Openreach в расположенном близ Донкастера (Doncaster) городке Аскерне (Askern, Англия) названа активность крыс, сообщает Datacenter Dynamics. В настоящее время Openreach строит ВОЛС по всей Великобритании и намерена охватить 25 млн объектов к концу 2026 года. Пока компании удалось обеспечить подключение 20 млн.

По имеющимся на сегодня данным, от отключения в Аскерне пострадали около 100 объектов — крысы перегрызли один из кабелей Openreach в окрестностях. В Openreach объяснили, что проблема связана именно с повреждением кабелей грызунами. В ходе осмотра инженерами под землёй был обнаружена сломанная труба, которую пришлось выкопать и заменить. Основной шквал критики Openreach был вызван тем, что компания не удосужилась наладить коммуникацию с пострадавшими клиентами. Крысы мешают работе Openreach не впервые. В 2023 году их обвинили в нарушении работы широкополосных кабелей в Хартфордшире (Hertfordshire).

 Источник изображения: Google Imagen 4

Источник изображения: Google Imagen 4

Напряжённой ситуация остаётся и в других странах — в 2021 году причиной сбоя в работе провайдера Telstra в Новом Южном Уэльсе (Австралия) стали мыши. В тот период страна боролась с настоящим нашествие этих грызунов. В конце апреля 2021 года бобёр вывел из строя интернет 900 клиентов в канадской провинции Британская Колумбия. Он перегрыз оптоволоконный кабель Telus вблизи ручья и использовал часть полученных материалов для строительства своей плотины.

Примечательно, что ранее британским провайдерам предложили тянуть «оптику» по заброшенным газовым трубам и водопроводам, причём такой опыт уже имеется. Но причины перебоев с интернетом могут быть самые разные. Так, в апреле сообщалось, что в «Россети» всё чаще срезают чужие интернет-кабели со своих столбов, требуя с операторов плату за прокладку ВОЛС.

Постоянный URL: http://servernews.ru/1133330
02.12.2025 [18:18], Руслан Авдеев

Утечка бюджетного отчёта Великобритании произошла из-за ошибок в настройках плагина для WordPress и хостинга

Управление бюджетной ответственности Великобритании (Office for Budget Responsibility, OBR) обвинило в утечке государственного бюджетного отчёта Economic and Fiscal Outlook (EFO) ошибки в конфигурации сайта на движке WordPress, сообщает The Register. В докладе отмечается, что WordPress может быть сложен в настройке, а при работе с ним легко допустить ошибки.

Фактически данные были раскрыты из-за непонимания работы плагина Download Monitor для WordPress и неверной настройки сервера, что вкупе позволило получить прямой доступ к файлу путём подбора URL. Плагин формирует простые и предсказуемые ссылки на файлы, что само по себе не является большой проблемой. Однако отсутствие на хостинге WP Engine блокировки прямого доступа к файлам стало второй ошибкой, приведшей к утечке. В результате документ до официальной публикации получили не только госслужащие, но и посторонние.

26 ноября, чуть позже 06:00 некие пользователи начали предпринимать десятки попыток найти отчёт по прямым URL с семи уникальных IP-адресов. Вскоре после загрузки отчёта в 11:30–11:35 по местному времени один из этих IP, наконец, подобрал нужный URL и скачал файл. Менее чем за час файл пытались получить с 32 различных IP-адресов. Удаление файла не помогло, поскольку он уже оказался в Internet Archive.

 Источник изображения: Luke Stackpoole/unsplash.com

Источник изображения: Luke Stackpoole/unsplash.com

Канцлер Казначейства начал доклад по EFO в 12:34 того же дня, признав, что информация уже утекла в Сеть. Обычно сотрудники OBR сами поддерживают свой сайт, но примерно на три дня в году, в том числе во время публикации отчёта, из-за пиковых нагрузок к ресурсам допускаются сторонние разработчики. Примечательно, что нечто подобное уже случилось в марте 2025 года. Тогда один из IP-адресов получил доступ к документу приблизительно за полчаса до официальной публикации.

В результате расследования рекомендовано провести детальный цифровой аудит публикаций EFO за два последних года, а также пересмотреть решение от 2013 года, давшее право OBR вести собственный сайт вне доменной зоны .gov.uk. Британия известна довольно радикально настроениями в вопросе защиты данных. Так, в британском правительстве всерьёз обсуждали план физического уничтожения лондонского ЦОД, где хранились секретные сведения и который по недосмотру был продан китайской компании, до того, как хранившуюся там информацию можно будет защитить иным способом.

Постоянный URL: http://servernews.ru/1133262
28.11.2025 [21:12], Владимир Мироненко

Сбой в системе охлаждения ЦОД обрушил крупнейшую в мире товарную биржу CME

В пятницу, 28 ноября, на мировых фьючерсных рынках началась неразбериха после того, как CME Group (Чикагская товарная биржа, Chicago Mercantile Exchange), крупнейший в мире биржевой оператор по рыночной стоимости, столкнулся с одним из самых длительных сбоев в работе за последние годы, из-за которого была приостановлена торговля акциями, облигациями, сырьевыми товарами и валютой.

Как сообщает агентство Reuters со ссылкой на данные LSEG, после продолжительного перерыва торговля на CME Group возобновилась в 13:35 по Гринвичу (16:35 МСК). EBS market, платформа, используемая для обмена валюты, вновь открылась немного раньше — в 15:00 МСК, пишет Bloomberg со ссылкой на уведомление на веб-сайте CME Group. В уведомлении не содержится никакой информации о том, когда возобновят работу другие затронутые рынки, от акций до облигаций и сырьевых товаров.

CME сообщила о прекращении торгов на своих ключевых площадках из-за сбоя в системе охлаждения ЦОД CyrusOne в Авроре (Aurora, Иллинойс). Сбой повлиял на фьючерсы Globex, валютный рынок EBS и другие, остановив торги фондовыми индексами, сырьевыми товарами, энергоносителями, металлами и сельскохозяйственными товарами примерно на 10 часов в период низких объемов торгов в «чёрную пятницу». По данным LSEG, из-за сбоя были приостановлены торги основными валютными парами на платформе CME EBS, а также фьючерсами на нефть WTI, пальмовое масло, золото, Nasdaq 100 и Nikkei.

 Источник изображения: CyrusOne

Источник изображения: CyrusOne

«27 ноября на нашем объекте CHI1 произошел сбой в работе холодильной установки, затронувший несколько холодильных агрегатов. Наши инженерные группы совместно со специализированными подрядчиками по механическому оборудованию работают на месте над восстановлением полной мощности охлаждения. Мы успешно перезапустили несколько охлаждающих установок с ограниченной мощностью и развернули временное охлаждающее оборудование в дополнение к нашим постоянным системам», — пояснила CyrusOne в письме ресурсу Data Center Dynamics.

Компания отметила, что находится на прямой связи со всеми пострадавшими клиентами и регулярно предоставляет обновлённую информацию по мере развития ситуации. «Наши команды работают круглосуточно, чтобы как можно быстрее и безопаснее восстановить нормальную работу», — подчеркнула CyrusOne. Как сообщает Data Center Dynamics, CyrusOne управляет примерно 55 ЦОД по всему миру. В 2016 году CME Group продала за $130 млн свой ЦОД в Авроре компании CyrusOne, который тут же арендовала на 15 лет. Кампус Aurora включает три ЦОД общей площадью 41,8 тыс. м2 общей мощностью 109 МВт.

Глава CMC Markets по Азии и Ближнему Востоку Кристофер Форбс (Christopher Forbes) сообщил агентству Reuters, что не видел столь масштабного сбоя порядка 20 лет. Нынешний сбой в работе CME произошёл более чем через десять лет после того, как в апреле 2014 года бирже пришлось закрыть электронную торговлю некоторыми сельскохозяйственными контрактами из-за технических проблем.

В 2021 году CME подписала соглашение с Google Cloud, в рамках которого Google инвестировала в неё $1 млрд, а CME запланировала перенести свою ИТ-инфраструктуру на платформу Google Cloud в течение следующего десятилетия. Биржа также является клиентом ЦОД Equinix за пределами США. Похожая сделка была заключена между Microsoft Azure и Лондонской фондовой биржей. А Nasdaq постепенно перебирается в AWS. Последняя недавно пережила крупный сбой.

UPD 01.12.2025: CyrusOne сообщила, что сбой произошёл из-за проблем с чиллерами, но компания уже приняла меры и повысила надёжность охлаждения пострадавшего ЦОД.

UPD 08.12.2025: причиной сбоя официально назван человеческий фактор — при подготовке системы охлаждения к холодам не были соблюдены все необходимые процедуры.

Постоянный URL: http://servernews.ru/1133113
26.11.2025 [16:01], Руслан Авдеев

Airbus чуть не остановила выпуск самолётов из-за нехватки топлива для генераторов ЦОД в критический момент

Компания Airbus пересмотрела системы аварийного питания ЦОД после инцидента на территории Испании и Португалии. В апреле десятичасовое отключение электроэнергии привело к тому, что производство Airbus оказалось на грани полной остановки, сообщает The Register. Большинство ЦОД, в отличие от телеком-операторов, весьма достойно встретили блэкаут, но, как оказалось, не все.

В результате сбоя энергосети была нарушена работа основного дата-центра Airbus в Испании, расположенного в мадридском технокластере Campus Futura. В Airbus признали, что были уверены в готовности к перебоям с электричеством, но оказалось, что ни о какой готовности фактически не было и речи. Резервные генераторы, конечно, имелись, но вот запасы дизеля для них оказались очень малы. Компания срочно попыталась приобрести побольше топлива, но поставщики и без того были буквально завалены аналогичными заказами.

Airbus утверждает, что до полного отключения дата-центра оставались считанные часы. При этом ставки были высоки — без доступа к дата-центру сотрудники на производстве не могли получать доступ к документации, инструкциям и др. Могла быть парализована и работа склада, если бы автоматизированные системы подбора деталей прекратили работу. В Airbus не исключают, что, вероятно, смогли бы продержаться ещё день, обойдя действующие процедуры и работая в ручном режиме.

 Источник изображения: Theo Jacob/unsplash.com

Источник изображения: Theo Jacob/unsplash.com

Теперь компания будет поддерживать необходимые запасы топлива, она заключила контракты на снабжение топливом в приоритетном порядке для объектов в Испании, Франции, Германии и Великобритании. Цель — обеспечить автономную работу ЦОД в течение нескольких дней в случае «массового отключения электроэнергии», не рассчитывая на поставки топлива извне. Это дополнительные затраты, но они мизерны в сравнении с потенциальной стоимостью остановки производственной линии.

Апрельский сбой был довольно редким для региона событием. Национальный оператор сетей Португалии заявлял, что из-за перепада температур в Испании были аномальные перепады электроснабжения на линиях высокого напряжения (400 кВ) — феномен известен, как «индуцированные атмосферные колебания». Подобные колебания в системах электроснабжения вызвали сбои синхронизации, что привело к последовательным сбоям в объединённой европейской энергосети.

Постоянный URL: http://servernews.ru/1132961
19.11.2025 [16:50], Руслан Авдеев

Кризис в Красном море повлиял на проекты интернет-кабелей Google и Meta✴

Военно-политический кризис в регионе Красного моря негативно сказался на проектах кабельной инфраструктуры. По данным eWeek, пострадали проект самого протяжённого в мире кабеля Meta 2Africa, системы Google Blue-Raman, India-Europe-Xpress (IAX), Sea-Me-We 6 и другие, оказавшиеся в зоне продолжающихся боевых действий.

Хотя Meta уже объявила о завершении строительства базовой инфраструктуры 2Africa, eWeek утверждает, что участок на юге Красного моря всё ещё чересчур опасен для строительства. Отмечаются эксплуатационные проблемы, препятствия со стороны регуляторов и геополитические риски, которые и не думают идти на спад. Утверждается, что контролирующие часть региона хуситы в последние два года постоянно наносили ракетные удары, вынуждавшие суда обходить опасные зоны и лишая кабелеукладчики возможности работать.

Через Красное море проходит порядка 17 % мирового интернет-трафика, а также более 90 % цифровых коммуникаций между Европой и Азией. При этом ситуация не улучшается. В 2024 году в Красном море были повреждены четыре подводных кабеля (нарушено 25 % телеком-трафика между Европой, Азией и Африкой). Пару месяцев назад несколько кабелей были снова повреждены, из-за чего упало качество связи на Ближнем Востоке и в Азии. Весной был ещё один обрыв.

 Источник изображения: Sandro Gautier/unsplash.com

Источник изображения: Sandro Gautier/unsplash.com

Столкнувшись с ростом рисков, техногиганты изучают прокладку дорогостоящих сухопутных альтернативных кабелей, позволяющих полностью обойти акваторию Красного моря, и покупку мощностей на других маршрутах. Задержки с реализацией проектов ограничивают развитие широкополосного интернета в регионе, и без того страдающего от недостаточно качественной связи. Утверждается, что в прокладку подводных кабелей в регионе Красного моря в 2000–2024 гг. инвестировали свыше $10 млрд более 30 телеком-компаний, поэтому каждый месяц задержки весьма чувствителен для них.

Важную роль играет и необходимость постоянного устранения обрывов. По словам экспертов, среднее время ремонта повреждённого кабеля составляет сегодня порядка 40 дней, но возможностей всё ещё недостаточно с учётом быстрого развития подводных ВОЛС. Согласно расчётам экспертов, в 2025–2027 гг. инвестиции только в новые подводные проекты достигнут около $13 млрд, тогда как парк судов растёт значительно медленнее, чем требуется.

По мере роста напряжённости всё активнее диверсифицируется создание устойчивых сетей, способных выдержать удары стихии или конфликты с сохранением функциональности. В eWeek утверждают, что вопрос не в том, «подвергнутся ли уязвимые места новому испытанию?», а в том, когда это случится и будет ли готова к этому глобальная Сеть. Об угрозе кабелям в Красном море TeleGeography сообщала почти два года назад — уже тогда под вопросом оказалась не только возможность прокладки новых цифровых маршрутов, но и обслуживания уже имеющихся в регионе кабелей.

Постоянный URL: http://servernews.ru/1132610
30.10.2025 [11:45], Руслан Авдеев

Снова DNS: доступ к сервисам Microsoft Azure восстановили после глобального сбоя

В конце минувшей среды Microsoft объявила об успешном решении проблем с конфигурацией DNS, вызвавших сбои на платформе Azure. Инцидент повлиял на работу сервисов компании и затронул множество отраслей по всему миру, сообщает Reuters. Как сообщили представители Azure, хотя уровень ошибок и задержек вернулись к уровню, предшествовавшему инциденту, небольшое число клиентов всё ещё могут сталкиваться с проблемами, и компания всё ещё работает над устранением последствий.

В Microsoft заявляют, что инцидент продолжался в течение восьми часов. Ранее в среду авиакомпания Alaska Airlines заявила, что столкнулась с проблемами в работе ключевых систем, включая сайт, из-за проблем с Azure и восстанавливает работу систем после того, как Microsoft решила проблему. Сайт лондонского аэропорта Хитроу тоже вернулся к работе после перерыва в среду, от сбоя пострадал и телеком-оператор Vodafone.

 Источник изображения: SCARECROW artworks/unsplash.com

Источник изображения: SCARECROW artworks/unsplash.com

Приблизительно в 12:00 по восточному времени США (19:00 по Москве) в среду 29 октября в Azure сообщили, что у их клиентов и сервисов Microsoft, использующих Azure Front Door (глобальную облачную сеть доставки контента и приложений), возникли проблемы, которые привели к таймаутам и ошибкам. По данным Downdetector на 19:49 ET (02:49 по Москве, 30 октября), число пользователей, сообщавших о проблемах с Azure, упало до 230. Для сравнения, на пике ранее в тот же день речь шла о более 18 тыс. жалоб. К 22:44 ET статистика Downdetector свидетельствовала о 77 сбоях Microsoft 365, на пике речь шла об около 20 тыс. жалобах. Поскольку речь идёт только о случаях обращений на сайт сервиса, настоящее число пострадавших может быть намного больше.

Недавний масштабный сбой AWS, который, как в итоге выяснилось, тоже был вызван проблемами с DNS, стал крупнейшим с прошлогоднего инцидента с ПО CrowdStrike, нарушившего работу оборудования в больницах, банках и аэропортах — это продемонстрировало чрезвычайную уязвимость связанных глобальных технологий, находящихся под контролем всего нескольких компаний.

Постоянный URL: http://servernews.ru/1131608
27.10.2025 [16:36], Руслан Авдеев

Британские власти выделят Королевской почте £2 млн на поиск улик против самой себя

Министерство бизнеса и торговли (Department for Business and Trade, DBT) Великобритании заплатит Королевской почте (Roayl mail) до £2 млн (более $2,66 млн) за поиск информации в собственных архивах — чиновники ожидают порядка 1,5 тыс. исков, связанных с требованием компенсаций от пользователей неисправного почтового ПО Capture, сообщает Computer Weekly.

Цель контракта — сбор доказательств, необходимых заявителям в рамках плана компенсации ущерба Capture Redress Scheme. Он реализуется в интересах бывших начальников почтовой службы нижнего звена, пострадавших из-за некорректной работы ПО Capture. В 1990-х годах система Capture внедрялась для замены бумажной бухгалтерии. Как и в случае с забагованным ПО Fujitsu Horizon, которое пришло на смену Capture, в результате ошибок в ПО сотрудники почтовых отделений были несправедливо обвинены в растратах. Некоторым сотрудникам «повезло» дважды — они пострадали и от Capture, и от Horizon.

Согласно материалам тендера, получение данных осложняется тем, что с того времени прошло порядка 30 лет. Информация о потенциальных получателях компенсаций хранится только в базах почты, поэтому для обработки заявок от пострадавших министерству необходимо заключить с ней договор, чтобы запрашивать и получать необходимые данные. Контракт заключат на пять лет, но его действие может быть прекращено, если все претензии обработают раньше.

 Источник изображения: Royal Mail

Источник изображения: Royal Mail

Скандал вокруг системы Capture разгорелся в начале 2024 года после широкой огласки проблем в системе Horizon. К декабрю того же года правительство пообещало финансовые компенсации и пострадавшим от Capture. В настоящее время Комиссия по пересмотру уголовных дел (Criminal Cases Review Commission) рассматривает 30 случаев, в которых обвинительные приговоры, вероятно, были вынесены на основании некорректных данных. Одна жалоба уже передана в Апелляционный суд Великобритании.

По словам адвокатов пострадавших от сбоев, найти связанные с Capture улики и доказательства сложно после стольких лет. В Hudgell Solicitors «практически уверены, что установили, что в Capture могли быть ошибки, сбои и дефекты». Теперь нужно доказать, что пострадавшие действительно пользовались Capture. Для этого чрезвычайно важно, чтобы почта предоставила имеющуюся у неё информацию, а при отсутствии доказательств предпочтение должно отдаваться показаниям подзащитных, а не данным сбойной системы. Стоит отметить, что ущерб может составить миллионы фунтов. Так, от Fujitsu потребовали выплатить £300 млн пострадавшим от ПО Horizon. Почта и Fujitsu пытаются переложить ответственность друг на друга.

Постоянный URL: http://servernews.ru/1131432

Входит в перечень общественных объединений и религиозных организаций, в отношении которых судом принято вступившее в законную силу решение о ликвидации или запрете деятельности по основаниям, предусмотренным Федеральным законом от 25.07.2002 № 114-ФЗ «О противодействии экстремистской деятельности»;