Материалы по тегу: hardware

13.09.2024 [15:16], Руслан Авдеев

За $4,9 млрд DC01UK построит в Великобритании один из крупнейших «зелёных» ЦОД в Европе

DC01UK представила план строительства в Хартфордшире (Великобритания) одного из крупнейших, по словам компании, дата-центров в Европе. Пресс-служба DC01UK сообщает, что площадь строений составит почти 186 тыс. м2, а площадь территории кампуса — около 34 га. National Grid уже обеспечила на территории резервную мощность 400 МВА. Будущий кампус расположится недалеко от национальных и международных ВОЛС и относительно близко к уже существующим ЦОД.

DC01UK готовятся ввести в эксплуатацию в 2029 году, это сулит экономические выгоды как на местном, так и на общегосударственном уровнях. Оценочная стоимость проекта составляет £3,75 млрд ($4,9 млрд). На этапе строительства будет обеспечено не менее 500 рабочих мест. После ввода в эксплуатацию будет создано 200 постоянных рабочих мест. Местные жители смогут обучиться новым профессиям на базе учебного центра кампуса.

 Источник изображений: DC10UK

Источник изображений: DC10UK

Косвенно DC01UK обеспечит увеличение валовой добавленной стоимости (GVA) на £1,1 млрд/год и поможет создать 13,7 тыс. рабочих мест в смежных отраслях. Кроме того, DC01UK должен привлечь в регион инвестиции со всех концов света. В рамках проекта предполагается обновление местной дорожной и транспортной инфраструктуры, а также использование тепла ЦОД для отопления новых домов и предприятий — подобные проекты уже реализуются в Великобритании.

Строительство предусматривает использование технологий с низким уровнем углеродных выбросов, предусмотрена и генерация возобновляемой энергии на месте. Утверждается, что не менее 54 % участка останется «открытым зелёным пространством». В компании заявляют, что экопоказатели новых ЦОД превысят отраслевые стандарты. Кампус будет построен в интересах неназванного гиперскейлера.

Примечательно, что буквально вчера в Великобритании объявили о присвоении дата-центрам статуса критически важных инфраструктурных объектов, подлежащих разносторонней государственной защите. Новые меры повысят уверенность бизнеса в инвестициях в эту сферу в Великобритании. Отрасль, по некоторым оценкам, уже приносит £4,6 млрд выручки ежегодно.

Постоянный URL: http://servernews.ru/1110935
13.09.2024 [14:05], Руслан Авдеев

Cerebras и Aramco займутся развитием ИИ-инноваций в Саудовской Аравии

Американская компания Cerebras Systems объявила о подписании меморандума о взаимопонимании с саудовской нефтяной компанией Aramco. В рамках соглашения компании предоставят промышленности, университетам и коммерческим организациям Саудовской Аравии современные ИИ-решения. По данным HPC Wire, Aramco намерена создавать, обучать и внедрять большие языковые модели (LLM) мирового класса с использованием систем Cerebras CS-3. Ранее Aramco заключила похожее соглашение с другим американским производителем ИИ-ускорителей — Groq.

Новая высокопроизводительная инфраструктура Aramco будет концентрировать усилия на обеспечении местных коммерческих, научных и иных структур доступом к ИИ-системам CS-3. Предполагается, что организации будут использовать передовые аппаратные решения Cerebras для разработки современных LLM, масштабируя и настраивая их для получения оптимальной для того или иного сектора производительности.

 Источник изображения: Aramco Digital

Источник изображения: Aramco Digital

Как объявили в Cerebras, вместе компании планируют расширить возможности ИИ-систем, создав благоприятные условия для развития креативности, раскрытия ценности технологий и продвижения концепции экоустойчивости. В свою очередь, представитель Aramco заявил, что сотрудничество ускорит создание цифровой инновационной экономики в Саудовской Аравии, драйвером которой станет ИИ. Этого можно будет добиться, интегрируя передовые ИИ-решения и учитывая региональные особенности. Aramco рассчитывает оснастить свой облачный бизнес новыми системами CS-3.

В основе систем Cerebras CS-3 лежат суперускорители WSE-3 размером с целую кремниевую пластину. Уже сегодня продукцией Cerebras пользуются крупные корпорации, исследовательские институты и даже государственные органы для разработки собственных моделей. Также они применяются для обучения open source LLM. Решения Cerebras доступны как «во плоти», так и в облаке. В конце августа 2024 года Cerebras Systems запустила «самую мощную в мире» ИИ-платформу для инференса.

В целом Cerebras активно осваивает рынок ЦОД в регионе. Так, холдинг G42 (Core42) из ОАЭ финансово поддержал создание целой серии ИИ-суперкомпьютеров Condor Galaxy, одних из крупнейших в мире. Сейчас Cerebras готовится к IPO и намерена составить конкуренцию NVIDIA. При этом США, как выяснилось, разрешили NVIDIA поставлять современные ускорители G42.

Постоянный URL: http://servernews.ru/1110919
13.09.2024 [13:00], Руслан Авдеев

Великобритания причислила ЦОД к критической национальной инфраструктуре (CNI) с государственной поддержкой

Великобритания отнесла дата-центры к элементам критически важной национальной инфраструктуры (CNI). По данным The Register, в результате сектор будет обеспечен господдержкой, направленной на предотвращение негативных последствий сбоев в работе IT, примером которых может служить инцидент с CrowdStrike, а также на защиту от кибератак и природных катаклизмов.

ЦОД стали четырнадцатым дополнением к списку CNI-объектов Великобритании. Также в список входят гражданская атомная промышленность, энергетика, финансы, здравоохранение и др. Это первое обновление списка почти за 10 лет после добавления в него в 2015 году космической и оборонной сфер. Новость появилась через год после того, как NCSC предупредил о растущем уровне угрозы CNI-объектам Великобритании. В ноябре 2023 года было объявлено, что готовность справляться с киберугрозами в стране оставляет желать лучшего.

За поддержку отвечает специальная команда из высокопоставленных правительственных чиновников, которая будет отслеживать ландшафт угроз и прогнозировать возможные риски. Кроме того, та же команда будет отвечать за реагирование на чрезвычайные ситуации. Национальный центр кибербезопасности Великобритании (NCSC), а также другие спецслужбы будут получать приоритетный доступ к ЦОД, если те подвергнутся той или иной угрозе. Пока власти не комментируют, что подразумевается под «приоритетным доступом».

 Источник изображения: Stanley Dai/unsplash.com

Источник изображения: Stanley Dai/unsplash.com

Как заявляют представители властей, уже само присвоение дата-центрам статуса CNI будет сдерживать киберпреступников от атак. СМИ усомнились в таких выводах, предположив, что это сделает объекты более привлекательной целью для злоумышленников. Также ожидается, что присвоение дата-центрам нового статуса повысит уверенность в будущих инвестициях в сектор.

Параллельно правительство Великобритании приветствовало инвестиции в объёме £3,75 млрд ($4,89 млрд) в крупнейший в Европе дата-центр, строительство которого запланировано компанией DC01UK в Хартфордшире, что недалеко от Лондона. После победы на выборах лейбористское правительство отозвали решения, блокировавшие строительство ЦОД в Хартфордшире и Бакингемшире, граничащими с «Большим Лондоном».

Впрочем, некоторые эксперты подчёркивают, что сегодня хранение и обработка данных обычно не ограничивается одной страной, так что любые новые правила стоит прорабатывать и принимать на международном уровне. При этом многие ЦОД обслуживают по несколько или даже много клиентов одновременно, поэтому ограничения затронут всех пользователей, даже тех, чей бизнес не относится к критической инфраструктуре. Это может замедлить инновации и повысить расходы. Возможно, операторам ЦОД придётся создать специальные кластеры только для критической инфраструктуры, что дополнительно усложнит решение вопросов и повысит затраты — необходимо будет найти баланс между безопасностью и небольшими затратами.

Постоянный URL: http://servernews.ru/1110928
13.09.2024 [11:07], Сергей Карасёв

AWS вложит $1,8 млрд в расширение инфраструктуры ЦОД в Бразилии

Облачная платформа Amazon Web Services (AWS), по сообщению Reuters, намерена инвестировать R$10,1 млрд (около $1,8 млрд) в развитие своей инфраструктуры ЦОД в Бразилии. Масштабная инициатива рассчитана на десять лет — до 2034 года. Средства, как отмечается, пойдут на «расширение, строительство, подключение, эксплуатацию и обслуживание дата-центров».

В 2011–2023 гг. AWS уже вложила в создание экосистемы ЦОД в этой стране около R$19,2 млрд ($3,39 млрд). У AWS есть облачный регион в Сан-Паулу с тремя зонами доступности, который был запущен в 2011 году. Кроме того, развёрнуты edge-площадки в Рио-де-Жанейро, Сан-Паулу и Форталезе. В 2020 году компания объявила, что в течение следующих двух лет инвестирует $240 млн в свою бразильскую облачную инфраструктуру, хотя подробности о том, на что будут потрачены эти деньги, не разглашались.

 Источник изображения: Eduardo Soares / Unsplash

Источник изображения: Eduardo Soares / Unsplash

Другие ведущие облачные провайдеры также развивают инфраструктуру в Бразилии. В частности, Microsoft запустила регион São Paulo Azure (Brazil South) в Кампинасе (Campinas) в 2014 году. В 2021-м он был расширен до трёх зон доступности. В текущем году компания начала работу над дополнительными ЦОД в штате Сан-Паулу. В свою очередь, Google запустила бразильский облачный регион, также расположенный в Сан-Паулу, в 2017 году. А на днях принадлежащая DigitalBridge компания Scala Data Centers объявила о намерении построить огромный кампус ИИ ЦОД Scala AI City в бразильском штате Риу-Гранди-ду-Сул (Rio Grande do Sul).

Постоянный URL: http://servernews.ru/1110914
13.09.2024 [10:22], Сергей Карасёв

Некогда самый мощный в мире суперкомпьютер Summit уйдёт на покой в ноябре

Высокопроизводительный вычислительный комплекс Summit, установленный в Окриджской национальной лаборатории (ORNL) Министерства энергетики США, будет выведен из эксплуатации в ноябре 2024 года. Обслуживать машину становится всё дороже, а по эффективности она уступает современным суперкомпьютерам.

Summit был запущен в 2018 году и сразу же возглавил рейтинг мощнейших вычислительных систем мира TOP500. Комплекс насчитывает 4608 узлов, каждый из которых оборудован двумя 22-ядерными процессорами IBM POWER9 с частотой 3,07 ГГц и шестью ускорителями NVIDIA Tesla GV100. Узлы соединены через двухканальную сеть Mellanox EDR InfiniBand, что обеспечивает пропускную способность в 200 Гбит/с для каждого сервера. Энергопотребление машины составляет чуть больше 10 МВт.

 Источник изображения: ORNL

Источник изображения: ORNL

FP64-быстродействие Summit достигает 148,6 Пфлопс (Linpack), а пиковая производительность составляет 200,79 Пфлопс. За шесть лет своей работы суперкомпьютер ни разу не выбывал из первой десятки TOP500: так, в нынешнем рейтинге он занимает девятую позицию.

 Источник изображения: ORNL

Источник изображения: ORNL

Отправить Summit на покой планировалось в начале 2024-го. Однако затем была запущена инициатива SummitPLUS, и срок службы вычислительного комплекса увеличился практически на год. Отмечается, что этот суперкомпьютер оказался необычайно продуктивным. Он обеспечил исследователям по всему миру более 200 млн часов работы вычислительных узлов.

В настоящее время ORNL эксплуатирует ряд других суперкомпьютеров, в число которых входит Frontier — самый мощный НРС-комплекс в мире. Его пиковое быстродействие достигает 1714,81 Пфлопс, или более 1,7 Эфлопс. При этом энергопотребление составляет 22 786 кВт: таким образом, система Frontier не только быстрее, но и значительно энергоэффективнее Summit. А весной этого года из-за растущего количества сбоев и протечек СЖО на аукционе был продан 5,34-ПФлопс суперкомпьютер Cheyenne.

Постоянный URL: http://servernews.ru/1110910
13.09.2024 [00:17], Владимир Мироненко

Производительность суперкомпьютера «Сергей Годунов» выросла вдвое — до 114,67 Тфлопс

Группа компаний РСК сообщила о завершении плановой модернизации суперкомпьютера «Сергей Годунов» в Институте математики имени С.Л. Соболева Сибирского отделения Российской академии наук (ИМ СО РАН), благодаря чему его суммарная пиковая FP64-производительность теперь составляет 114,67 Тфлопс: 75,87 Тфлопс на CPU и 38,8 Тфлопс на GPU.

 Источник изображений: РСК

Источник изображений: РСК

Работы по запуску машины были завершены РСК в ноябре 2023 года, а её официальное открытие состоялось в феврале этого года. На тот момент производительность суперкомпьютера составляла 54,4 Тфлопс. Директор ИМ СО РАН Андрей Евгеньевич Миронов отметил, что использование нового суперкомпьютера позволило существенно повысить эффективность научных исследований, и выразил уверенность, что он также будет способствовать развитию новых технологий.

Миронов сообщил, что после запуска суперкомпьютера появилась возможность решать мультидисциплинарные задачи, моделировать объёмные процессы и предсказывать поведение сложных математических систем. По его словам, на суперкомпьютере проводятся вычисления по критически важным проблемам и задачам, среди которых:

  • построение барических аксиальных алгебр и алгебры Грайса;
  • оптимизация параметров математических моделей турбулентных течений с сопряжённым теплообменом на основе технологий глубокого обучения и природоподобных алгоритмов;
  • волновая медицинская томография;
  • моделирование эпидемиологических, экологических, экономических и социальных процессов;
  • моделирование и построение сценариев развития системы биосфера-экономика-социум с учётом безуглеродного и устойчивого развития и изменения климата;
  • решение обратных задач геофизики прямым методом на основе подхода Гельфанда-Левитана-Крейна.
 Источник изображений: РСК

Источник изображений: РСК

Суперкомпьютер «Сергей Годунов» является основным инструментом для проведения исследований и прикладных разработок в Академгородке Новосибирска и создания технологической платформы под эгидой Научного совета Отделения математических наук РАН по математическому моделированию распространения эпидемий с учётом социальных, экономических и экологических процессов.

Он был назван в память об известном советском и российском математике с мировым именем Сергее Константиновиче Годунове. Отечественный суперкомпьютер создан на базе высокоплотной и энергоэффективной платформы «РСК Торнадо» с жидкостным охлаждением. Система включает вычислительные узлы с двумя Intel Xeon Ice Lake-SP, узел на базе четырёх ускорителей NVIDIA A100 и сервер визуализации с большим объёмом памяти: Intel Xeon Platinum 8368, 4 Тбайт RAM, пара NVIDIA RTX 5000 Ada с 32 Гбайт GDDR6.

Постоянный URL: http://servernews.ru/1110903
12.09.2024 [21:46], Сергей Карасёв

SiMa.ai представила чипы Modalix для мультимодальных рабочих нагрузок ИИ на периферии

Стартап SiMa.ai анонсировал специализированные изделия Modalix — «системы на чипе» с функциями машинного обучения (MLSoC), спроектированные для обработки ИИ-задач на периферии. Эти решения предназначены для дронов, робототехники, умных камер видеонаблюдения, медицинского диагностического оборудования, edge-серверов и пр.

В семейство Modalix входя четыре модификации — М25, М50, М100 и М200 с ИИ-производительностью 25, 50, 100 и 200 TOPS соответственно (BF16, INT8/16). Изделия наделены процессором общего назначения с восемью ядрами Arm Cortex-A65, работающими на частоте 1,5 ГГц. Кроме того, присутствует процессор обработки сигналов изображения (ISP) на базе Arm Mali-C71 с частотой 1,2 ГГц. В оснащение входят 8 Мбайт набортной памяти. Изделия производятся по 6-нм технологии TSMC и имеют упаковку FCBGA с размерами 25 × 25 мм.

 Источник изображения: SiMa.ai

Источник изображения: SiMa.ai

Чипы Modalix располагают узлом компьютерного зрения Synopsys ARC EV-74 с частотой 1 ГГц. Говорится о возможности декодирования видеоматериалов H.264/265/AV1 в формате 4K со скоростью 60 к/с и кодировании H.264 в формате 4K со скоростью 30 к/с. Реализована поддержка восьми линий PCIe 5.0, четырёх портов 10GbE, четырёх интерфейсов MIPI CSI-2 (по четыре линии 2.5Gb), восьми каналов памяти LPDDR4/4X/5-6400 (до 102 Гбайт/с). Таким образом, по словам SiMa.ai, Modalix покрывает практически весь цикл работы с данными, не ограничиваясь только ускорением ИИ-задач.

 Источник изображения: SiMa.ai

Источник изображения: SiMa.ai

По заявлениям SiMa.ai, чипы Modalix можно применять для работы с большими языковыми моделями (LLM), генеративным ИИ, трансформерами, свёрточными нейронными сетями и мультимодальными приложениями. Среди возможных вариантов использования названы медицинская визуализация и роботизированная хирургия, интеллектуальные приложения для розничной торговли, автономные транспортные средства, беспилотники для инспекции зданий и пр. Есть поддержка популярных фреймворков PyTorch, ONNX, Keras, TensorFlow и т.д. Также предоставляется специализированный набор инструментов под названием Pallet, упрощающий создание ПО для новых процессоров.

Постоянный URL: http://servernews.ru/1110841
12.09.2024 [21:14], Владимир Мироненко

У российских корпораций растёт интерес к строительству собственных ЦОД

В этом году в России наметилась тенденция строительства ЦОД собственными силами крупных корпораций, пишут «Ведомости» со ссылкой на заявление представителя «Систэм Электрик» (Systême Electric; ранее — Schneider Electric в РФ). Он отметил, что с 2012 года количество новых корпоративных ЦОД неуклонно снижалось, но в этом году был зафиксирован противоположный тренд — крупные компании снова взялись за строительство и модернизацию собственных дата-центров.

Рост интереса к строительству корпоративных площадок подтвердили «Атомдата» (ЦОД-подразделение «Росэнергоатом»), Wildberries, «Газпром», «Сбер» и «Северсталь». По словам Wildberries, на рынке коммерческих ЦОД не хватит мощностей для постоянно растущего бизнеса, а общий дефицит мощностей приводит к удорожанию аренды, что в случае маркетплейса делает её экономически невыгодной. Кроме того, в собственных дата-центрах гораздо проще контролировать инфраструктуру. У Wildberries есть ЦОД в Электростали, в следующем году планируется ввод ещё двух — в апреле в Дубне и осенью в Наро-Фоминске.

 Источник изображений: Wildberries

Источник изображений: Wildberries

В «Газпроме» сообщили, что не пользуются услугами коммерческих ЦОД. Недавно стало известно о её планах построить крупный дата-центр на 5000 стоек Великом Новгороде. «Газпромнефть» нацелена на развитие партнёрской экосистемы ЦОД, поскольку такая модель обеспечивает наибольшую эффективность и гибкость при использовании вычислительных мощностей, отметил представитель компании. В свою очередь, «Сбер» сообщил, что более 80 % вычислительных ресурсов банка размещены в собственных ЦОД.

Представитель «Северстали» сообщил «Ведомостям» о строительстве большого ЦОД на площадке Череповецкого металлургического комбината, а также строительстве объектов на других площадках компании. Кроме того, планируется провести до 2030 года модернизацию существующих ЦОД. Он отметил, что стратегически компания нацелена на строительство и развитие собственных мощностей, что обусловлено повышенными требованиями к безопасности хранимой информации в промышленном секторе и непрерывности производства.

Постоянный URL: http://servernews.ru/1110876
12.09.2024 [16:02], Руслан Авдеев

4,75 ГВт для ИИ: Scala Data Centers намерена построить в Бразилии мегакампус ЦОД AI City до, но начнёт с более скромного проекта на 54 МВт

Принадлежащая DigitalBridge компания Scala Data Centers планирует построить огромный кампус ИИ ЦОД Scala AI City в бразильском штате Риу-Гранди-ду-Сул (Rio Grande do Sul). Компания начнёт со скромных 54 МВТ и R$3 млрд ($500 млн) инвестеций, но со временем намерена масштабировать проект до 4,75 ГВт и $90 млрд. Scala уже приобрела около 700 га для AI City в муниципалитете Эльдорадо-ду-Сул (Eldorado do Sul) в 32 км от Порту-Алегри (Porto Alegre).

ЦОД изначально будет рассчитан на поддержку ИИ-нагрузок и предложит 150-кВт стойки с СЖО. Питание будет осуществляться исключительно из возобновляемых источников, PUE не превысит 1,2, а WUE и вовсе будет составлять 0, т.е. ЦОД не будет использовать питьевую воду. Отчасти достичь таких результатов поможет более прохладный климат юга страны. ЦОД будет введён в строй в течение двух лет и станет одним из крупнейших в Бразилии, где общая ёмкость ЦОД составляет 777 МВт.

 Источник изображения: Scala Data Centers

Источник изображения: Scala Data Centers

В комментарии Datacenter Dynamics представитель оператора отметил, что проекты в Латинской Америке во многом отстают в технологическом плане из-за нестабильного курса валют и правовой неопределённости, но теперь ситуация изменилась. Появилась базовая инфраструктура для передачи данных и электроэнергии и огромные возможности генерации «чистой» энергии, равных которым нет во всём мире. В компании напомнили, что в Северной Вирджинии — крупнейшем рынке ЦОД ёмкостью 4 ГВт — вынуждены до семи лет ждать присоединения к энергосети

Тем временем в бразильских сетях имеются 12 ГВт, готовые к использованию, 5 из которых зарезервировала Scala. Предполагается, что в Северной Америке сегодня дата-центрам не хватает 4–6 ГВт. Так что клиенты вполне могут обратиться к бразильским ресурсам, если их не смущает достаточно высокая задержке при передаче данных.

Для сравнения, общая ёмкость дата-центров Microsoft Azure по всему миру оценивается приблизительно в 5 ГВт, хотя компания стремитально наращивает парк ЦОД. Две компании, одна из которых, по слухам, и есть Microsoft, ведут переговоры о строительстве в Северной Дакоте кампусов на 5–10 ГВт. Также на этой неделе Oracle объявила, что построит в США 1-ГВт ЦОД с питанием от малых модульных реакторов (SMR).

UPD 29.09.2024: Scala Data Centers получила $500 млн долгового финансирования, по $250 млн от Coatue Tactical Solutions и Investment Management Corporation of Ontario (IMCO).

Постоянный URL: http://servernews.ru/1110864
12.09.2024 [14:46], Руслан Авдеев

Возгорание литий-ионных аккумуляторов вызвало экстренное отключение ЦОД Digital Realty в Сингапуре

10 сентября 2024 года в сингапурском дата-центре Digital Realty SIN11 произошёл пожар, последствия которого ещё предстоит оценить. По информации Datacenter Dynamics, больше всех пострадало облако Alibaba Cloud, одна из зон доступности (Singapore Availability Zone C) которого была развёрнута на базе этого ЦОД. Также пострадали Lazada, ByteDance, Digital Ocean, Coolify и Cloudflare.

Пожар начался во вторник в 7:45 по местному времени. В течение получаса весь персонал был эвакуирован. Причиной пожара предварительно названо возгорание литий-ионных аккумуляторов в ИБП на третьем этаже четырёхэтажного здания. Силы гражданской обороны Сингапура (Singapore Civil Defence Force, SCDF) даже применили автономного робота в попытке охладить аккумуляторные блоки, однако в результате в отсеке и соседних помещениях стала накапливаться вода, из-за чего возник риск коротких замыканий.

В итоге пришлось экстренно отключать питание одного из зданий, что также привели к проблемам с сетевым подключением в соседних зданиях. Работы по тушению и устранению рисков заняли более суток. К вечеру среду пожарные службы всё ещё не пускали в пострадавшие помещения инженеров ЦОД и его клиентов. По словам Digital Realty, сейчас ситуация стабилизировалась, а надёжность конструкций самого здания в результате пожара не пострадала.

 Источник изображения: Digital Realty

Источник изображения: Digital Realty

ЦОД SIN11 Digital Loyang 1 включает четыре здания общей площадью 17 тыс. м2. Он был введён в эксплуатацию в 2016 году. Стандарты SCDF требуют, чтобы все системы хранения энергии (Energy Storage Systems, ESS) находились на первом этаже. При этом Digital Realty отметила, что новые правила ввели в действие с 2020 года, через четыре года после запуска SIN11.

Ранее от грандиозного пожара пострадал оператор ЦОД OVHCloud, который долго время разбирался многочисленными претензиями клиентов. Крупнейший в мире инцидент с южнокорейском ЦОД Kakao тоже произошёл из-за Li-Ion аккумуляторов. Весной 2023 года пожар в ЦОД LAX12 той же Digital Realty привёл к приостановке обслуживания части клиентов. А в самом Сингапуре после масштабного сбоя дата-центра Equinix власти пообещали жёстко отрегулировать деятельность ЦОД и облаков.

Постоянный URL: http://servernews.ru/1110850
Система Orphus