Материалы по тегу: фотоника

19.03.2021 [23:23], Сергей Карасёв

Фотонные ИИ-сопроцессоры LightOn можно арендовать «всего» за €1900/мес.

Базирующийся в Париже (Франция) стартап LightOn представил своё первое коммерческое устройство — самый мощный в мире, по словам компании, фотонный сопроцессор, предназначенный для систем искусственного интеллекта (ИИ) и высокопроизводительных вычислений.

Устройство, рассчитанное на монтаж в стойку, выполнено в формате 2U. «Сердце» системы — оптический процессор (OPU) Aurora2, содержащий одно фотонное ядро Nitro второго поколения. Его быстродействие составляет 1,5 TeraOPS при показателе TDP всего в 30 Вт. В ряде задач OPU значительно быстрее CPU и GPU, и при этом потребляет намного меньше энергии.

Для работы с устройством необходим сервер с Intel Xeon (на AMD тоже всё должно работать, но совместимость не проверялась), Ubuntu 18.04+ или Debian 10, Python 3.7+ и свободным слотом PCIe 2.0 x4. Поддерживаются PyTorch 1.0+ и scikit-learn, а также фирменная библиотека LightOn ML v1.2 и собственный SDK.

Устройство будет доступно заказчикам на условиях аренды. Стоимость начинается с €1900/мес. (без НДС) при заключении контракта на три года. Поставки устройств начнутся в июне 2021 года. Компания также предлагает заранее сконфигурированные решения, техническую поддержку и индивидуальные обучающие курсы. Более подробную информацию о новинке можно найти здесь. Кроме того, у компании есть облачный сервис, где доступны OPU первого поколения.

Постоянный URL: http://servernews.ru/1035285
02.03.2021 [13:45], Сергей Карасёв

Cisco закрыла сделку по покупке разработчика оптических компонентов Acacia

Американская компания Cisco, один из крупнейших в мире поставщиков сетевого оборудования, завершила сделку по поглощению Acacia Communications — разработчика оптических компонентов. Слияние позволит Cisco укрепить позиции на рынке кремниевой фотоники.

Напомним, что Cisco сообщила о планах по покупке Acacia ещё в 2019 году. Тогда говорилось, что сумма сделки составит приблизительно $2,6 млрд. Однако первоначальные условия впоследствии изменились.

Фотографии Reuters

Фотографии Reuters

Так, в январе нынешнего года Acacia объявила о расторжении договора с Cisco: причиной стало то, что сделка в обозначенные сроки не получила одобрения Государственного управления по регулированию рынка Китайской Народной Республики (SAMR). В свою очередь, Cisco обратилась в суд, настаивая на завершении слияния.

Позднее компании смогли найти общий язык, правда, сумма сделки значительно выросла, составив $4,5 млрд. И вот теперь сообщается, что слияние завершено.

Поглощение поможет Cisco расширить ассортимент продукции для построения высокоскоростных сетей передачи данных. Речь, в частности, идёт об оборудовании класса 400G и выше.

Постоянный URL: http://servernews.ru/1033884
23.02.2021 [16:20], Владимир Мироненко

LyteLoop создаст космическое фотонное хранилище на сотни петабайт

Стартап LyteLoop Technologies из США разрабатывает технологию хранения данных на орбите, прямо на борту спутников. По словам генерального директора LyteLoop Охада Харлева, такой способ хранения будет более экологичным, безопасным, масштабируемым и конфиденциальным, чем в традиционных дата-центрах на Земле. Данная концепция заслужила доверие частных инвесторов, недавно вложивших в LyteLoop $40 млн.

LyteLoop разрабатывает так называемое фотонное хранилище данных, где информация закодирована в световых импульсах, которые бесконечно «путешествуют» между зеркалами или в замкнутом оптоволокне. LyteLoop может применить свою технологию на Земле с использованием больших трубок, менее крупных ячеек и с помощью волоконной оптики, но главный приоритет компании — создание космических дата-центров, сообщил Харлев, ранее работавший в спутниковой индустрии. «Чтобы технология работала, она должна оперировать [светом] в вакууме или почти в вакууме, а космос предоставляет это бесплатно», — сказал он.

Компания планирует доставить на орбиту шесть экспериментальных спутников в течение трёх лет, а уже через пять лет запустить сервис хранения данных. Полученные средства позволят стартапу в четыре раза увеличить свою команду и нанять инженеров и учёных, которые необходимы для совершенствования технологии и осуществления запуска спутников. По словам Харлева, основными целевыми клиентами компании будут организации, которым необходимо хранить большие объёмы данных: предприятия, ориентированные на рынок B2B, а также предприятия с жёсткими требованиями к безопасности, конфиденциальности или управлению данными.

LyteLoop_Constellation_v08 from LyteLoop Technologies LLC. on Vimeo.

Спутниковое хранилище LyteLoop будет более безопасным, чем традиционные СХД, поскольку данные будут находиться в космосе — они перемещаются со скоростью света и постоянно находятся в движении между спутниками, что значительно затруднит взлом, сказал глава компании. Для защиты данных LyteLoop планирует использовать квантовое шифрование, которое, по его словам, невозможно взломать. Ещё один положительный момент — клиентам не нужно беспокоиться о правилах суверенитета данных и о том, в какой стране находятся их данные, потому что информация будет храниться в космосе.

Система LyteLoop также более масштабируема, чем традиционные ЦОД. По словам Харлева, создавая больше путей для перемещения света, компания может увеличить ёмкость хранения. Запуск спутников и создание космического ЦОД обойдётся дороже, чем постройка традиционного дата-центра ЦОД, но Харлев утверждает, что стоимость эксплуатации и управления экзабайтным хранилищем в космосе составляет менее 1/10 стоимости эксплуатации в ЦОД на Земле.

В результате по словам Харлева, общая стоимость владения сервисом в космосе будет намного ниже за 10-летний период по сравнению со строительством сопоставимых ЦОД на Земле и управлением ими. Частично экономия средств связана с тем, что технология LyteLoop намного более экологична. По его словам, космический дата-центр работает на солнечной энергии, ему не нужны большие объёмы воды для охлаждения оборудования, а также запасы сырья и материалов для оборудования для хранения данных.

«Это намного экологичнее, — говорит Харлев. — Использование центра обработки данных (на Земле) обычно измеряется в мВт, но, чтобы представить ситуацию в перспективе, мы говорим об использовании доли энергии — в кВт. Вы можете хранить экзабайты данных, используя мощность от 35 до 40 кВт».

Клиенты смогут получать доступ к данным так же, как это делается сейчас. Пользователь на Земле запрашивает файл, запрос идёт от наземной станции к шлюзовому спутнику и к спутникам LyteLoop. Данные передаются таким же образом обратно вниз. «Это очень быстро. Задержка от одного конца до другого составляет менее 45 мс», — сказал директор LyteLoop.

По словам Харлева, у него также прошли переговоры с потенциальными партнёрами, которые могут разместить серверы в космосе. Теоретически они смогут предлагать полный спектр услуг ЦОД, позволяя клиентам выполнять аналитику данных в космосе.

Постоянный URL: http://servernews.ru/1033268
09.02.2021 [20:26], Владимир Мироненко

Калифорнийский университет в Санта-Барбаре открыл лабораторию энергоэффективности ЦОД Facebook

Институт энергоэффективности Калифорнийского университета (Institute for Energy Efficiency, IEE) в Санта-Барбаре изучит пути улучшения работы центров обработки данных. Расходы на исследование взяла на себя социальная сеть Facebook, предоставившая университету грант в размере $1,5 млн.

Недавно созданная лаборатория энергоэффективности ЦОД Facebook (Facebook Data Center Energy Efficiency) будет изучать различные подходы к повышению эффективности, включая возможность использования оптических межсоединений с низким энергопотреблением для компьютерных сетей и систем машинного обучения с попутным уменьшением углеродного следа.

По мере замедления действия закона Мура Facebook ищет возможности для повышения эффективности работы дата-центров по другим направлениям. Facebook тоже внесёт свой вклад в исследование, поделившись имеющимися данными, а также опытом, полученным в ходе эксплуатации собственных ЦОД.

«Facebook является мировым лидером в области эффективности ЦОД, и мы рады сотрудничать с ней с целью дальнейшего внедрения технологий следующего поколения для повышения эффективности, — заявил директор института Джон Бауэрс. — Компания ознакомит нас с проблемами, которые необходимо решить, и мы будем вместе работать над ними».

Лаборатория разработает новое оборудование и архитектуру для повышения эффективности и снижения энергопотребления, необходимого для охлаждения. Ожидается, что повышение эффективности алгоритмов позволит снизить потребление энергии, необходимой для запуска приложений искусственного интеллекта.

Бауэрс отметил, что институт имеет долгую историю исследований кремниевой фотоники, «которая позволяет использовать более мощную электронику за счёт совместной упаковки электроники и фотоники». «Это исследование необходимо для разработки следующего поколения коммутационных микросхем большой ёмкости», — добавил он.

Для Facebook повышение энергоэффективности является важным с точки зрения экономики. Для этого компания использует различные методы. В частности, она применяет OCP-оборудование, оптимизированное для нужд гиперскейлеров, продвинутые системы охлаждения, мониторинг и автоматизацию, а также оптимизацию программных компонентов.

Постоянный URL: http://servernews.ru/1032251
03.02.2021 [16:21], Алексей Степин

Переход на скорости свыше 400 Гбит/с потребует серьёзных усилий и будет сопровождаться ростом энергопотребления

В настоящее время для крупных телеком-провайдеров и провайдеров облачных услуг 200GbE-подключения — пройденный этап. Активно осваивается скорость 400 Гбит/с, а в планах уже фигурируют цифры 800 Гбит/с и даже 1,6 Тбит/с. Однако если переход от 200G к 400G дался достаточно просто, то при освоении ещё более высоких скоростей ожидается серьёзный набор трудностей, которые ещё только предстоит преодолеть.

Нужда в более скоростных магистралях в ЦОД порождается массой причин, и прежде всего, это рост гиперскейлеров вроде Google, Amazon или Facebook. Свой вклад вносит постоянно растущее число распределённых облачных систем, систем ИИ, машинной аналитики, периферийных вычислений и систем видеоконференций. К 2022 году ожидается, что каждый месяц объём мирового IP-трафика достигнет 396 экзабайт — для сравнения, в 2017 году этот показатель был равен 177 экзабайт.

Фотоника и электроника могут существовать даже в пределах одного кремния

Фотоника и электроника могут существовать даже в пределах одного кремния

Однако существующие медные и даже оптические технологии имеют свои пределы, продиктованные как возможностями скоростной обработки сигналов, так и самой природой физических процессов. В частности, серьёзно растёт энергопотребление таких сетевых систем.

По мнению Cisco, нарастить пропускную способность можно хоть в 80 раз, но для этого потребуется и в 22 раза больше энергии, а каждый ватт, потраченный в ЦОД на сети, означает ватт, который не был потрачен на дополнительную вычислительную мощность в серверах. С этим мнением согласна Microsoft Azure: если продолжить использовать технологии сегодняшнего уровня, ограничителем быстро станут именно энергозатраты.

Коммутатор Xsight Labs с поддержкой 800GbE

Коммутатор Xsight Labs с поддержкой 800GbE

Над решением задачи перехода от 400 Гбит/с к более высоким скоростям, в частности, работают такие организации, как исследовательская группа «IEEE 802.3 Beyond 400 Gbps», сформированная в конце прошлого года. Также есть проект Форума Оптических Сетей (OIF) под названием «800G Coherent project». Его целью является разработка спецификаций для совместимых сетей класса 800G, способных работать на достаточно больших расстояниях, например, в пределах университетского кампуса или крупных комплексов ЦОД.

Для оценки требований к технологиям нового скоростного уровня на этой неделе был созван форум Ethernet Alliance’s Technology Exploration Forum. В нём принимают участие специалисты из крупных компаний, таких как Microsoft, Facebook и Google, а также представители крупных разработчиков сетевого оборудования — Juniper и Cisco. Большие надежды возлагаются на интеграцию традиционных кремниевых и оптических технологий.

Над созданием новых высокоскоростных чипов, совмещающих в едином корпусе электронику и фотонику (co-packaged optics, CPO) работают сейчас Ayar Labs, Broadcom, Cisco, Intel и ряд других компаний-разработчиков. Пока это новое, малоосвоенное поле, но именно на нём ожидается столь необходимый для внедрения сетей класса 800G+ прорыв в области энергопотребления.

Фотоника в исполнении Intel

Фотоника в исполнении Intel

Но экосистема CPO должна быть стандартизирована, дабы не породить «зоопарка» несовместимых или плохо совместимых решений. Над спецификациями CPO сейчас работают Facebook и Microsoft, а форум OIF в это же время занят разработкой единого фреймворка для этой же технологии. Работы предстоит ещё много, но в случае успеха внедрение CPO позволит отказаться от медных соединений в пределах стойки с серверным оборудованием, которые уже не отвечают требованиям «800G and beyond».

От скорейшего внедрения новых сетевых технологий выиграют и клиенты провайдеров: если сейчас для большинства корпоративных заказчиков представляют интерес каналы со скоростью 10 или 25 Гбит/с, то широкое внедрение ИИ-систем и систем видеонаблюдения высокого разрешения потребует новых скоростей, в районе 100-400 Гбит/с. К этому времени должна сложиться устойчивая сетевая инфраструктура, способная «накормить» жадные до трафика системы нового поколения.

Постоянный URL: http://servernews.ru/1031767
14.01.2021 [23:22], Илья Коваль

Cisco смогла договориться с Acacia: сумма покупки выросла с $2,8 до $4,5 млрд

На прошлой неделе Acacia и Cisco обратились в суд с взаимными жалобами друга на друга. Первая утверждала, что условия сделки по поглощению, начатой ещё летом 2019 года, не были вовремя соблюдены, а вторая была категорически против такого истолкования условий. Теперь же стороны пришли к согласию, но уже на новых условиях.

Некоторые аналитики посчитали, что Acacia на самом деле не прочь продаться (необязательно Cisco) и лишь набивает себе цену, воспользовавшись ситуацией — получение одобрение от китайских регуляторов, которое является формальным условием для завершения сделки, затянулось. При этом очевидно, что Cisco нужны наработки Acacia в области кремниевой фотоники и её штат инженеров. Специалистов в этой области не так уж много, а без фотоники в ближайшем будущем для построения сетей уже никак не обойтись.

Согласно поправкам к заключенному ранее соглашению о поглощении, Cisco заплатит $115 за каждую акцию Acacia, что в сумме составит около $4,5 млрд. Компании рассчитывают закрыть сделку до конца первого календарного квартала 2021 года. Тем не менее, все прошлые условия всё равно должны быть соблюдены, включая одобрение со стороны нынешних акционеров Acacia. Cisco обещает после завершения сделки продолжить работу с текущими клиентами Acacia. Среди них есть ZTE, что и могло стать причиной задержки одобрения сделки со стороны Китая.

Постоянный URL: http://servernews.ru/1030104
09.01.2021 [01:55], Владимир Мироненко

Acacia объявила о расторжении сделки с Cisco, а Cisco обратилась в суд

Вчера Acacia Communications заявила, что разрывает сделку по слиянию с Cisco Systems, поскольку она не получила одобрения Государственного управления по регулированию рынка Китайской Народной Республики (SAMR) в сроки, указанные в соглашении о слиянии — до 08 января 2021 года. В связи с этим, говорит компания, у неё больше нет обязательств по завершению слияния. Cisco с этим не согласна.

В пятницу, чуть более чем через час после того, как производитель оптических компонентов объявил о расторжении соглашения о слиянии, компания Cisco обратилась в суд штата Делавэр (США) с просьбой о решении, согласно которому Acacia обязана закрыть эту сделку.

Кроме того, Cisco просит суд дать подтверждение того, что она действительно выполнила «все условия для завершения» сделки, включая получение одобрения регулирующего органа Китая. «Cisco также добивается судебного постановления о том, что соглашение не может быть расторгнуто, пока суд не решит эти вопросы, и судебного постановления, требующего от Acacia закрыть сделку», — указано в заявлении.

В июле 2019 года Cisco объявила о планах купить производителя оптических компонентов Acacia примерно за $2,6 млрд ($2,84 млрд с учётом собственных средств Acacia и её ценных бумаг), что позволило бы ей получить большую долю рынка телекоммуникационных сетей 5G. Слияние первоначально предполагалось завершить во второй половине 2020 финансового года Cisco. Его одобрили США, Германия и Австрия, но оно до сих пор находится на рассмотрении регулирующих органов Китая, одобрение которых является единственным оставшимся условием для завершения сделки.

Даже если Acacia удастся отстоять свою позицию, то «девичество» её наверняка продлится не очень долго. Однако её упорство может быть объяснено как возможным наличием другого покупателя, предложившего более выгодные условия, так и своего рода ответными мерами Китая на давление со стороны США. Кроме того, среди крупнейших заказчиков Acacia числится полугосударственная корпорация ZTE.

Постоянный URL: http://servernews.ru/1029588
29.12.2020 [19:55], Алексей Степин

Коммерческая фотоника близка: Ayar Labs освоила массовый 45-нм техпроцесс GlobalFoundries

Фотоника или «оптическая электроника», вне всякого сомнения, имеет серьёзные перспективы. Но по-настоящему массовыми оптические и гибридные технологии в микроэлектронике могут стать только при освоении коммерческих техпроцессов. К этому близка компания Ayar Labs. Ещё в начале года она анонсировала оптический трансивер TeraPHY, а сейчас сообщает об успешном освоении 45-нм техпроцесса GlobalFoundries для 300-мм кремниевых пластин.

Главная сложность в фотонике — не технология сама по себе, а её гибридизация с классической электроникой. Заметных успехов в этом удалось добиться приблизительно в 2015-2016 годах, когда были представлены первые прототипы оптических сопроцессоров и гибридных чипов. Ayar Labs ведёт свои работы в области замены классических модулей SerDes гибридно-оптическими уже пять лет, и в 2020 году компании удалось добиться успеха с чиплетом TeraPHY.

Но прототипы — прототипами, а массовое внедрение электронно-оптических чипов невозможно без освоения массовых же технологических процессов, позволяющих производить такие решения в серьёзных объёмах. На первый взгляд, цифра 45 нм кажется сегодня устаревшей, но, во-первых, речь не идёт о новейших ЦП, а во-вторых, технология хорошо отлажена и все подводные камни в ней найдены. Поэтому Ayar Labs есть чем гордиться.

Мультиволновой лазер Ayar Labs SuperNova может обеспечить плотность 289 Гбит/с на миллиметр

Мультиволновой лазер Ayar Labs SuperNova может обеспечить плотность 289 Гбит/с на миллиметр

Компания продемонстрировала плоды сотрудничества с GlobalFoundries. Ими стала первая в мире оптическая система межсоединений, позволяющая избежать лишних преобразований «электроника-оптика» и дающая возможность соединять чипы напрямую оптическим каналом. Потенциально пропускная способность оптических каналов выше, нежели классических электронных, а в эру растущей популярности сложных систем ИИ и машинного обучения это очень востребовано. На сегодня Ayar Labs удалось добиться показателей в районе 2,56 Тбит/с на чиплет или 289 Гбит/с на миллиметр.

Как уже было сказано, новая фотонная платформа разработана на базе коммерческого 45-нм техпроцесса GlobalFoundries, использующего кремниевые пластины диаметром 300 мм. Как считает глава Ayar Labs, это по-настоящему открывает фотонике двери в большой мир. GlobalFoundries поддерживает это начинание и уже предоставила Ayar Labs доступ к техпроцессам кремниевой фотоники следующего поколения с более тонким техпроцессом. Новый комплект разработчика Ayar Labs можно заказать на сайте компании. Он включает в себя плату с трансиверами TeraPHY, лазер и необходимое программное обеспечение.

Напоминаем, сама GlobalFoundries осваивает сферу фотоники и оптоэлектроники весьма активно: стартовав в 2017, она уже в начале 2020 года заняла 10% этого рынка.

Постоянный URL: http://servernews.ru/1029015
19.12.2020 [00:29], Игорь Осколков

Интегрированная фотоника NVIDIA объединит сотни ускорителей в единый кластер

В рамках NVIDIA GTC 2020 China компания поведала о своих достижениях и планах. Одной из тем ключевого доклада конференции стал рассказ о наработках исследовательского подразделения NVIDIA Research в области становящейся всё более и более актуальной интегрированной кремниевой фотоники, без которой вычислительные системы будущего вряд ли обойдутся.

Сейчас скорость передачи данных для электрических соединений, говорит NVIDIA, достигает 50 Гбит/с на пару, в перспективе её можно увеличить до 100-200 Гбит/с, но прыгнуть выше этой планки будет уже очень трудно. Практически единственный путь в этом случае — переход на оптические линии связи. Это предполагает — по крайней мере сейчас, на стадии концепта — смену компоновки. В нынешних системах DGX/HGX на базе A100 максимальная конфигурация платы включает восемь ускорителей, расположенных горизонтально и объединённых NVSwitch.

Суммарная пропускная способность канала NVLink между двумя ускорителями составляет 600 Гбайт/с, а NVSwitch — 4,8 Тбайт/с. Но этим всё и ограничивается — длина NVLink-подключений составляет порядка 0,3 м. За пределы шасси они не выходят, так что сейчас всё в итоге упирается в намного более медленную шину PCIe 4.0 и подключенные к ней адаптеры, которые дают суммарную скорость всего в 500 Гбайт/с.

Такое несоответствие в скорости обмена данными внутри и между шасси ограничивает возможность эффективного масштабирования. Переход, к примеру, на InfiniBand NDR не решит проблему, так как даст лишь удвоение скорости. Поэтому-то NVIDIA видит будущее в интегрированных в ускорители оптических трансиверах на базе кремниевой фотоники.

Они позволят не только увеличить длину подключений до 20-100 м, что позволит объединить ускорители в пределах нескольких стоек, а не только одного шасси, но и вдвое повысить энергоэффективность — с 8 пДж/бит для «меди» до 4 пДж/бит для «оптики». Как обычно, предполагается использование несколько длин волн (DWDM) в одном волокне, каждая из которых будет нести 25-50 Гбит/с, что даст суммарно от 400 Гбит/с до нескольких Тбайт/с.

Для работы с несколькими длинами будут использоваться кольцевые модуляторы. И всё это будет упаковано вместе с другим «кремнием». То есть это, в целом, та же схема, что мы видели ранее у Intel, да и у других вендоров тоже. Правда, NVIDIA пока не приводит ряд других технических характеристик, но уже говорит о возможности объединить до 18 ускорителей в одном шасси благодаря вертикальной ориентации карт и до 9 шасси в стойке, что даст пул из 171 карт. Для связи пулов ускорителей будут использоваться оптические коммутаторы NVSwitch, объединённые в сеть Клоза.

Постоянный URL: http://servernews.ru/1028237
04.12.2020 [02:59], Игорь Осколков

Каждому чипу — по терабиту: Intel развивает интегрированную фотонику

Intel занимается разработками в области кремниевой фотоники уже 15 лет. Как и практически везде в современной электронике, когда-то всё начиналось с создания отдельных компонентов, которые со временем становились компактнее и производительнее и всё больше интегрировались друг с другом. Теперь компания готова перейти к следующему шагу, так называемой интегрированной фотонике (Integrated Photonics), которая позволит внедрить оптические компоненты непосредственно в чипы.

Комплекс для оптических приёма и передачи данных должен иметь несколько ключевых элементов: источник света и его детектор, модулирующий для (де-) мультиплексирования, носитель сигнала и его усилитель, а также электронную обвязку и технологию упаковки всего этого добра воедино. Всё это уже давно реализовано в аппаратуре для волоконно-оптических сетей связи — сама Intel уже поставила порядка 4 млн оптических трансиверов класса 100G и, уже довольно давно, обещает появление 400G-решений.

Но конечная цель, как уже неоднократно заявлялось, интеграция «оптики» в «кремний», то есть использование оптических линий связи внутри сервера, а не за его пределами — между отдельными его компонентами и внутри самих чипов. Однако при уменьшении масштаба до такого уровня возникает масса проблем с компактностью, энергопотреблением и собственно интеграцией с другими полупроводниковыми компонентами. Теперь для перехода к интегрированной фотонике, по словам компании, всё почти что готово — в составе прототипа реализованы пять «столпов» интегрированной кремниевой фотоники.

Первый из них — кольцевые модуляторы, которые в тысячу раз меньше аналогичных решений. Именно их размер определяет возможность включения их в состав чипов. Работают же они довольно просто: кольцо-резонатор, куда попадает свет, управляется электрическими импульсами и может быстро менять оптические свойства, свободно пропуская или задерживая световой поток. Таким образом формируются «нули» и «единицы», кодирующие сигнал. Аналогичный подход используется, к примеру, в разработках Imec.

На один световод можно «навесить» несколько таких модуляторов — четыре, восемь, шестнадцать и более — и настроить каждый из них на определённую длину волну. Вместе они образуют привычную WDM-схему. Источником света, и это ещё два «столпа», являются полупроводниковый лазер, способный выдавать поток одновременно на четырёх длинах волн, объединённый с усилителем, сделанным из того же материала, что упрощает производство и снижает стоимость.

Но тут кроется одна «хитрость» — модулятор одновременно может быть и фотодетектором для волн длиной 1,3-1,6 мк! Причём, что очень важно, сделан он из кремния, не германия или индия — это ещё один «столп». И, смотри выше, это тоже упрощает и удешевляет процесс производства. Фотодетектор уже сейчас может работать на скорости до 112 Гбит/с, хотя такая цифра наводит на мысли, что ограничение сверху тут носит не физический характер, а появляется из-за других компонентов.

Наконец, последний «столп» — это интеграция всех компонентов воедино в рамках уже имеющихся техпроцессов. В частности, в демонстрации 100G-трансивера было упомянуто, что он состоит из двух слоёв, расположенных друг над другом (3D-упаковка) и объединённых медными проводниками: нижний отвечает за фотонику и включат лазеры и модуляторы, а верхний представляет собой обычную CMOS-микросхему. Последняя отвечает за связь с другими чипами, а также управляет модуляторами, которые весьма чувствительны к изменениям температуры.

Зачем всё это нужно? Замена электрических соединений на оптические позволит снизить выводов чипа, повысив при этом пропускную способность и снизив энергопотребление. При этом сами электрические соединения, помимо очевидного ограничения на длину подключений, имеют ещё и предел по энергоэффективности — при текущем росте к скорости соединений недалёк тот момент, когда на питание линий связи будет уходить больше энергии, чем на собственно вычисления.

Уже сейчас наметилась тенденция к заметному увеличению числа контактов в сокете, значительная часть которых уходит на PCIe и DDR. Для последней в качестве альтернативы предлагаются последовательные интерфейсы вроде OMI, а вот линий PCIe всё равно не хватает. Поэтому современные ускорители обзавелись выделенными интерфейсами, например, NVLink и Infinity Fabric, для прямого обмена данными между собой.

Однако они не слишком хорошо масштабируются за пределы шасси, потому опять-таки что ограничены шиной PCIe, которая требуется сетевым адаптерам. Гигантскую разницу в пропускной способности самих чипов и объединяющих их сетей призвана устранить программа DARPA FastNIC. Есть у DARPA и программа PIPES (Photonics in the Package for Extreme Scalability), которая прямо нацелена на развитие интегрированной фотоники. В ней, в частности, участвуют Intel и Xilinx (после оформления покупки, видимо, уже AMD).

В рамках своих разработок в области интегрированной фотоники Intel пока что ставит относительно скромные цели, желая добиться пропускной способности в 1 Тбит/с на волокно, энергоэффективности 1 пДж/бит и длины линий связи до 1 км. В перспективе — получение скоростей в десятки и сотни терабит в секунду на сокет. Этого будет достаточно для прямого подключения процессоров и других вычислений устройств напрямую друг к другу в рамках целого ЦОД, что кардинально поменяет подход к сбору, хранению, передаче и обработке информации.

Постоянный URL: http://servernews.ru/1026993
Система Orphus