return

Сети для самых маленьких. Часть одиннадцатая. MPLS L3VPN

22 декабря 2015, 19:16

В прошлый раз мы не оставили камня на камне при разборе MPLS. И это, пожалуй, хорошо.

Но до сих пор только призрачно прорисовывается применение его в реальной жизни. И это плохо.

Этой статьёй начнём исправлять ситуацию. Вообще же читателя ждёт череда из трёх статей: L3VPN, L2VPN, Traffic Engineering, где мы постараемся в полной мере рассказать, для чего нужен MPLS на практике.


Содержание выпуска


Итак, linkmeup — уже больше не аутсорсинг по поддержке хоть и крупной, но единственной компании, мы — провайдер. Можно даже сказать федеральный провайдер, потому что наша оптика ведёт во все концы страны. И наши многочисленные клиенты хотят уже не только высокоскоростной доступ в Интернет, они хотят VPN.

Сегодня разберёмся, что придётся сделать на нашей сети (на которой уже меж тем настроен MPLS), чтобы удовлетворить эти необузданные аппетиты.

SDSM11-L3VPN

Традиционное видео:

Как организовать взаимодействие двух отдалённых узлов в сети Интернет? Очень просто, если они имеют публичные адреса — IP для этого и был придуман. Они могут общаться напрямую. В любом случае, чтобы соединить две точки в Интернете, нужно два публичных адреса — по одному с каждой стороны. А если у нас адреса частные (10/8, 172.16/20, 192.168/16)?

Тогда они будут «натиться» с одной стороны, а потом «разначиваться» с другой стороны. А NAT — штука, скажу я вам, ой, какая неприятная.

Поэтому существует VPN. Virtual Private Network — это набор технологий и протоколов, который позволяет подключить что-то к вашей частной сети через чужую сеть, в частности, через Интернет. Например, Томский филиал компании linkmeup можно подключить к головному офису в Москве с помощью VPN через Интернет, как мы и делали в выпуске про VPN.

То есть другие филиалы через VPN вы будете видеть так, как если бы они находились в соседней комнате и подключены вы к ним через шнурок, коммутатор или маршрутизатор. Соответственно и общаться узлы могут по своим приватным адресам, а не по публичным.

В этом случае ваши личные данные с частными адресами упаковываются в пакеты с публичными адресами и как в туннеле летят через Интернет.

Это называется клиентский VPN, потому что клиент сам озабочен его конфигурацией и поднятием. Единственный его посредник — Интернет.

Его мы разобрали в 7-м выпуске и о нём же в блоге linkmeup есть огромная статья нашего читателя — Вадима Семёнова.

Другой возможный вариант — провайдерский VPN. В этом случае провайдер предоставляет клиенту несколько точек подключения, а внутри своей сети строит каналы между ними.

От клиента тогда требуется только оплачивать провайдеру этот канал.

Провайдерский VPN, в отличие от клиентского позволяет обеспечить определённое качество услуг. Обычно при заключении договора подписывается SLA, где оговариваются уровень задержки, джиттера, процент потерь пакетов, максимальный период недоступности сервисов итд. И если в клиентском VPN вы можете только уповать на то, что в интернете сейчас всё спокойно, и ваши данные дойдут в полном порядке, то в провайдерском, вам есть с кого спросить.

Вот на провайдерском VPN мы в этот раз и сосредоточимся.

Речь пойдёт о VPN 3-го уровня — L3VPN, когда нам необходимо обеспечить маршрутизацию сетевого трафика. L2VPN — тема следующего выпуска.

VRF, VPN-Instance, Routing-instance

Когда речь заходит о VPN, возникает вопрос изоляции трафика. Никто другой не должен его получать, а ваши частные адреса не должны появляться там, где им не положено — то есть в Интернете, в сети нашего провайдера и в VPN других клиентов.

Когда вы настраиваете GRE-туннель через Интернет (или OpenVPN, на ваш вкус), то ваши данные автоматически обособлены — никто не видит ваши частные адреса в Интернете, и трафик не попадёт в чужие руки (если не поднимать вопрос нацеленной атаки).

То есть существует некий туннель между двумя публичными адресами, который никак не связан ни с вашим провайдером, ни с другими транзитными туннелями. Два разных VPN — два совершенно разных туннеля — и по вашему туннелю течёт только ваши трафик.

Совсем иначе стоит вопрос в провайдерском VPN — одна и та же магистральная сеть должна переносить данные сотен клиентов. Как тут быть?

Нет, можно, конечно, и тут GRE, OpenVPN, L2TP и иже с ними, но тогда всё, чем будут заниматься инженеры эксплуатации — это настраивать туннели и лопатить миллионы строк конфигурации. Но проблема глубже — вопрос организации такого универсального для всех канала вторичен: главное сейчас — как изолировать двух клиентов, подключенных к одному маршрутизатору? Если, например, оба используют сеть 10.0.0.0/8, как не позволить трафику маршрутизироваться между ними?

Здесь мы приходим к понятию VRF — Virtual Routing and Forwarding instance. Терминология тут не устоявшаяся: в Cisco — это VRF, в Huawei — VPN-instance, в Juniper — Routing Instance. Все названия имеют право на жизнь, но суть одна — виртуальный маршрутизатор. Это что-то вроде виртуальный машины в каком-нибудь VirtualBox — там на одном физическом сервере поднимается много виртуальных серверов, а здесь на одном физическом маршрутизаторе есть много виртуальных маршрутизаторов.

Каждый такой виртуальный маршуртизатор — это по сути отдельный VPN. Их таблицы маршрутизации, FIB, список интерфейсов и прочие параметры не пересекаются — они строго индивидуальны и изолированы. Ровно так же они обособлены и от самого физического маршрутизатора. Но как и в случае виртуальных серверов, между ними возможна коммуникация.

VRF — он строго локален для маршрутизатора — за его пределами VRF не существует. Соответственно VRF на одном маршрутизаторе никак не связан с VRF на другом.

Раз уж мы рассматриваем все примеры на оборудовании Cisco, то будем придерживаться их терминологии.

VRF Lite

Так называется создание провайдерского VPN без MPLS.

Вот, например, так можно настроить VPN в пределах одного маршрутизатора:

Тут у нас есть два клиента — TAR’s Robotics и C3PO Electronic.

Интерфейсы FE0/0 и FE0/1 принадлежат VPN C3PO Electronic, интерфейсы FE1/0 и FE1/1 — VPN TAR’s Robotics. Внутри одного VPN узлы общаются без проблем, между собой — уже никак.

Вот так выглядят их таблицы маршрутизации на провайдерском маршрутизаторе:

Маршруты C3PO Electronic не попадут в сети TARS’ Robotics и наоборот.

Клиентские интерфейсы здесь привязаны к конкретному VRF.

Один интерфейс не может быть членом двух VRF сразу или членом и VRF и глобальной таблицы маршрутизации.


Используя VRF Lite можно легко пробросить VPN между разными концами сети. Для этого нужно настроить одинаковые VRF на всех промежуточных узлах и правильно привязать их к интерфейсам:

То есть R1 и R2 будут общаться друг с другом через одну пару интерфейсов в глобальной таблице маршрутизации, через другую пару в VRF TARS’ Robotics и через третью в VRF C3PO Electronic. Разумеется, это могут быть сабинтерфейсы.

Аналогично между R2-R3.

Таким образом, получаются две виртуальные сети, которые друг с другом не пересекаются. Учитывая этот факт, в каждой такой сети нужно поднимать свой процесс IGP, чтобы обеспечить связность. В данном случае будет один процесс для физического маршрутизатора, один для TARS’ Robotics, один для C3PO Electric. Соответственно, каждый из них будет сигнализироваться отдельно от других по своим собственным интерфейсам.

Если говорить о передаче данных, то пакет, придя от узла из сети TARS’s Robotics, сразу попадает в соответствующий VRF, потому что входной интерфейс R1 является его членом. Согласно FIB данного VRF он направляется на R2 через выходной интерфейс. На участке между R1 и R2 ходят самые обычные IP-пакеты, которые и не подозревают, что они принадлежат разным VPN. Вся разница только в том, что они идут по разным физическим интерфейсам, либо несут разный тег в заголовке 802.1q. R2 принимает этот пакет интерфейсом, который также член VRF TARS’s Robotics. R2 варит пакет в нужном FIB и отправляет дальше, согласно IGP. И так до самого выхода пакета ну другой стороне сети.

Как узел определяет, что полученный пакет относится к определённому VPN? Очень просто: данный интерфейс привязан («прибинден») к конкретному VRF. Как вы уже, вероятно, заметили, эти интерфейсы помечены на иллюстрации колечками соответствующего цвета.

Включим немного воображение:

Если пакет проходит через серое колечко, он переходит на серую сторону окрашивается в серый цвет. Далее он будет уже проверяться по серой таблице маршрутизации. Аналогично, когда пакет проходит через золотое кольцо, он покрывается благородной позолотой и проверяется по золотой таблице маршрутизации.

Точно также выходные интерфейсы привязаны к VPN, и соответствующие таблицы маршрутизации знают, какие за ними сети находятся.

Учитывайте, что всё, что мы говорим о таблицах маршрутизации, касается и FIB — в каждом VPN свой собственный FIB. Между маршрутизаторами пакеты не окрашены. Пакеты разных VPN не смешиваются, потому что идут либо по разных физическим интерфейсам, либо по одному, но имеют разные VLAN-теги (каждому VRF соответствует свой выходной саб-интерфейс).

Вот он простой и прозрачный VPN — для клиента сформирована самая что ни на есть частная сеть.

Но этот способ удобен, пока у вас 2-3 клиента и 2-3 маршрутизатора. Он совершенно не поддаётся масштабированию, потому что один новый VPN означает новый VRF на каждом узле, новые интерфейсы, новый пул линковых IP-адресов, новый процесс IGP/BGP.

А если точек подключения не 2-3, а 10, а если нужно ещё резервирование, а каково это поднимать IGP с клиентом и обслуживать его маршруты на каждом своём узле?

И тут мы подходим уже к MPLS VPN.

MPLS L3VPN

MPLS VPN позволяет избавиться от вот этих неприятных шагов:

  1. 1) Настройка VRF на каждом узле между точками подключения
  2. 2) Настройка отдельных интерфейсов для каждого VRF на каждом узле.
  3. 3) Настройка отдельных процессов IGP для каждого VRF на каждом узле.
  4. 4) Необходимость поддержки таблицы маршрутизации для каждого VRF на каждом узле.

Да как так-то? Рассмотрим, что такое MPLS L3VPN на примере такой сети:

Итак, это три филиала нашего клиента TARS’ Robotics: головной офис в Москве и офисы в Новосибирске и Красноярске — весьма удалённые, чтобы дотянуть до них своё оптоволокно. А у нас туда уже есть каналы.

Центральное облако — это мы — linkmeup — провайдер, который предоставляет услугу L3VPN.

Вообще говоря, TARS Robotics как заказчику, совершенно без разницы, как мы организуем L3VPN — да пусть мы хоть на поезде возим их пакеты, лишь бы в SLA укладывались. Но в рамках данной статьи, конечно, внутри нашей сети работает MPLS.

Data Plane или передача пользовательских данных

Сначала надо бы сказать, что в MPLS VPN VRF создаётся только на тех маршрутизаторах, куда подключены клиентские сети. В нашем примере это R1 и R3. Любым промежуточным узлам не нужно ничего знать о VPN.

А между ними нужно как-то обеспечить изолированную передачу пакетов разных VPN.

Вот какой подход предлагает MPLS VPN: коммутация в пределах магистральной сети осуществляется, как мы описывали в предыдущей статье, по одной метке MPLS, а принадлежность конкретному VPN определяется другой — дополнительной меткой.

Подробнее:

  1. 1) Вот клиент отправляет пакет из сети 172.16.0.0/24 в сеть 172.16.1.0/24.
  2. 2) Пока он движется в пределах своего филиала (сеть клиента), он представляет из себя самый обычный пакет IP, в котором Source IP — 172.16.0.2, Destination IP — 172.16.1.2.
  3. 3) Сеть филиала знает, что добраться до 172.16.1.0/24 можно через Сеть провайдера.

    До сих пор это самый обычный пакет, потому что стык идёт по чистому IP с частными адресами.

  4. 4) Дальше R1 (маршрутизатор провайдера), получает этот пакет, знает, что он принадлежит определённому VRF (интерфейс привязан к VRF TARS), проверяет таблицу маршрутизации этого VRF — в какой из филиалов отправить пакет — и инкапсулирует его в пакет MPLS.

    Метка MPLS на этом пакете означает как раз его принадлежность определённому VPN. Это называется «Сервисная метка».

  5. 5) Далее наш маршрутизатор должен отправить пакет на R3 — за ним находится искомый офис клиента. Естественно, по MPLS. Для этого при выходе с R1 на него навешивается транспортная метка MPLS. То есть в этот момент на пакете две метки.

    Продвижение пакета MPLS по облаку происходит ровно так, как было описано в выпуске про базовый MPLS. В частности на R2 заменяется транспортная метка — SWAP Label.

  6. 6) R3 в итоге получает пакет, отбрасывает транспортную метку, а по сервисной понимает, что тот принадлежит к VPN TARS’ Robotics.
  7. 7) Он снимает все заголовки MPLS и отправляет пакет в интерфейс таким, какой он пришёл на R1 изначально.

На диаграмме железо-углерод видно, как преображается пакет по ходу движения от ПК1 до ПК2:

Помните, чем хорош MPLS? Тем, что никому нет дела до того, что находится под меткой. Поэтому в пределах магистральной сети не важно, какие адресные пространства у клиента, то есть, какой IP-пакет кроется под заголовком MPLS.

Поскольку пакет коммутируется по меткам, а не маршрутизируется по IP-адресам — нет нужды поддерживать и таблицу маршрутизации VPN на промежуточных узлах.

То есть у нас получается такой удобный MPLS-туннель, который сигнализируется, как вы увидите дальше, автоматически.

Итак, в промежутке между R1 и R3 (то есть в облаке MPLS) ни у кого нет понимания, что такое VPN – пакеты VPN движутся по метками до пункта назначения, и только он уже должен волноваться, что с ними делать дальше. Это убирает необходимость поднимать VRF на каждом узле и, соответственно, поддерживать таблицу маршрутизации, FIB, список интерфейсов итд.

Учитывая, что весь дальнейший путь пакета определяется на первом MPLS-маршрутизаторе (R1), отпадает нужда и в индивидуальном протоколе маршрутизации в каждом VPN, хотя остаётся вопрос, как найти выходной маршрутизатор, на который мы ответим дальше.


Чтобы лучше понять, как передаётся трафик, нужно выяснить значение меток в пакете.

Роль меток MPLS

Если мы вернёмся к изначальной схеме с VRF-Lite, то проблема в том, что серый цвет IP-пакета (индикатор принадлежности к VPN TARS’ Robotics) существует только в пределах узла, при передаче его на другой эта информация переносится в тегах VLAN. И если мы откажемся от сабинтерфейсов на промежуточных узлах, начнётся каша. А сделать это нужно во благо всего хорошего.

Чтобы этого не произошло в сценарии с MPLS, Ingress LSR на пакет навешивает специальную метку MPLS — Сервисную — она идентификатор VPN. Egress LSR (последний маршрутизатор — R3) по этой метке понимает, что IP-пакет принадлежит VPN TARS’s Robotics и просматривает соответствующий FIB.

То есть очень похоже на VLAN, с той разницей, что только первый маршрутизатор должен об этом заботиться.

Но на основе сервисной метки пакет не может коммутироваться по MPLS-сети — если мы где-то её поменяем, то Egress LSR не сможет распознать, какому VPN она принадлежит.

И тут на выручку приходит стек меток, который мы так тщательно избегали в прошлом выпуске.

Сервисная метка оказывается внутренней — первой в стеке, а сверху на неё ещё навешивается транспортная.

То есть по сети MPLS пакет путешествует с двумя метками — верхней — транспортной и нижней — сервисной).

Для чего нужно две метки, почему нельзя обойтись одной сервисной? Пусть бы, например, одна метка на Ingress LSR задавал один VPN, другая — другой. Соответственно дальше по пути они бы тоже коммутировались как обычно, и Egress LSR точно знал бы какому VRF нужно передать пакет.

Вообще говоря, сделать так можно было бы, и это бы работало, но тогда в магистральной сети для каждого VPN был бы отдельный LSP. И если, например, у вас идёт пучок в 20 VPN с R1 на R3, то пришлось бы создавать 20 LSP. А это сложнее поддерживать, это перерасход меток, это лишняя нагрузка на транзитные LSR. Да и, строго говоря, это то, от чего мы тут пытаемся уйти. Кроме того, для разных префиксов одного VPN могут быть разные метки — это ещё значительно увеличивает количество LSP.

Куда ведь проще создать один LSP, который будет туннелировать сразу все 20 VPN?

Транспортная метка

Таким образом, нам необходима транспортная метка. Она верхняя в стеке.

Транспортная метка

Она определяет LSP и меняется на каждом узле.

Она добавляется (PUSH) Ingress LSR и удаляется (POP) Egress LSR (или Penultimate LSR в случае PHP). На всех промежуточных узлах она меняется с одной на другую (SWAP).

Распространением транспортных меток занимаются протоколы LDP и RSVP-TE. Об этом мы тоже очень хорошо поговорили в прошлой статье и не будем останавливаться сейчас.

В целом транспортная метка нам мало интересна, поскольку всё и так уже понятно, за исключением одной детали — FEC.

FEC здесь уже не сеть назначения пакета (приватный адрес клиента), это адрес последнего LSR в сети MPLS, куда подключен клиент.

Это очень важно, потому что LSP не в курсе про всякие там VPN, соответственно ничего не знает о их приватных маршрутах/префиксах. Зато он хорошо знает адреса интерфейсов Loopback всех LSR. Так вот к какому именно LSR подключен данный префикс клиента, подскажет BGP — это и будет FEC для транспортной метки.

В нашем примере R1, опираясь на адрес назначения клиентского пакета, должен понять, что нужно выбрать тот LSP, который ведёт к R3.

Чуть позже мы ещё вернёмся к этому вопросу.

Сервисная метка

Сервисная метка

Нижняя метка в стеке — сервисная. Она является уникальным идентификатором префикса в конкретном VPN.

Она добавляется Ingress LSR и больше не меняется нигде до самого Egress LSR, который в итоге её снимает.

FEC для Сервисной метки — это префикс в VPN, или, грубо говоря, подсеть назначения изначального пакета. В примере ниже FEC – 192.168.1.0/24 для VRF C3PO и 172.16.1.0/24 для VRF TARS.

То есть Ingress LSR должен знать, какая метка выделена для этого VPN. Как это происходит — предмет дальнейших наших с вами исследований.

Вот так выглядит целиком процесс передачи пакетов в различных VPN’ах:

Обратите внимание, что для двух разных VPN отличаются сервисные метки – по ним выходной маршрутизатор узнаёт, в какой VRF передавать пакет.

А транспортные в данном случае одинаковые для пакетов обоих VRF, потому что они используют один LSP – R1↔R2↔R3.

Терминология

Пока мы не ушли слишком далеко, надо ввести терминологию.

Когда речь заходит о MPLS VPN, появляется несколько новых терминов, которые, впрочем, вполне очевидны:

CE — Customer Edge router — граничный маршрутизатор клиента, который подключен в сеть провайдера.

PE — Provider Edge router — граничный маршрутизатор провайдера. Собственно к нему и подключаются CE. На PE зарождается VPN, на нём они и кончаются. Именно на нём расположены интерфейсы, привязанные к VPN. Именно PE назначает и снимает сервисные метки. Именно PE являются Ingress LSR и Egress LSR.

PE должны знать таблицы маршрутизации каждого VPN, ведь это они принимают решение о том, куда посылать пакет, как в пределах провайдерской сети, так и в плане клиентских интерфейсов. P — Provider router — транзитный маршрутизатор, который не является точкой подключения — пакеты VPN проходят через него без каких-либо дополнительных обработок, иными словами просто коммутируются по транспортной метке. P нет нужды знать таблицы маршрутизации VPN или сервисные метки. На P нет интерфейсов привязанных к VPN.

На самом деле роль P-PE индивидуальна для VPN. Если в одном VPN R1 и R3 — это PE, а R2 — P, то в другом они могут поменять свои роли.

Вот, например, на схеме ниже роли синих маршрутизаторов отличаются для зелёного клиента и для фиолетового:

Стек меток — набор MPLS заголовков, навешанных на один пакет. Каждый из них выполняет какую-то свою роль. В нашей реальности мало кто из вендоров поддерживает больше шести меток в стеке.

Будет и ещё ряд терминов, но их пока рано вводить.


В целом мы закончили с тем, как передаются данные, то есть как работает Forwading Plane.

Давайте подытожим:

Маршрутизатор PE навешивает на клиентский трафик две метки — внутреннюю сервисную, которая не меняется до самого конца путешествия и по ней последний PE понимает, какому VRF принадлежит пакет, и внешнюю транспортную, по которой пакет передаётся через сеть провайдера — эта метка меняется на каждом P-маршрутизаторе и снимается на последнем PE или предпоследнем P.

Благодаря наличию сервисной метки и VRF трафик различных VPN изолирован друг от друга как в пределах маршрутизаторов, так и в каналах.

И собственно, теперь можно сформулировать ряд беспокоящих вопросов:

1) Как распределяются метки MPLS?

2) Как распространяется маршрутная информация по каждому VPN?

3) Как маршруты разных VPN изолируются друг от друга и не смешиваются?

На эти и другие вопросы отвечаем ниже.

Control Plane или передача служебной (маршрутной) информации

Отвечая на них, как раз поговорим о том, как подготавливается вся эта среда, в которой будут успешно ходить пакеты данных.

Протоколы маршрутизации

Итак, мы имеем два типа сетей и стыки между ними:

  • Клиентская IP-сеть;
  • Магистральная сеть провайдера с запущенным на ней MPLS.

Граница этих сетей находится на PE. То есть одной своей половиной он уже клиентский, а другой — провайдерский. Не зря бытует народная мудрость: Как PE ни настраивай, он всё равно на клиентов смотрит.

MPLS настраивается только на магистральных интерфейсах.

Напоминаю, речь о L3VPN. А тут нужно заботиться о IP-связности. Причём теперь у нас куча ограничений. Разберёмся, какие протоколы на каких участках нам пригодятся.

Во-первых, нужно обеспечить базовую IP-связность внутри магистральной сети провайдера. Чтобы были известны все Loopback-адреса, линковые сети, служебные префиксы, возможно, какие-то выходы вовне.

Для этого запускается IGP (ISIS, OSPF).

Уже поверх связной сети поднимается MPLS.

Так мы обеспечили работоспособность магистральной сети. Во-вторых, у клиента в филиалах может стоять не по одному маршрутизатору, а какие-никакие сети. Эти сети тоже надо маршрутизировать внутри себя как минимум.

Очевидно, что внутри своей собственной сети клиент волен распространять маршрутную информацию, как ему угодно. Мы как провайдер на это повлиять не можем, да нам и без разницы.

Так обеспечивается передача маршрутов в пределах сетей клиентов. В-третьих, клиенту нужно как-то сообщать своим маршруты провайдеру. На стыке CE-PE клиенту и провайдеру уже нужно договариваться о том, какой протокол будет использоваться.

Хотя, едва ли у клиента какой-то свой самописный протокол IGP. Наверняка, это OSPF/ISIS/RIP. Поэтому обычно провайдер идёт навстречу и выбирает тот, который удобен клиенту.

Тут надо понимать, что вот этот протокол взаимодействия с клиентом работает в VPN и никак не пересекается с IGP самого провайдера. Это разные независимые процессы.

Зачастую на этом стыке работает BGP, поскольку позволяет гибко фильтровать префиксы по различным атрибутам.

Так провайдер получает маршруты клиентов.

До сих пор всё было понятно.

В-четвёртых, и это самое интересное — осталось передать маршруты одного филиала другому через магистральную сеть. При этом их надо по пути не потерять, не перепутать с чужими, доставить в целости и сохранности. Тут нам поможет расширение протокола BGP — MBGP — Multiprotocol BGP (Часто его называют MP-BGP). О нём мы сейчас и поговорим.

Но сначала посмотрите, что и где работает:

Может, на примере из реальной жизни будет немного понятнее.

Допустим, вы живёте в посёлке Ола и решили отдохнуть в Шэньчжэне.

  1. 1) На своих двоих, на машине или на такси вы добираетесь до автовокзала посёлка Ола (IGP внутри сети).
  2. 2) Садитесь на автобус, и он довозит вас до Магадана (IGP/BGP с провайдером).
  3. 3) В Магадане вам туроператор выдаёт ваши загранпаспорта, билеты и ваучер (внутренняя сервисная метка). Теперь вы стали членом определённого рейса (VPN).
  4. 4) В аэропорту всем без разницы, в какую гостиницу вы в итоге едете — их задача доставить вас в Шэньчжэнь (BGP), а для этого нужно посадить вас на правильный самолёт согласно вашему ваучеру (назначить внешнюю транспортную метку — PUSH Label — и отправить в правильный интерфейс)

    Итак, вы сели в самолёт. Этот самолёт является вашей внешней транспортной меткой, а ваучер — сервисной. Самолёт доставит вас до следующего хопа, а ваучер до гостиницы.

  5. 5) Самолёт летит из Магадана в Шэньчжэнь не напрямую, а с пересадками. Сначала вы вышли в Москве, пересели в новый самолёт до Пекина. Потом в Пекине вы пересели на самолёт уже до Шэньчжэня. (Так произошла коммутация по меткам — SWAP Label). При этом ваучер — сервисная метка по-прежнему у вас в кармане.
  6. 6) В Шэньчжэне вы вышли из самолёта (POP Label) и уже тут проверят ваш ваучер — куда вас собственно нужно везти (в какой VPN).
  7. 7) Вас садят в автобус до вашей гостиницы (IGP/BGP с провайдером).
  8. 8) Во дворе гостиницы вы самостоятельно находите дорогу до номера, через ресепшн (IGP внутри сети).

Итак, аэропорт Магадана — это PE/Ingress LSR, аэропорт Шэньчжэня — это другой PE/Egress LSR, аэропорт Москвы — P/Intermediate LSR.

Особенно интересно будет выглядеть PHP в этой фантазии.

MBGP

Сейчас ответим на два вопроса: как маршруты передаются в провайдерской сети от одного PE к другому и как обеспечивается изоляция.

В общем-то до сих пор не придумано ничего лучше для передачи маршрутов на удалённые узлы, чем BGP: и гибкость передачи самих маршрутов, и масса инструментов по влиянию на выбор маршрута, и политики получения и передачи маршрутов, и Community, сильно упрощающие групповые действия над маршрутами.

Если вдруг вы забыли, тот вот обычное сообщение BGP Update:

В секции NLRI оно переносит сам префикс. А в других секциях масса его параметров.

К его помощи и прибегают при реализации MPLS L3VPN. Поэтому его второе имя MPLS BGP VPN.

Вы ведь помните, как это происходит? BGP устанавливает сессию со своими соседями через TCP на порт 179. Это позволяет в качестве соседей выбирать не напрямую подключенный маршрутизатор, а те, что находятся в нескольких хопах. Так и работает IBGP, где в пределах магистральной сети предполагается связь «каждый с каждым».

Когда несколько маршрутов, ведущих в одну сеть, приходят на узел, BGP просто выбирает из них лучший и инсталлирует его в таблицу маршрутизации.

То есть в целом нам ничего не стоит передать маршрут VPN через сеть на другой её конец.

BGP должен взять маршруты из VRF на одном узле, доставить их на другой и там экспортировать в правильный VRF.

Вот только загвоздка в том, что BGP изначально ориентирован на работу с публичными адресами, которые предполагаются уникальными во всём мире. А клиенты-негодяи обычно хотят передавать маршруты в частные сети (RFC1918) и, как назло, они запросто могут пересекаться как с сетями других VPN, так и со внутренним адресным пространством самого провайдера.

То есть, если, например, R3 получит два маршрута в сеть 10.10.10.10/32 (один от TARS’s Robotics, другой от C3PO Electronic), он выберет только один — с лучшими показателями, как предписывает стандарт — он думает, что это два маршрута в одну и ту же сеть.

Естественно, нам это не подходит. Нужно, чтобы выполнялось два условия:

1) Маршруты разных VPN были уникальными и не смешивались при передаче между PE.

2) Маршруты в конечной точке должны быть переданы правильному VRF.

Этим проблемам было найдено элегантное решение. Начнём с п.1 — уникальность маршрутов.

В нашем примере 10.10.10.10/32 от TARS’s Robotics должен чем-то отличаться от 10.10.10.10/32 от C3PO Electronic.

BGP невероятно гибкий протокол (не зря ведь он стал единственным протоколом внешнего шлюза). Он легко масштабируется и с помощью так называемых Address Family он может передавать маршруты не только IPv4, но и IPv6 и IPX (да только кому он нужен). Хочешь передать что-то новое — заведи свою Address Family, И создал IETF новый Address Family. И дал он имя ему VPNv4 (или VPN-IPv4).

Route Distinguisher

Для того, чтобы различать маршруты различных VPN, обычный IPv4 префикс дополняется специальной приставкой длиной 8 байтов — RD — Route Distinguisher.

Тогда маршрут от C3PO будет выглядеть так: 64500:100:10.10.10.10/32, а от TARS так: 64500:200:10.10.10.10/32. И теперь это совершенно разные вещи, которые процесс BGP сможет друг от друга отличить.

Разберёмся что из себя представляет RD и как его определить.

Существует 3 типа RD:

Типы RD

Навеяно. Первая часть — сам тип (0, 1 или 2);

Вторая часть — Административное поле (Administrator field) — это всегда публичный параметр — публичный IP-адрес или публичный номер AS. Она необходима для того, чтобы ваши RD были уникальны не только в пределах сети, но и в пределах планеты.

То есть в Административной части не должны появиться случайно IP адрес 172.16.127.2 или AS 65001. Это может пригодиться в том случае, когда VPN нужно передать в сеть другого провайдера (а такое тоже не исключено в наше безумное время, и оно даже носит название Inter-AS VPN).

Третья часть — Выделенный номер (Assigned Number) — это уже то, что назначаете вы. Эта часть позволяет RD быть уникальным в пределах вашей сети и, собственно, определять VPN.

Как видите, RD уникальны в пределах планеты.

Вот два примера преобразования обычного IPv4-префикса 10.10.10.10/32 в VPNv4:

0:64500:100:10.10.10.10/32

или

1:100.0.0.1:100:10.10.10.10/32.

Какой выберете вы, не имеет значения, даже если в пределах сети вы будете использовать оба подхода одновременно. Даже для одного VRF на разных маршрутизаторах. Главная задача RD — разделить префиксы.

То есть если совсем простым языком: совершенно не важно, что вы настроите, главное, чтобы вы были уверены, что BGP никогда не спутает маршруты разных VPN.

Хотя систематизация ещё никому не мешала.

Обычно используют тип 0, Административное поле — это номер AS провайдера, а Выделенный номер вы выбираете самостоятельно. При настройке RD первые «0:» или «1:» (тип RD) сокращаются и получается так: 64500:100 и 100.0.0.1:100.

Cisco позволяет использовать типы 0 и 1.

Да, RD придётся настроить вручную и самому следить за его уникальностью. Но по-другому тут и не получится — сами маршрутизаторы не умеют отслеживать, есть ли на других узлах уже такой RD или нет. А если и есть, то не тот же ли самый это VPN?

И что же у нас получается?

    И что же у нас полу1) Приходит от CE анонс новой сети. Пусть это будет 10.10.10.10/32, как мы и договаривались. PE добавляет этот маршрут в таблицу маршрутизации конкретного VRF. Заметьте, что в таблице маршрутизации хранится обычный IPv4 маршрут — никаких VPNv4. А это и не нужно: VRF изолированы друг от друга, как мы уже говорили раньше — это отдельный, пусть и виртуальный маршрутизатор.
  1. 2) BGP заметил, что появился новый префикс в VPN. Из конфигурации VRF он видит какой RD нужно использовать. Компилирует из RD и нового IPv4-префикса, VPNv4-префикс. Получается так: C3PO: 64500:100:10.10.10.10/32

    или так:

    TARS: 64500:200:10.10.10.10/32

  2. 3) Создавая BGP Update, маршрутизатор вставляет туда полученный VPNv4-префикс, адрес Next Hop и прочие атрибуты BGP. Но кроме всего прочего, он добавляет в поле NLRI информацию о метке. Эта метка привязана к маршруту, или точнее говоря, VPNv4-префикс — это FEC, а в NLRI передаётся связка данного FEC и метки.

    По-английски это называется Labeled Route — по-русски, пожалуй, маршрут, снабжённый меткой. Так данный PE уведомляет своих соседей, что если те получили от CE IP-пакет в эту сеть, ему нужно назначить такую сервисную метку.

    BGP Update с RD

    Обратите также внимание на адрес Next Hop — это Loopback PE. И это очень правильно — Ingress PE должен знать, до какого Egress PE нужно отправить пришедший пакет с данными, то есть знать его Loopback, а дальше хоть потоп.

  3. 4) Дальше BGP Update передаётся всем соседям, настроенным в секции VPNv4 family.
  4. 5) Удалённый PE получает этот Update, видит в NLRI, что это не обычный IPv4 маршрут, а VPNv4. Помните, да: если придёт два маршрута в одну сеть от разных клиентов — они не перепутаются, потому что имеют разные RD. Далее Egress PE определяет, в какой VRF этот маршрут нужно экспортировать и, собственно, делает это. Так маршрут появляется в таблице маршрутизации и FIB нужного VRF, а оттуда уходит в сеть клиента.

    Теперь, когда PE получает от CE пакет с данными, который следует в сеть 10.10.10.10/32, в FIB этого VPN он находит сервисную метку (22) и Next-Hop (1.1.1.1). Инкапсулирует IP в MPLS, дальше ищет в уже глобальном FIB транспортную метку для Next Hop.

Сама транспортная метка как и прежде доставляется протоколами LDP или RSVP-TE, а сервисная — MBGP.

Сравните поле NLRI в обычном BGP и в MP-BGP.

NLRI


Route Target

Я ведь не зря выше в пятом пункте выделил фразу «определяет, в какой VRF этот маршрут нужно экспортировать» курсивом. За этой простотой скрывается ещё одна вещь — RT — Route Target.

Дело в том, что единственная роль RD — разнообразить жизнь BGP, то есть сделать маршруты уникальными. Несмотря на то, что он настраивается для VRF, он не является каким-то его уникальными идентификатором и на всех точках подключения это значение может быть даже разным. Поэтому PE не может определить в какой VRF засунуть маршрут на основе RD. Да и это было бы не совсем в традициях BGP — разбирать переданный адрес, анализировать его перед тем, как куда-то анонсировать. Для этих целей у нас есть политики. То есть в классическом BGP, пришлось бы вешать политики на экспорт маршрутов в VRF для каждого отдельно. И мы бы вручную отфильтровывали куда нужно пристроить каждый маршрут. Один шаг в сторону упрощения — использование community. При отправке маршрута с одного PE на другой можно устанавливать определённый community — свой для каждого VRF, а на удалённой по этому community уже настраивать экспорт в соответствующий VRF. Это уже выглядит удобно и убедительно.

В MBGP зашли ещё немного дальше — идею community развили до понятия Route Target. По сути, это то же community — RT даже передаётся в атрибуте Extended Community, только все политики работают автоматически.

Формат RT, точно такой же, как у обычного Extended Community. Например:

64500:100

То есть он похож на первый тип RD. Отчасти поэтому RD и RT так часто путают.

На одной стороне в VRF настраивается RT на экспорт маршрута — тот RT, с которым он будет путешествовать к удалённому PE. На другой именно это же значение RT устанавливается на импорт. И наоборот.

Обычно, если задача — просто организовать услугу VPN для одного клиента, то RT на экспорт и на импорт совпадают на всех точках подключения.

Возвращаясь к нашему примеру:

R1 посылает R3 маршрут к сети 10.10.10.10/32 (TARS’ Robotics), указывает метку и всяческие другие параметры, и в числе прочего в атрибут Extended Community он записывает RT на экспорт маршрута, который настроен для данного VRF: 64500:200.

R3 получает этот анонс, проверят community, видит 64500:200, а из конфигурации он знает, что маршруты с этим RT нужно импортировать в VRF TARS.

Красиво? Элегантно? Но это ещё не всё. Гибкость BGP и здесь проявляется в очередной раз. С помощью механизма RT вы можете импортировать маршруты как вам заблагорассудится как в пределах одного VPN, так и между различными VPN.

Вот вам два сценария:

1) Клиент хочет организовать топологию звезда, а не каждый с каждым. То есть центральная точка должна знать маршруты во все точки подключения, а вот те должны знать только маршруты до центра. Таким образом, любые взаимодействия между разделёнными клиентскими сетями будут осуществляться через центральный узел. Без всяких действий со стороны клиента — удобно же! Решение: У каждого филиала — свой RT на экспорт. В филиалах RT на импорт равен RT на экспорт, настроенный на центральном узле — то есть они могут получать маршруты от центра. При этом на импорт нет RT других филиалов — соответственно напрямую их маршруты они не видят. Зато в центре на импорт настроены RT всех филиалов, то есть он будет получать всё-всё-всё.

2) Допустим, помимо наших двух VPN появился третий — R2D2. У него есть какие-то свои задачи, но ещё они поддерживают сервера с прошивками для микропроцессоров, шаблонами, дополнительными модулями итд, которые необходимы C3PO Electronic. При этом он не хочет светить в мир своими серверами, а для клиентов обеспечить доступ через сеть провайдера. И тогда с помощью RT можно обеспечить взаимодействие между различными VPN. Для этого в C3PO Electronic мы настраиваем такой RT на импорт, который в VPN R2D2 был указан на экспорт. И, соответственно, наоборот.

Правда в этом случае нужно следить за тем, не пересекаются ли используемые подсети. Ведь несмотря на все RD и RT, BGP выберет только один маршрут в каждую подсеть в VRF.

Осталось увидеть процесс передачи маршрута от и до:


Практика

Традиционно на практике повторим всё то, что было до сих пор в теории.

VRF-Lite

Так и пойдём от простого к сложному. Начнём с ситуации, когда один клиент имеет два подключения в один маршрутизатор:

Сначала попробуем настроить всё так, как мы делали это раньше:

Linkmeup:

Linkmeup(config)# interface FastEthernet0/0
Linkmeup(config-if)# description To C3PO_1
Linkmeup(config-if)# ip address 192.168.0.1 255.255.255.0

Linkmeup(config)# interface FastEthernet0/1
Linkmeup(config-if)# description To C3PO_2
Linkmeup(config-if)# ip address 192.168.1.1 255.255.255.0

C3PO_1:

C3PO_1(config)# interface FastEthernet0/0
C3PO_1(config-if)# description To Linkmeup
C3PO_1(config-if)# ip address 192.168.0.2 255.255.255.0

C3PO_1(config)#ip route 0.0.0.0 0.0.0.0 192.168.0.1

C3PO_2:

C3PO_2(config)# interface FastEthernet0/0
C3PO_2(config-if)# description To Linkmeup
C3PO_2(config-if)# ip address 192.168.1.2 255.255.255.0

C3PO_2(config)# ip route 0.0.0.0 0.0.0.0 192.168.1.1

Пинг между филиалами появляется — они друг друга видят.

Но при этом они видят и, например, адрес Loopback R1:

Соответственно, они видят всю сеть провайдера и будут видеть сети других клиентов.

Поэтому настраиваем VRF:

Linkmeup(config)#ip vrf C3O

Чтобы в этот VRF поместить клиентов, нужно их интерфейсы привязать к VRF:

Linkmeup(config)# interface FastEthernet0/0
Linkmeup(config-if)# ip vrf forwarding C3PO
% Interface FastEthernet0/0 IP address 192.168.0.1 removed due to enabling VRF C3PO

Обратите внимание, что после выполнения команды ip vrf forwarding C3PO, IOS удалил IP-адреса с интерфейсов, теперь их нужно настроить повторно. Это произошло для того, чтобы удалить указанные подсети из глобальной таблицы маршрутизации.

Linkmeup(config)# interface FastEthernet0/0
Linkmeup(config-if)# ip address 192.168.0.1 255.255.255.0

Linkmeup(config-if)#interface FastEthernet0/1
Linkmeup(config-if)# ip vrf forwarding C3PO
% Interface FastEthernet0/0 IP address 192.168.1.1 removed due to enabling VRF C3PO
Linkmeup(config-if)# ip address 192.168.1.1 255.255.255.0

После повторной настройки адреса эти подсети появятся уже в таблице маршрутизации VRF.

Проверяем снова пинг:

А вот до внутреннего адреса провайдера уже не будет:

Аналогичные настройки нужно сделать и для клиента TARS:

Linkmeup(config)# ip vrf TARS

Linkmeup(config-if)# interface FastEthernet1/0
Linkmeup(config-if)# ip vrf forwarding TARS
Linkmeup(config-if)# ip address 100.0.0.1 255.255.255.252

Linkmeup(config-if)#interface FastEthernet1/1
Linkmeup(config-if)# ip vrf forwarding TARS
Linkmeup(config-if)# ip address 100.0.1.1 255.255.255.252

Вот и славно. VRF TARS и C3PO полностью изолированы от сети провайдера и друг от друга:


Теперь растягиваем удовольствие на сеть linkmeup:

Первый шаг настройки — создать VRF на каждом узле от R1 до R3:

Linkmeup_R1(config)#ip vrf C3PO
Linkmeup_R1(config)#ip vrf TARS
Linkmeup_R2(config)#ip vrf C3PO
Linkmeup_R2(config)#ip vrf TARS
Linkmeup_R3(config)#ip vrf C3PO
Linkmeup_R3(config)#ip vrf TARS

* Следует понимать, что VRF — это строго локальное для узла понятие. Вполне можно устанавливать разные имена VRF на разных маршрутизаторах. Второй шагсоздать цепочку линковых сетей между всеми узлами и привязать каждую пару интерфейсов к нужному VRF.

Мы не стали указывать на схеме линковые адреса, чтобы не загромождать её. Для порядка выберем префиксы 10.0/16 для собственно сети провайдера (VLAN1), 192.168/16 для C3PO Electronic (Vlan 2) и 100.0/16 для TARS’ Robotics (Vlan 3).

Linkmeup_R1:

Linkmeup_R1(config)#interface FastEthernet0/0
Linkmeup_R1(config-if)#description To C3PO_Electronic_1
Linkmeup_R1(config-if)#ip vrf forwarding C3PO
Linkmeup_R1(config-if)#ip address 192.168.0.1 255.255.255.0

Linkmeup_R1(config)#interface FastEthernet0/1
Linkmeup_R1(config-if)#description To Linkmeup_R2
Linkmeup_R1(config-if)#ip address 10.0.12.1 255.255.255.0

Linkmeup_R1(config)#interface FastEthernet0/1.2
Linkmeup_R1(config-subif)#description to Linkmeup_R2_vrf_C3PO
Linkmeup_R1(config-subif)#encapsulation dot1Q 2
Linkmeup_R1(config-subif)#ip vrf forwarding C3PO
Linkmeup_R1(config-subif)#ip address 192.168.12.1 255.255.255.0

Linkmeup_R1(config)#interface FastEthernet0/1.3
Linkmeup_R1(config-subif)#description To Linkmeup_R2_in_TARS
Linkmeup_R1(config-subif)#encapsulation dot1Q 3
Linkmeup_R1(config-subif)#ip vrf forwarding TARS
Linkmeup_R1(config-subif)#ip address 100.0.12.1 255.255.255.0

Linkmeup_R1(config)#interface FastEthernet1/0
Linkmeup_R1(config-if)#description To TARS_1
Linkmeup_R1(config-if)#ip vrf forwarding TARS
Linkmeup_R1(config-if)#ip address 100.0.0.1 255.255.255.0
Конфигурация других узлов

Третийподнять IGP в VRF.

Linkmeup_R1:

Linkmeup_R1(config)#router ospf 2 vrf C3PO
Linkmeup_R1(config-router)#network 192.168.0.0 0.0.255.255 area 0

Linkmeup_R1(config)#router ospf 3 vrf TARS
Linkmeup_R1(config-router)#network 100.0.0.0 0.0.255.255 area 0

Linkmeup_R1(config)#router isis 1
Linkmeup_R1(config-router)#net 10.0000.0000.0001.00

Linkmeup_R1(config)#interface FastEthernet0/1
Linkmeup_R1(config-if)#ip router isis 1
Конфигурация других узлов

ISIS для связности внутренней сети провайдера, OSPF для VPN.

OSPF поднимается и с клиентами, чтобы они изучали маршруты динамически. Соответственно, в них должна быть конструкция вроде этой:

C3PO_1(config)# router ospf 1
C3PO_1(config-router)# network 192.168.0.0 0.0.255.255 area 0

Собственно всё. Теперь каждая сеть знает свои маршруты:

В принципе, на базе одной физической сети мы создали три абсолютно самостоятельных виртуальных сети, внутри которых можно делать практически всё, что угодно — хоть свой MPLS поднимать.

Но, как и было сказано раньше — это очень инертное решение, поэтому переходим к MPLS BGP VPN.

MPLS L3VPN

Я предлагаю в этот раз не брать уже готовую сеть, где уже всё преднастроено. Сейчас интереснее будет пройти этот путь с нуля, пусть и только вехами, не вдаваясь в детали.

Итак, мучаем всё ту же сеть, но упростим её удалением одного филиала:


Начнём с одного клиента и двух точек подключения.

Клиентские маршрутизаторы имеют очень простую конфигурацию:

C3PO_1:

C3PO_1(config)# interface Loopback0
C3PO_1(config-if)# ip address 192.168.255.1 255.255.255.255

C3PO_1(config)# interface FastEthernet0/0
C3PO_1(config-f)# description To Linkmeup
C3PO_1(config-if)# ip address 192.168.0.2 255.255.255.0

C3PO_1(config)# router ospf 1
C3PO_1(config-router)# network 192.168.0.0 0.0.255.255 area 0

C3PO_2:

C3PO_1(config)# interface Loopback0
C3PO_1(config-if)# ip address 192.168.255.2 255.255.255.255

C3PO_1(config)# interface FastEthernet0/0
C3PO_1(config-f)# description To Linkmeup
C3PO_1(config-if)# ip address 192.168.1.2 255.255.255.0

C3PO_1(config)# router ospf 1
C3PO_1(config-router)# network 192.168.0.0 0.0.255.255 area 0

На клиентских узлах настроены линковые адреса с провайдером и интерфейс Loopback (как и прежде, мы используем этот интерфейс, чтобы имитировать сеть, дабы не плодить маршрутизаторы). То есть если на C3PO_2 мы увидим сеть 192.168.255.1/32, это значит, что мы увидели бы и всю сеть полностью.

В качестве локального протокола динамической маршрутизации используется OSPF. Собственно, именно он позволит сообщить адрес Loopback-интерфейса всем заинтересованным.

Что же касается сети провайдера.

Вначале мы приведём краткий порядок настройки, а потом покажем на примере.

  • Настройка базовой связности магистральной сети: IP-адреса, IGP.
  • Включение MPLS и LDP
  • Создание VRF и привязка к интерфейсам.
  • Настройка протокола маршрутизации с CE.
  • Настройка BGP и MBGP
  1. 1) Настраиваем IP-адреса: линковые и loopback. Клиентские пока не трогаем.

    Linkmeup_R1:

    Linkmeup_R1(config)#interface Loopback0
    Linkmeup_R1(config-if)#ip address 1.1.1.1 255.255.255.255
    
    Linkmeup_R1(config)#interface FastEthernet0/1
    Linkmeup_R1(config-if)#description To Linkmeup_R2
    Linkmeup_R1(config-if)#ip address 10.0.12.1 255.255.255.0
    

    Linkmeup_R2:

    Linkmeup_R2(config)#interface Loopback0
    Linkmeup_R2(config-if)#ip address 2.2.2.2 255.255.255.255
    
    Linkmeup_R2(config)#interface FastEthernet0/0
    Linkmeup_R2(config-if)#description To Linkmeup_R1
    Linkmeup_R2(config-if)#ip address 10.0.12.2 255.255.255.0
    
    Linkmeup_R2(config)#interface FastEthernet0/1
    Linkmeup_R2(config-if)#description To Linkmeup_R3
    Linkmeup_R2(config-if)#ip address 10.0.23.2 255.255.255.0
    

    Linkmeup_R3:

    Linkmeup_R3(config)#interface Loopback0
    Linkmeup_R3(config-if)#ip address 3.3.3.3 255.255.255.255
    
    Linkmeup_R3(config)#interface FastEthernet0/0
    Linkmeup_R3(config-if)#description To Linkmeup_R2
    Linkmeup_R3(config-if)#ip address 10.0.23.3 255.255.255.0
    

    Файл начальной конфигурации.

  2. 2) Теперь поднимаем ISIS в качестве IGP — он свяжет всю сеть linkmeup, распространив маршрутную информацию о линковых и Loopback-адресах.

    Linkmeup_R1:

    Linkmeup_R1(config)#router isis 1
    Linkmeup_R1(config-router)#net 10.0000.0000.0001.00
    
    Linkmeup_R1(config)#interface FastEthernet 0/1
    Linkmeup_R1(config-if)#ip router isis 1
    

    Linkmeup_R2:

    Linkmeup_R2(config)#router isis 1
    Linkmeup_R2(config-router)#net 10.0000.0000.0002.00
    
    Linkmeup_R2(config)#interface FastEthernet 0/0
    Linkmeup_R2(config-if)#ip router isis 1
    
    Linkmeup_R2(config)#interface FastEthernet 0/1
    Linkmeup_R2(config-if)#ip router isis 1
    

    Linkmeup_R3:

    Linkmeup_R3(config)#router isis 1
    Linkmeup_R3(config-router)#net 10.0000.0000.0002.00
    
    Linkmeup_R3(config)#interface FastEthernet 0/0
    Linkmeup_R3(config-if)#ip router isis 1
    

    На этом шаге получили глобальную таблицу маршрутизации — необходимая платформа для следующего шага.

  3. 3) Включаем MPLS и LDP:

    Linkmeup_R1:

    Linkmeup_R1(config)#mpls ip
    Linkmeup_R1(config)#interface FastEthernet 0/1
    Linkmeup_R1(config-if)#mpls ip
    

    Linkmeup_R2:

    Linkmeup_R2(config)#mpls ip
    Linkmeup_R2(config)#interface FastEthernet 0/0
    Linkmeup_R2(config-if)#mpls ip
    Linkmeup_R2(config)#interface FastEthernet 0/1
    Linkmeup_R2(config-if)#mpls ip
    

    Linkmeup_R3:

    Linkmeup_R3(config)#mpls ip
    Linkmeup_R3(config)#interface FastEthernet 0/0
    Linkmeup_R3(config-if)#mpls ip
    

    На этом шаге у нас построены LSP между всеми парами LSR:

    *Пример выделения меток на Linkmeup_R1.

    Это базис для VPN. Эти LSP — это набор транспортных меток.

    Мы выбрали здесь LDP, чтобы не усложнять конфигурацию. С RSVP-TE ещё поразбираемся в статье про Traffic Engineering.

  4. 4) Создаём VRF на двух узлах: Linkmeup_R1 и Linkmeup_R3.

    Linkmeup_R1:

    Linkmeup_R1(config)#ip vrf C3PO
    Linkmeup_R1(config-vrf)# rd 64500:100
    Linkmeup_R1(config-vrf)# route-target both 64500:100
    

    Linkmeup_R3:

    Linkmeup_R3(config)#ip vrf C3PO
    Linkmeup_R3(config-vrf)# rd 64500:100
    Linkmeup_R3(config-vrf)# route-target both 64500:100
    

    Это позволяет нам обособить все данные одного клиента от других и от сети самого провайдера.

    Здесь же указываем RD и RT. Поскольку задача у нас простая — связать все филиалы C3PO Electronic, то сделаем RD и RT совпадающими. Причём RT на Import и RT на Export тоже будут одинаковыми. Поскольку это обычная практика, существует даже специальная директива — both — тогда создаются оба RT сразу одинаковыми.

    В 8-м выпуске мы выбрали номер AS для сети linkmeup — 64500. Он и используется в качестве административного поля.

    Выделенный номер выбирается произвольно, но отслеживается, чтобы не было совпадения с другим, уже использованным.

  5. 5) Привязываем интерфейсы к VRF и указываем на них IP-адреса.

    Linkmeup_R1:

    Linkmeup_R1(config)#interface FastEthernet0/0
    Linkmeup_R1(config-if)# description To C3PO_Electronic_1
    Linkmeup_R1(config-if)# ip vrf forwarding C3PO
    Linkmeup_R1(config-if)#ip address 192.168.0.1 255.255.255.0
    

    Linkmeup_R3:

    Linkmeup_R3(config)#interface FastEthernet0/1
    Linkmeup_R3(config-if)# description To C3PO_Electronic_2
    Linkmeup_R3(config-if)# ip vrf forwarding C3PO
    Linkmeup_R3(config-if)#ip address 192.168.1.1 255.255.255.0
    

    В таблицах маршрутизации VRF C3PO должны появиться настроенные сети, как Directly connected.

  6. 6) Нужно поднять протокол маршрутизации с клиентом. В нашем случае это будет OSPF, хотя с равным успехом это мог бы быть и ISIS или EBGP. Данный процесс никак не должен пересекаться с глобальной таблицей маршрутизации, поэтому помещаем его в VRF:

    Linkmeup_R1:

    Linkmeup_R1(config)#router ospf 2 vrf C3PO
    Linkmeup_R1(config-router)# network 192.168.0.0 0.0.255.255 area 0
    

    Linkmeup_R3:

    Linkmeup_R3(config)#router ospf 2 vrf C3PO
    Linkmeup_R3(config-router)# network 192.168.0.0 0.0.255.255 area 0
    

    Учитывая, что у клиента OSPF уже настроен, мы должны увидеть адреса Loopback-интерфейсов в таблице маршрутизации.

    Как видите, Linkmeup_R1 видит 192.168.255.1, но не видит удалённый Loopback – 192.168.255.2. Аналогично и Linkmeup_R3 видит только маршруты со своей стороны. Это потому, что через сеть провайдера пока не передаются маршруты клиента.

  7. 7) Вот и пришло время MBGP.

    Помните, мы говорили о BGP Free Core в прошлом выпуске? Этот приём мы вполне можем использовать и здесь. Нам без надобности BGP на Linkmeup_R2 — там и не будем его поднимать.

    Первая часть — это базовая настройка соседей iBGP.

    Linkmeup_R1:

    Linkmeup_R1(config)#router bgp 64500
    Linkmeup_R1(config-router)# neighbor 3.3.3.3 remote-as 64500
    Linkmeup_R1(config-router)# neighbor 3.3.3.3 update-source Loopback0
    

    Linkmeup_R3:

    Linkmeup_R3(config)#router bgp 64500
    Linkmeup_R3(config-router)# neighbor 1.1.1.1 remote-as 64500
    Linkmeup_R3(config-router)# neighbor 1.1.1.1 update-source Loopback0
    

    Вторая часть — настройка Address Family VPNv4 — это то, что позволит с Linkmeup_R1 на Linkmeup_R3 передать клиентские маршруты. Заметьте, что мы активируем передачу community, потому что этот атрибут используется RT.

    Linkmeup_R1:

    Linkmeup_R1(config-router)# address-family vpnv4
    Linkmeup_R1(config-router-af)# neighbor 3.3.3.3 activate
    Linkmeup_R1(config-router-af)# neighbor 3.3.3.3 send-community both
    

    Linkmeup_R3:

    Linkmeup_R3(config-router)# address-family vpnv4
    Linkmeup_R3(config-router-af)# neighbor 1.1.1.1 activate
    Linkmeup_R3(config-router-af)# neighbor 1.1.1.1 send-community both
    

    Третья часть — это Address Family для данного конкретного VRF. Он работает с обычными IPv4 префиксами, но из VRF C3PO Electronic. Он нужен для того, чтобы передавать маршруты между MBGP и OSPF.

    Linkmeup_R1:

    Linkmeup_R1(config-router)# address-family ipv4 vrf C3PO
    Linkmeup_R1(config-router-af)# redistribute connected
    Linkmeup_R1(config-router-af)# redistribute ospf 2 vrf C3PO
    

    Linkmeup_R3:

    Linkmeup_R3(config-router)# address-family ipv4 vrf C3PO
    Linkmeup_R3(config-router-af)# redistribute connected
    Linkmeup_R3(config-router-af)# redistribute ospf 2 vrf C3PO
    

    Как видите, здесь настроен импорт маршрутов из процесса OSPF с номером 2.

    Соответственно, нужно настроить и импорт маршрутов в OSPF из BGP:

    Linkmeup_R1:

    Linkmeup_R1(config)#router ospf 2
    Linkmeup_R1(config-router)# redistribute bgp 64500 subnets
    

    Linkmeup_R3:

    Linkmeup_R3(config)#router ospf 2
    Linkmeup_R3(config-router)# redistribute bgp 64500 subnets
    

    И вот теперь всё завертится, закрутится.

    Маршруты на PE:

    Маршруты на CE:

    Пинг между клиентскими сетями:

    Попытка пинга провайдерской сети:

    Вот и славно.


    Подключение клиента по BGP

    Теперь подключим клиента TAR’S Robotics. Маршруты между CE и PE будут передаваться по BGP или, иными словами, поднимаем EBGP с клиентским маршрутизатором.

    Шаги 4 и 5 не будут отличаться. Приведём конфигурацию только одной стороны:

    Linkmeup_R1(config)#ip vrf TARS
    Linkmeup_R1(config-vrf)#rd 64500:200
    Linkmeup_R1(config-vrf)#route-target export 64500:200
    Linkmeup_R1(config-vrf)#route-target import 64500:200
    
    Linkmeup_R1(config)#interface FastEthernet1/0
    Linkmeup_R1(config-if)#description To TARS_1
    Linkmeup_R1(config-if)#ip vrf forwarding TARS
    Linkmeup_R1(config-if)#ip address 100.0.0.1 255.255.255.0
    
  8. 8) На CE EBGP настраивается самым обычным образом.

    TARS_1:

    TARS_1(config)#router bgp 64510
    TARS_1(config-router)#network 172.16.255.1 mask 255.255.255.255
    TARS_1(config-router)#neighbor 100.0.0.1 remote-as 64500
    

    Здесь указано, что TARS’ Robotics будет анонсировать свою сеть 172.16.255.1/32.

    OSPF по-прежнему может быть нужен, но он уже будет использоваться для маршрутизации внутри этого филиала и только.

    На PE всё то же самое, только не будет нового процесс OSPF (потому что с клиентом теперь EBGP, вместо OSPF) и меняется address family ipv4 vrf TARS:

    Linkmeup_R1:

    Linkmeup_R1(config-router)#address-family ipv4 vrf TARS
    Linkmeup_R1(config-router-af)#redistribute connected
    Linkmeup_R1(config-router-af)#neighbor 100.0.0.2 remote-as 64510
    Linkmeup_R1(config-router-af)#neighbor 100.0.0.2 activate
    

    Теперь Linkmeup_R1 является BGP-соседом TARS_1:

    Клиентские сети он получит сообщениями Update от CE.

  9. 9) Всё, что касается MBGP — то же самое. От того, что мы поменяли протокол взаимодействия с клиентом, в нём ничего не перевернётся.

    То есть уже сейчас всё должно заработать (если, конечно, вторая сторона настроена):

Полная конфигурация всех узлов с комментариями и без.


Что же мы натворили?

Давайте теперь проследим распространение меток.

Вот что передал Linkmeup_R1 узлу Linkmeup_R3.

Вы видите здесь метку 22 для FEC 192.168.255.1 и адрес Next Hop 1.1.1.1.

Как её понимает маршрутизатор?

В ТМ VRF C3PO он заносит информацию о том, какой Next Hop:

Рекурсивно вычислить, как доступен 1.1.1.1:

Сервисную метку можно увидеть в таблице BGP для VRF C3PO:

Кстати, здесь же видно и Next Hop.

Транспортная метка для FEC 1.1.1.1:

Но, как обычно FIB содержит всю актуальную информацию без многократных обращений к ТМ:

FIB говорит нам: упаковать пакет с DIP 192.168.255.1 в стек меток {17, 22} и отправить его в сторону 10.0.23.2 в интерфейс FE0/0.

Всё тут предельно ясно и детерминировано.


Давайте подытожим шаги настройки L3VPN с нуля в правильном порядке от общего к частному.

  1. Настроить IP-адреса провайдера: линковые и лупбэк. Все узлы, настроил и забыл.
  2. Настроить IGP в сети провайдера, чтобы обеспечить внутреннюю связность. Все узлы, настроил и забыл.
  3. Настроить MPLS + LDP (или RSVP TE, если необходимо). Все узлы, настроил и забыл.
  4. Настроить MBGP внутри сети провайдера. Только те PE, где есть клиенты, настроил и забыл.
  5. Настроить клиентские VRF, назначить RD, RT. Только те PE, где есть клиенты, настраиватся персонально для каждого.
  6. Добавить в VRF клиентские интерфейсы, настроить на них IP-адреса. Только те PE, где есть клиенты, настраиватся персонально для каждого.
  7. При необходимости поднять IGP/BGP с клиентом для обмена маршрутами. Только те PE, где есть клиенты, настраиватся персонально для каждого.
  8. Готово

Это были необходимые и достаточные действия для настройки базового L3VPN.

Ну и последний сценарий в рамках практики — это

Взаимодействие между VPN

Где-то там — далеко вверху — мы предположили существование некого третьего клиента — R2D2, у которого есть некоторые виды на C3PO — а конкретно они должны обмениваться маршрутами, находясь при этом в разных VPN.

Вот такая схема:

Здесь мы поработаем с RT — сделаем так, чтобы маршруты из VPN C3PO передавались в R2D2 протоколом BGP. Ну, и обратно — куда без этого?

Конфигурация маршрутизатора R2D2:

R2D2(config)#interface Loopback0
R2D2(config-if)#ip address 10.22.22.22 255.255.255.255

R2D2(config)#interface FastEthernet0/0
R2D2(config-if)#description To Linkmeup
R2D2(config-if)#ip address 10.22.22.2 255.255.255.252

R2D2(config)#router ospf 1
R2D2(config-router)#network 10.22.22.0 0.0.0.255 area 0

Настройка VRF на Linkmeup_R3:

Linkmeup_R3(config)#ip vrf R2D2
Linkmeup_R3(config-vrf)#rd 64500:300
Linkmeup_R3(config-vrf)#route-target both 64500:300
Linkmeup_R3(config-vrf)#route-target import 64500:100

Linkmeup_R3(config-router)#interface FastEthernet1/1
Linkmeup_R3(config-if)#ip vrf forwarding R2D2
Linkmeup_R3(config-if)#ip address 10.22.22.1 255.255.255.252

Linkmeup_R3(config-vrf)#router ospf 3 vrf R2D2
Linkmeup_R3(config-router)#redistribute bgp 64500 subnets
Linkmeup_R3(config-router)#network 10.22.22.0 0.0.0.3 a 0

Linkmeup_R3(config)#router bgp 64500
Linkmeup_R3(config-router)#address-family ipv4 vrf R2D2
Linkmeup_R3(config-router-af)#redistribute ospf 3

Собственно ничего здесь нового нет, за исключением настройки route-target в VRF.

Как видите, кроме обычной команды «route-target both 64500:300» мы дали ещё и «route-target import 64500:100». Она означает, что в VRF необходимо импортировать маршруты с RT 645500:100, то есть из VPN C3PO, как мы этого и хотели.

Сразу после этого маршруты появляются на R2D2:

После этого пинг успешно проходит до 192.168.255.2:

Но, если запустить пинг до адреса 192.168.255.1, то он не пройдёт. Почему?

Для интереса вы можете добавить на TARS_2 Loopback 1 с адресом 10.20.22.22/32 — такой же, как у Loopback 0 R2D2 и посмотреть что из этого получится.

Полная конфигурация всех узлов для сценария взаимодействия между VPN.

Доступ из VPN в Интернет

Может статься, что провайдер в тот же самый VPN подаёт и доступ в Интернет. Именно в VPN, не отдельный кабель, не отдельный VLAN, а именно доступ в Интернет через то же самое подключение, через те же адреса. Это может быть также капризом заказчика.

Тема интересная, но большая, поэтому я раскрою её чуть позже в отдельном микровыпуске.


Трассировка в MPLS L3VPN

Около года назад у меня была небольшая статейка с каверзными вопросами.

Среди них был один очень для нас актуальный.

Пришло время разобрать его получше.

Если вдруг, вы не знали, как работает обычная трассировка, то стыд вам я вкратце расскажу.

Вы отправляете получателю пакеты с постепенно увеличивающимся значением TTL. Обычно это UDP, но может быть и ICMP и даже TCP.

Сначала это 1. Пакет доходит до непосредственно подключенного маршрутизатора, тот уменьшает TTL, видит, что теперь он равен нулю, формирует сообщение «time exceeded in transit» и посылает его вам обратно. Так по адресу отправителя вы знаете первый хоп.

Потом это 2. Пакет доходит до второго маршрутизатора. Происходит то же самое, так вы узнали следующий хоп.

… Наконец TTL достигает N, узел назначения получает пакет, видит, что это к нему, формирует ответ (в соответствии с протоколом), по которому вы понимаете, что всё, кончено, и концы в консоль.

Кроме того, можно добавить, что на каждой итерации вы посылаете не один, а несколько пакетов (как правило, три).

В чём же особенность трассировки через L3VPN?

Пока пакет коммутируется по меткам значения каких-бы то ни было полей любых заголовков глубже MPLS не имеют никакого значения. В том числе и TTL. Маршрутизаторы ориентируются на TTL в заголовке MPLS.

И вот когда PE получает пакет от CE, есть два варианта:

  1. Скопировать значение TTL из заголовка IP в MPLS (Это режим Uniform).
  2. Записать в поле TTL заголовка MPLS 255 (Это режим Pipe или Short-Pipe).

В первом сценарии вы сможете увидеть каждый маршрутизатор на пути к получателю. Результат трассировки будет таким:

Механика же следующая:

  1. На первом шаге ничего не меняется. TARS_1 отправляет ICMP-запрос с TTL=1. R1 его получает, уменьшает TTL до нуля и отправляет на TARS_1 «time exceeded in transit». Первый хоп (R1) готов.
  2. TARS_1 отправляет ICMP-запрос с TTL=2.
    1. R1 его получает, уменьшает до 1, навешивает сервисную метку, навешивает транспортную метку, записывает в поле TTL значение 1, отправляет пакет с метками на R2.
    2. R2 его получает, уменьшает TTL до 0. Тут бы ему отправить обратно «time exceeded in transit». Но не по Сеньке шапка – нет у него ни сервисной метки для этого VPN, ни маршрута до отправителя – он же всего лишь ничем не примечательный P-маршрутизатор. Таким образом он формирует новый пакет, содержащий «time exceeded in transit». В этом пакете адрес отправителя принадлежит R2, а адрес получателя – TARS_1. Далее R2 навешивает на него ту же самую сервисную метку, что была и до этого, затем добавляет транспортную метку в сторону R3 и отправляет его на R3 (опять же можно сказать, что транспортную метку он не добавляет — PHP). То есть можно сказать, что он аккуратно вскрыл MPLS-мешок, выпотрошил IP-пакет, засунул на его место что-то новое и отправил дальше.
    3. Пакет доходит до R3. Тот его раздевает, обнаруживает, что получатель – TARS_1, чья сеть известна где-то там за VPN’ом, за R1. Он упаковывает его в MPLS с сервисной и транспортной метками и шлёт назад.
  3. TARS_1 отправляет ICMP-запрос с TTL=3. Он доходит до R3, который видит значение MPLS TTL, равное в данный момент 1, уменьшает его до 0 и возвращает «time exceeded in transit»
  4. TARS_1 отправляет ICMP-запрос с TTL=4. R3 уменьшает MPLS TTL до 1, снимает метку, копирует значение MPLS TTL в IP TTL. А дальше пакет благополучно доходит до TARS_2, тот отправляет ответ об успешном завершении. Трассировка закончена.

А что, если у меня есть закономерное желание, чтобы клиенты не видели топологию моей сети своими трассировками? Надо запретить, скажете вы. Как отец двухгодовалой дочки, я вам говорю: не нужно запрещать. Можно и нужно поступить хитрее – я просто не буду внутри своей сети уменьшать TTL MPLS до нуля. Для этого используется второй сценарий — установить TTL MPLS в 255. В этом случае при трассировке с TARS_1 вы увидите следующий путь: R1↔R3↔TARS_2.

  1. TARS_1 отправляет ICMP-запрос с TTL=1. R1 его получает, уменьшает TTL до нуля и отправляет на TARS_1 «time exceeded in transit». Первый хоп (R1) готов.
  2. TARS_1 отправляет ICMP-запрос с TTL=2.
    1. R1 его получает, уменьшает до 1, навешивает сервисную метку, навешивает транспортную метку, записывает в поле TTL значение 255, отправляет пакет с метками на R2.
    2. R2 его получает, уменьшает TTL до 254, меняет транспортную метку (или в данном случае снимает – POP Label) и отправляет на R3.
    3. R3, сняв все метки, видит, что TTL истёк и отправляет «time exceeded in transit» обратно источнику (естественно, упаковывая в сервисную и транспортную метки)
  3. TARS_1 отправляет ICMP-запрос с TTL=3. Он благополучно доходит до TARS_2, тот отправляет успешный ответ. Трассировка закончена.

И сколько бы ни было транзитных P-маршрутизаторов, TTL=3 будет достаточно всегда при трассировке с TARS_1 на TARS_2.

Поведение по умолчанию различается у вендоров.

Циска считает, что инженер знает, что делает и чем ему грозит каждое действие, поэтому выбирает первый путь, а, например, Хуавэй предпочитает перестраховаться — лучше сначала запретить, дабы чего не вышло, а потом инженер разрешит при необходимости.

Как бы то ни было, режим всегда можно поменять — в нашем случае в режиме глобальной конфигурации нужно для этого дать команду «no mpls ip propagate-ttl».

Замечательный пятидесятитрёхстраничный документ по трассировке на nanog.org.

Кстати, для MPLS есть особенные утилиы пинга и трассировки.

ВиО

Замечательная глава Вопросы и Ответы. Мне очень нравится, потому что сюда можно засунуть всё, чему не хватило места в основной статье.

В1: Можно ли говорить, что P — это Intermediate LSR, а PE — это LER?

Строго говоря, нет. Как минимум, потому что понятия LER, LSR — это базовый MPLS и касаются LSP, а P, PE, CE — только в VPN.

Хотя, конечно, обычно тот узел, к которому подключен клиент, выполняет и роль Ingress/Egress LSR в MPLS и роль PE в VPN.

В2: Почему MBGP — это MultiProtocol BGP, а не, например, MPLS BGP? Что в нём многопротокольного?

Задача BGP — передавать маршруты. Исторически и классически — это IPv4. Но помимо обычных префиксов BGP может передавать и массу других: IPv6, IPX, Multicast, VPN. Каждый тип префиксов настраивается как отдельный Address Family — то есть группа адресов одного типа. Собственно вот за эту возможность передавать маршрутные данные разных протоколов такой BGP и получил имя MBGP.

В3: Где передаются сами маршруты, RD и их атрибуты в MBGP?

RD является частью VPNv4-маршрута и вместе с ним передаётся в секции NLRI — Network Layer Reachability Information. RT передаётся в секции Extended Community, поскольку им и является по своей сути.

Вообще многие атрибуты VPN-маршрута в сообщении BGP Update вынесены в специальную секцию — MP_REACH_NLRI, частью которого являются привычные NLRI и Next-Hop.

В4: Так в чём всё-таки разница между RD и RT? Почему недостаточно только одного из них? И я правильно понял: RD не является идентификатором VPN, как и RT?

Да, ни RD, ни RT однозначно не идентифицируют VPN. Как для одного VPN на разных маршрутизаторах могут быть настроены разные RD/RT, так и для двух разных теоретически могут быть одинаковые RD/RT.

Ещё раз:

RD — Route Distinguisher — его основная и единственная задача — сделать так, чтобы маршруты не смешались в MBGP — два одинаковых маршрута из разных VPN должны быть таки двумя разными маршрутами. RD не говорит PE, куда нужно экспортировать маршрут и существует/работает только при передаче маршрута.

RT — Route Target. Он не помогает разделить маршруты разных VPN, но он позволяет экспортировать их в те VRF, в которые надо. То есть он имеет значение в момент импорта маршрута из VRF в самом начале и в момент экспорта в VRF на другом конце в самом конце. Передаётся в Extended Community.

Одного RD не хватит, потому что PE не будут знать, как правильно распорядиться маршрутами.

А одного RT не хватит, потому что маршруты смешаются при передаче и потеряются все, кроме одного.

Можно было бы оставить только RD, например, и на его основе решать, куда маршрут передать, но это и не гибко и идёт в разрез с принципами BGP.

В5: Молодой, человек, мы крупный оператор, мы занимаемся серьёзными вещами — строим Adnvanced LTE, пока поддерживаем 2G, у нас нет клиентов, которые хотят VPN, ваша гигантская статья бесполезна для нас.

Вовсе не зря. Как минимум ещё одно применение — это разделение своих собственных услуг в пределах своей же сети.

Например, если вы оператор сотовой связи и предоставляете услуги в сетях 2G, 3G, 4G и строите уже вовсю 5G, то свою сеть Mobile Backhaul MBH) вы можете разбить на 5 VPN: по одной для каждого поколения радиосвязи и одну для сети управления элементами. Это позволит к каждой сети применять свои правила маршрутизации, качества обслуживания, политики обработки трафика. А если совместить это ещё и с Traffic Engineering…

Причём тут даже не надо будет настраивать взаимосвязь между VPN в пределах MBH — каждая сеть изолирована от абонента до Core Network: у 2G в ядре стоит BSC, у 3G — RNC, у 4G — MME. И только в ядре сети на специальном маршрутизаторе или файрволе можно их скрестить.

А вот ещё пример: столь популярная ныне технология MVNO — Mobile Virtual Network Operator — когда одна сеть MBH используется для двух и более операторов. Здесь уже однозначно нужно будет разделять и властвовать.

Но как ни крути, да, MPLS VPN — это всё-таки преимущественно игрушка больших воротил телекома или интерпрайза.

В6: Не возьму в толк: как Egress PE, получив пакет с одной меткой, то есть если произошёл PHP, определяет что эта метка VPN, а не транспортная, и, соответственно, что по метке нужно передать его в VRF, а не скоммутировать куда-то дальше?

Всё очень просто — пространство меток для VPN, для LSP, для всевозможных FRR и CSC — общее. Не может быть такого, что для VPN и для LSP была выделена одна и та же метка. Ну а каждой метке при её создании ставится в соответствие её роль и действия при её получении.


Полезные ссылки

Горячо мной любимый Джеф Дойл: VPN в двух частях: Part I, Part II.

О различиях RD и RT пишет Jeremy Stretch: Route Distinguishers and Route Targets.


Заключение

Как вы могли заметить, создание L3VPN — это большое количество ручной работы. И в случае необходимости организовать взаимодействие между VPN, придётся настроить не только один Интернет-шлюз даже в самом правильном и красивом способе, но и клиентские PE.

Но вся эта работа необходима, здесь нет избыточности. Для контраста вспомните, во что бы вам встала настройка, VPN с помощью GRE или VRF-Lite.

И обратите внимание, маршрутизатор P — Linkmeup_R2 — оставался абсолютно неизменным в течение всех стадий настройки с момента первоначального включения на нём MPLS. Это ли не прелестно?!

Нельзя сказать, что этой небольшой статьёй мы объяли весь L3VPN, в частности остались за пределами общей картины такие интереснейшие вещи, как Inter-AS VPN, коих 3 вида, и CSC (Carrier Support Carrier). Но я надеюсь конкретно по этим двум механизмам написать отдельную статью.

L3VPN — вещь зрелая, продуманная и стандартизированная. У всех производителей она работает плюс/минус одинаково.

А вот впереди ещё статья про L2VPN, которая включит в себя AToM, VLL, PWE3 и VPLS. В ней узнаем, какую роль сыграли Cisco и Juniper в развитии этого направления, какие радости в нашу жизнь привносят такие услуги, как CES или EoMPLS. Наберитесь терпения — в этом году я постараюсь увеличить темпы, набрать обороты, раскрутиться и увеличить КПД.


Благодарности

Иллюстратор проекта — Анастасия Мецлер.

За помощь в подготовке статьи, спасибо JDima.


Автор
eucariot — Марат Сибгатулин (inst, tg, in)


Оставайтесь на связи

Пишите нам: info@linkmeup.ru
Канал в телеграме: t.me/linkmeup_podcast
Канал на youtube: youtube.com/c/linkmeup-podcast
Подкаст доступен в iTunes, Google Подкастах, Яндекс Музыке, Castbox
Сообщество в вк: vk.com/linkmeup
Группа в фб: www.facebook.com/linkmeup.sdsm
Добавить RSS в подкаст-плеер.
Пообщаться в общем чате в тг: https://t.me/linkmeup_chat

Поддержите проект:

like 207 views 209892 message 49

49 коментариев

  • в примере про VRF lite isis на всех роутерах комнфигурится командой:
    Linkmeup_R1(config)#router isis 1
    Linkmeup_R1(config-router)#net 10.0000.0000.0001.00

    Linkmeup_R2(config)#router isis 1
    Linkmeup_R2(config-router)#net 10.0000.0000.0001.00

    Linkmeup_R3(config)#router isis 1
    Linkmeup_R3(config-router)#net 10.0000.0000.0001.00

    Везде указано одинавое SystemId, и поэтому возникает ошибка:
    %CLNS-3-BADPACKET: ISIS: LAN L1 hello, Duplicate system ID detected from )

    нужно, наверное, вот так, и тогда работает:
    Linkmeup_R2(config)#router isis 1
    Linkmeup_R2(config-router)#net 10.0000.0000.0002.00

    Linkmeup_R3(config)#router isis 1
    Linkmeup_R3(config-router)#net 10.0000.0000.0003.00

    26 декабря 2023, 15:17
  • Прекрасная статья. Спасибо за труд.
    Вопрос, когда настаиваем ISIS

    Linkmeup_R3:
    Linkmeup_R3(config)#router isis 1
    Linkmeup_R3(config-router)#net 10.0000.0000.0002.00

    по идее net адресс долджен быть 10.0000.0000.0003.00
    Разве не так?

    26 июля 2017, 15:28
  • Как видите, здесь настроен импорт маршрутов из процесса OSPF с номером 2.
    Соответственно, нужно настроить и импорт маршрутов в OSPF из BGP:

    Linkmeup_R1:
    Linkmeup_R1(config)#router ospf 2

    Linkmeup_R1(config-router)# redistribute bgp 64500 subnets

    Linkmeup_R3:
    Linkmeup_R3(config)#router ospf 2

    Linkmeup_R3(config-router)# redistribute bgp 64500 subnets

    тут описка? роутинг процесс должен быть в соответствующем vrf

    2 декабря 2016, 15:38
  • C3PO_2:
    C3PO_1(config)# interface Loopback0

    А hostname почему C3PO_1?

    22 мая 2016, 10:08
  • Спасибо за статью.
    Возможно глупый вопрос, но возможно ли через MPLS L3VPN передавать идентификаторы VLAN? Если да, то как? Или же все заголовки Ethernet отбрасываются, так как коммутация происходит на 3м уровне?

    Смотрел в сторону EoMPLS из-за инкапсуляции Ethernet-кадров, но, насколько понял, для каждого VLAN там необходимо создавать свой собственный xconnect.

    Прошу тапками не кидаться, зелен еще в данных вопросах.

    18 мая 2016, 09:19
  • Марат, еще раз хочу выразить огромную благодарность за твои труды! Хотел обратиться к тебе с просьбой. Т.к. технологии каждый раз более хардкорны, и занимают все больше и больше времени, да и других дел у тебя хватает — дети, ремонты и т.д., то подкасты стали выходить с завидной регулярностью — раз в год. У меня же возникла необходимость в короткие сроки подтянуть знания по MPLS L2VPN и MPLS TE. Поэтому ждать классического развития событий: еще один ребенок, еще один ремонт, еще один выпуск MPLS L2VPN к 22 декабря 2016 года мне не очень подходит. 🙂 Мог бы ты посоветовать какие-то хорошие книги, по которым можно рассмотреть эти вопросы самостоятельно? Если русскоязычных нет, сойдут и англоязычные.

    11 апреля 2016, 18:10
  • добрый день
    многим клиентам кажется что предоставление операторами услуг ВПН лишь маркетинговый ход чтобы с них содрать деньги
    потому что пользуются ТимВьювером ОнЛайнБанками и прочими вебПриложениями
    им того достаточно
    клиенты спрашивают Зачем им разные уровни там Л3 Л2 когда достаточно веббраузера

    29 марта 2016, 15:08
  • Может кто-нибудь объяснить, зачем при настройке соседства в address-family vpnv4, мы первоначально устанавливаем соседство в «глобале» (сразу под «router bgp 64500»)?

    3 марта 2016, 19:39
  • Теперь нужно усложнить L3VPN. 🙂
    Предлагаю запилить L3 NGN mVPN over mpls используя mLDP или RSVP-TE p2mp туннели

    5 февраля 2016, 09:04
  • И как всегда автору большущее спасибо!!!

    27 декабря 2015, 20:17
  • Как всегда грандиозное Спасибо!!! Статья мега большая, но посмотрел пока только видео, которое в свою очередь как всегда порадовало ;). Не скажу, что понял всё, но постараюсь разобраться прочитав статью на досуге, когда не фиг будет делать на работе )).

    27 декабря 2015, 15:03
  • Спасибо. Я для себя, наконец, разобрался зачем при RT нужен еще и RD. Считаю, что в этой статье необходимо краткое упоминание о необходимости настройки Route Reflector для случая, если VPN поднимается на множестве узлов.

    24 декабря 2015, 03:05
  • Спасибо вам, как всегда, очень интересно.

    22 декабря 2015, 22:18
  • Спасибо за статью!
    Но все же немного не ясен такой момент: зачем может понадобиться L3VPN, если есть L2VPN? Какие преимущества у L3? Да, он решает проблему, когда у нескольких клиентов пересекаются сети RFC1918. Но в случае L2 по понятным причинам такого вопроса не возникает вообще. Клиент может менять внутреннюю адресацию хоть каждый день, провайдер об этом ничего не будет знать и все будет работать. Более того, если используется L3VPN, как я понял, нужно, чтобы у клиента стоял маршрутизатор, на котором поднят IGP с провайдерским роутером. А в 99% случаев (Россия, Московская область) у клиента нет такого железа (во-первых дорого, во-вторых нужен сетевой админ). Он просто хочет соединить две точки (или много точек), на которых он хочет иметь возможность подключать что угодно (от простого компа, до узко специализированного железа); и чтобы каждая точка видела другую. А это чистый L2VPN (если много точек, то VPLS).

    22 декабря 2015, 21:54
  • Спасибо за ваш труд

    22 декабря 2015, 20:20
  • Как всегда то, что нужно!

    22 декабря 2015, 16:00
  • Ясно. Пока по привычке искал Cisco документацию для самоподготовки к экзаменам (уж очень хорошо разжевывают), но большинство ссылок на MPLS Fundamentals 2006 года и более старые доки. Я конечно понимаю, что сверхнового в MPLS нет, но за 10 лет думаю все-таки появилось. Например, про Мартини и Компеллу Cisco вообще молчит. А в приведенной тобой книге уже на 2 странице упоминается: Kireeti Kompella, CTO Junos, Juniper Networks Наверно он просто не там работает, чтобы Cisco о нем говорила. 🙂

    12 апреля 2016, 14:52
  • Извини, пока я глубоко в тему не копал, обычно нечего толком посоветовать. Huawei Electronic Documentation — совсем не плох)
    MPLS Enabled Aplications — вообще огонь: там тебе и Martini Mode и Compella Mode и VPLS и PWE3. Только на английском и сложно.

    11 апреля 2016, 20:43
  • Своих материалов нет, есть собранный mVPN для оператора, который дает iptv. Правда только на джуниперах.

    5 февраля 2016, 10:36
  • Могу предложить только Inter-VPN взаимодействие и Common Services. В феврале.
    Если у вас есть, что сказать по mVPN и mLDP, будем рады опубликовать материал и дополнить цикл СДСМ! 🙂

    5 февраля 2016, 09:30
  • Являюсь заказчиком и не знаю организации сети провайдера но ситуация следующая:
    Госконтора в регионе, 20+ филиалов по всяким поселкам, в каждом по 3-4 компа, воткнутых в неуправляемый свитч, до поры до времени работали от Ростелекомовского ADSL-модема, пока в Москве не решиши, что всем нужен L3VPN.
    Правда вопрос с наличием CE-оборудования как-то подзабыли. В итоге все клиентское оборудование разместили в /28 CE-PE сети и, насколько я понимаю вместо типичного
    router bgp 1
    adress-family ipv4 vrf KEKEKE
    redistribute ospf 1

    сделали redistribute connected.
    Так что по факту сейчас в каждый офис приходит шнурок от провайдера и втыкается в неуправляемый свитч, никакого нового оборудования не потребовалось. Понятно, что это никак не масштабируется, но и разговор про плоскую сеть в 3 компа.

    28 декабря 2015, 13:33
  • я лишь заказчик, схемы их сети не знаю, но не думаю, что сильно отличается от представленного в данной статье примера)

    22 декабря 2015, 23:01
  • из прочитанного, просмотренного и настроенного клиенту достаточно L2-свитча, единственное условия подсети разных сайтов одного клиента должны быть разными. а дальше в бгп передаем подключенную сеть и все.

    27 декабря 2015, 20:16
  • так то да, вы правы. Просто я по своему опыту говорю. Провайдер, с которым я часто работаю, CE организует на своей сети. От меня задача предоставить разные подсети на удаленных узлах. Дальше на предприятие приходит шнурок, который нужно подключить в свою железку. И конкретно у этого оператора стоимость L2 и L3 одинаковая (хотя могу ошибаться т.к. заказываю всегда L3VPN)

    22 декабря 2015, 22:52
  • Опять же — оборудование у клиента, которое в большинстве случаев ему, кроме чем как для организации этого VPN, и не нужно. В этом я вижу основной минус L3VPN, который перечеркивает все плюсы. На практике, с реальными клиентами, не все так красиво как в теории, к сожалению.

    22 декабря 2015, 22:43
  • May Force be with you.

    27 декабря 2015, 15:33
  • О, вопрос балансировки в L2VPN — это настоящая головная боль. Особенно, если балансировка выполняется в двух местах — на первом уже отфильтровали обычно всё что только можно.

    24 декабря 2015, 09:36
  • спасибо за разъяснения, мне все это казалось гораздо проще

    23 декабря 2015, 18:44
  • Годится. Сам вчера отвечая на комментарии понял, что очень не хватает этой секции, иначе настройка пары десятков ВПН выглядит уже устрашающе.
    Когда буду писать статью про доступ в Интернет из ВРФ, добавлю и про RR. Спасибо.

    24 декабря 2015, 09:34
  • Если речь о Ethernet, то он уже может приходить с приоритетами. Нужно лишь включить доверие маркировке.

    Для других сервисов можно вручную назначить политику по добавлению значения ЕХР.

    24 декабря 2015, 09:32
  • И как там разные потоки трафика в л2 приоритезировать?

    23 декабря 2015, 23:48
  • L2VPN тоже можно спокойно приоритезировать. На входе по 802.1p, внутри по MPLS EXP.

    23 декабря 2015, 23:24
  • У L3vpn есть одно большое преимущество — это QOS в сети провайдера.

    23 декабря 2015, 23:05
  • Главное преимущество L3VPN над L2VPN, как раз в том, что клиенту не нужно иметь дорого оборудования на своей стороне. Достаточного одного линка и например свича. Так как всю маршрутизацию между узла делает оборудование провайдера(ов).

    22 декабря 2015, 22:21
  • Хороший вопрос — надо будет осветить его в следующей части 🙂
    1) L2VPN дороже именно в силу своей универсальности.
    2) L2VPN либо очень слабомасштабируем, либо это Compella-mode с BGP, новыми AF и всем отсюда вытекающим
    3) L2VPN, а точнее VPLS чреват петлями, как любой L2. Представьте себе широковещательный шторм не в одном домене доступа, а во всём городе или регионе.
    4) Если у компании нет денег на маршрутизатор, то уж подавно не будет денег на более или менее протяжённый L2VPN.

    Ну и в большинстве случае L3 за глаза. Тут больше возникает вопрос, а что за сценарий такой, что L3 не подходит?

    22 декабря 2015, 22:19
  • Действительно, дьявол кроется в масштабах.
    L3VPN в пределах города это что-то совсем ненужное. Да и стандартные архитектуры большинства ISP (по крайней мере крупных) обычно предполагают что в городе всего один(два-три) маршрутизирующий узел. Все ластмайлы сводятся на него.
    В таком случае все точки L3VPN придется сводить и терминировать в центре сети провайдера, что не выгодно и может быть затруднено.

    Для таких случаев очень годятся всякие Metro-MPLS решения (MPLS-T/MPLS-TP). Например те же PTN

    23 декабря 2015, 12:22
  • c L2VPN есть некоторые ограничения, о которых не всегда задумываются
    это конечно обычно связано с широкими каналами

    Если клиент со своей стороны подключает единичные устройства, и трафик представляет собой однородный поток, то это порой почти невозможно расбалансировать на несколько магисральных каналов, не важно через ECMP или LAG

    Для примера представьте клиента B2O, которому требуется L2 канал между двумя регионами присутствия. Он заказывает такой канал у федерального магистрала у которого магистральный канал на том участке 4*10G
    Клиент поверх L2VPN поднимает свой MPLS. Т.е. для PE весь поток представляет собой однородный flow с одними и теми же DMAC,SMAC и лезет в одну из четырех десяток на магистрали.

    Ну и стоит уточнить, что балансировать L2VPN могут только достаточно современные железки. 7609 или старые NE40 например не могут.

    23 декабря 2015, 12:15
  • «CE организует на своей сети»
    Хм… Интересно было бы посмотреть на такой вариант схемы L3VPN.

    22 декабря 2015, 22:56
  • Для интереса попробуйте сравнить цену L2-канала между Москвой и Новосибирском и L3.

    22 декабря 2015, 22:54
  • ааа, да-да чет не подумал так глобально (все местячково, опыта мало))))
    спасибо, напомнили, был давно опыт заказа между регионами, на L2 цена была в разы больше.

    22 декабря 2015, 22:54
  • К сожалению, это не мои оправдания, а попытки каким-то образом удовлетворить запросы клиентов. 🙂 Мы бы рады им сделать L3VPN, они понимают, что это такое, но им этого не нужно.

    22 декабря 2015, 22:52
  • Вероятно, мы говорим о разных клиентах 🙂
    Я всё же про большой/средний интерпрайз и телекомы. Не про сеть магазинов по городу.
    Для них, действительно, L2VPN, подозреваю, в цене не будет сильно отличаться от L3.
    Я L3 нежно люблю, поэтому буду бороться за него до последнего 🙂

    22 декабря 2015, 22:51
  • Очевидно, сценарии существуют и в 12-м выпуске я их опишу. Это, скорее, вопрос заказчику, а реально ли ему нужен L2VPN.

    Вы можете сколько угодно оправданий придумывать тому, что L2 не доставит хлопот, но я вам не поверю, поскольку сам каждый день сталкиваюсь с огромнейшей сетью, построенной на VPLS. Проблемы лезут со всех щелей. Строить всё на L2 — порочная практика. Один механизм MAC-withdraw чего стоит, а если у вас на аксессе кольца коммутаторов, да ещё и с транзитным оборудованием…
    BUM — это хорошо, пока в какой-то момент клиент не начнёт испытывать трудно предсказуемые проблемы с сервисами. Нечастая, но возможная ситуация.

    Сейчас примеров нет. Были, когда работал в местечковом провайдере и была необходимость арендовать каналы связи между городами.

    Просто попробуйте настроить пару десятков VPLS и сравнить это с настройкой VRF. Берём классический сценарий с Martini Mode в VPLS и RR для VRF. А потом это ещё поддерживать надо.

    22 декабря 2015, 22:47
  • Строго говоря, для L3VPN нужно, чтобы это был как минимум L3-свитчи. Потому что подсети должны быть таки разные в разных точках подключения.

    22 декабря 2015, 22:40
  • Но из статьи следует совсем обратное. На схемах везде приведены пользовательские CE-роутеры.

    22 декабря 2015, 22:34
  • Навскидку два сценария:

    1) Специализированные устройства, которые должны видеть друг-друга через L2 и никак иначе. IP не используют.
    2) Небольшое ООО (или ИП) с двумя точками, которое хотят подключить в свою локальную сеть офис в другом конце города. Тратить деньги на админа и маршрутизаторы из-за какого-то мелкого офиса тупо не хотят. И это им действительно не нужно.

    Это реальные примеры из жизни провайдеры. Не выдуманные.

    Широковещательный шторм нужно фильтровать на уровне access. На портах в сторону клиента лимит на количество BUM-пакетов. Тогда никто не пострадает, кроме самого клиента, конечно.

    А откуда информация, что L3, если брать его у ISP, выйдет дешевле? Есть примеры с ценниками реальных контор?

    22 декабря 2015, 22:32
  • 22 декабря 2015, 22:21
  • Рад, что помогает.

    22 декабря 2015, 21:55
  • Ну, супер! 🙂

    22 декабря 2015, 21:55

Ещё статьи

Задача №7.3
Схема: «итоговая схема задачи 7.1»Конфигурации устройств: прилагаютсяОписание проблемы:Не передаются данные между R1 и R4.Задание:Найти ошибку и исправить конфигурацию так, чтобы туннель между R1 и R4 установился и передавался трафик между ...
like 0 13175 1
27 февраля 2013
Big Monitoring Meetup#2
Кажется, нам удалось немного поучаствовать в зарождении новой ежегодной конференции. Да ещё и по узкому профилю, да ещё и не в подвальном формате. Итак, год назад был проведён BIG MONITORING ...
like 0 4702 0
8 мая 2018
Ответ к задаче №8.8
Создание тестов IP SLA для проверки доступности «google» и «yandex»: ip sla 10 icmp-echo 103.0.0.10 source-interface FastEthernet0/0 threshold 200 timeout 200 frequency 3 ip sla schedule 10 life forever start-time ...
like 0 12078 14
19 июля 2013