Что происходит с главной 3. Не в последний раз.

Linkmeup растёт и развивается, и на этот раз новость будет о том, как у нас в друзьях появился самый матёрый и крупный коммерческий ЦОД всея Руси – это, конечно же, DataLine.
Как и с историей про Миран ̶о̶п̶я̶т̶ь̶ снова спасибо нашему Антону.
Ну а то, что Антон работает архитектором сети в DataLine – просто случайное совпадение ;)

Теперь у нас две точки присутствия и гео-распределённая история между ̶У̶д̶о̶м̶л̶е̶й̶ Питером и Москвой.
Две площадки будут использоваться нами для разных задач, включая, конечно же, DR.
Площадка в Питере находится в Миран, а московская в DataLine, за что им всем большое спасибо.

Добрая половина инфраструктуры linkmeup переехала в облако DataLine уже как 5 дней назад, мы будем равнозначно использовать обе площадки для своих нужд.
Например разработка новых плюх, в том числе сайта (да-да, мы делаем новый сайт, дожили), будет вестись как на дедике в Миран, так и в облаке DataLine.
Для сайта уже разработан дизайн, написано ТЗ, и даже есть разработчики, которые трудятся, не покладая натруженных рук. И вот вам кусочек нового дизайна.



Боевой сайт и хостинг будет находиться в DataLine, но в случае падения астероида на Москву быстро может переехать обратно в Питер :)
Между ЦОДами ̶м̶о̶д̶н̶а̶я̶ ̶с̶х̶е̶м̶а̶ ̶с̶ ̶W̶i̶r̶e̶G̶u̶a̶r̶d̶ проверенная годами схема с GRE over IPSEC и всемогущим BGP для обмена маршрутами.
Напомним, что для связи мы продолжаем использовать NFV Mikrotik CHR.

Ещё одна важная для нас новость: полностью переделан сервер трансляции.
Теперь это не закостыленная виртуалка на Windows 7, а модное решение на последнем дистрибутиве Ubuntu с большим количеством улучшений и оптимизаций.
Начиная от банальных cgroups и nice-приоритетов, заканчивая ядром lowlatency. Или вы думали, что мы только язвительные шутки шутить в канале умеем?

Под капотом сервера крутится всем известный OBS (Open Broadcaster Software, если всё же он не всем известен).
Одна из возложенных на него задач – обработка звука на лету: прощайте шумы, клиппинг и выкручивание громкости плеера на максимум во время прямого эфира.
Ну и, само собой, OBS позволяет одновременно стримить и на ютуб, и в icecast, который установлен на этом же сервере.
Только не просите делать стримы с видео.
Мы по-прежнему любим делать подкасты, находясь в самом непотребном виде, а лицезреть, как Мамонт достает еду из бороды во время прямого эфира, наверняка, никакого удовольствия :)

В итоге мы теперь будем отдавать два потока. Первый привычным способом, но теперь по красивой ссылке live.linkmeup.ru на 443 порту.
Так что, чтобы мы больше не слышали оправданий, что на работе 8001 заблочили и эфир не послушать.
Прямые эфиры слушать всем и каждому! И не забывать задавать гостям самые каверзные вопросы, чтобы гости потели, но отвечали.

Второй поток, под напором новых веяний, мы отдаём на ютуб, где уже собралось 18000 потенциальных слушателей\зрителей.
Моду слушать подкасты на юутубе мы не понимаем, но старательно за ней следим и теперь соответствуем. Так что всё для вас, наши любимые слушатели.

Взаимодействие с гостями подкастов расширено добавлением дополнительных сервисов Mumble и Zoom в нашу вещательную схему, так что всё стало проще и удобнее.
Тем не менее основной точкой входа остаётся олдскульный, но всё всем уже доказавший teamspeak.
И мы, может быть, когда-нибудь дорастем до ваших вопросов голосом через один из этих сервисов. Или ещё чего придумаем. Или вы нам подскажете ;)

На этом с новостями пока всё, спасибо DataLine за ещё одну площадку, спасибо Миран за существующую.
Так стойте, забыли поблагодарить всех причастных,
Спасибо за этот праздник облачной жизни мощностью в

+ 100 mbit\sec интернета с резервом + любая характеристика по расширению ресурсов — это просто ползунок вправо!

Алине Каримуллиной (руководитель отдела контент-маркетинга), Сергею Мищуку (технический директор),
Михаилу Соловьёву (директор по развитию продуктов), Николаю Паршину (директор по производству) из DataLine.

И ещё раз спасибо Миран за поддержку, в частности Фёдору Русакову (директор по маркетингу),
Виталию Николаеву (главный инженер) за праздник дедикейтной жизни :)

Не забываем также поблагодарить Комфортел и лично Диму Петрова за различного рода помощь и содействие в наших проектах.

Вот теперь точно все.
Ну и продолжаем держать вас в курсе…

linkmeup и Миран. Или что происходит с главной 2.

Самые внимательные уже заметили перемены на главной и даже нашли им объяснение. На этот раз к нам приехал логотип Мирана, и наконец-то пропали мертворожденный Форум и завершённый CCIE за год.
Долгое время мы транслировали наши ежемесячные подкасты из под стола. В прямом смысле. Сервер вещания находился на домашнем компьютере Макса.
И мы достаточно легко мирились и с этим фактом и с тем, что сам Макс с дрожью в пальцах переживал каждый выпуск, боясь дышать в сторону TCP-портов, до тех пор пока в один непрекрасный день не случилось то, что случается со всеми незарезервированными системами. Точка отказа отказала.
И тут же на выручку пришёл Миран, который уже заглядывал в гости подкаста в 54-м выпуске.
Итак, теперь мы постояльцы на достаточно мощном дедике в ДЦ Мирана.


За что спасибо Фёдору Русакову (директор по маректингу), Виталию Николаеву (главный инженер) и Антону Клочкову (PR linkmeup).



Комментарий Фёдора на тему нашего к ним переезда (хотя мы и надеемся, что это не про нас):
Русскому человеку дано многое: честолюбие, нравственность, ответственность и прочие качества, но особое внимание мы уделяем упорству. Упорству и уверенности в том, что с нами ничего никогда не случится. У Иван Ивановича в соседнем офисе – да, а с нами – нет. А понимание приходит только тогда, когда уже пахнет жареным, в прямом смысле этого слова.
Так почему же многие, особенно небольшие организации, хранят свои данные не в специализированных помещениях? Ответ прост – это дешево. Но дешево не всегда равноценно понятию «выгодно». Ведь экономя на должном обслуживании сервера, собственники сами ставят свой бизнес под прицел многих негативных внешних факторов. Самый первый и наиболее вероятный — скачек напряжения. Во время простоя, секунда — на вес золота, а каждая последующая приближает момент потери всех данных, накопленных за долгие и упорные годы работы. И да, такое происходит даже если есть собственная современная электрическая подстанция. Второе – перегрев оборудования. В 90% случаев единственным охлаждающим элементов у вас будет вентилятор. В 10% — случайно опрокинувшийся чай со стола. Кстати человеческий фактор и есть третий негативный фактор. На сервер ведь можно не только что-то пролить, но и пнуть, задеть, уронить. Организации, находящиеся на первом этаже, рискуют столкнуться с потопом из-за прорыва трубы, в том числе не забываем про соседей сверху. Также мало кто уделяет внимание такому понятию, как охрана труда. По законодательству даже принтер категорически запрещено ставить вплотную с рабочим местом. Что уж говорить о сервере с его уровнем выделяемого электромагнитного излучения и уровнем шума. Все это – далеко не все события, ежедневно случающиеся с серверами под столами.
И в связи со всем вышесказанным, системный администратор рискует не только сам оказаться укрывающимся под столом от гнева начальства, но и под дверью самой организации. Еще хуже, если под трибуналом.
Так как же не дойти до точки невозврата? Есть два варианта. Первый — оборудовать свою собственную серверную комнату, что предполагает большое количество денежных затрат, времени и ресурсов. Второй — воспользоваться услугами дата-центра, который уже имеет все необходимое, соответствует тому или иному уровню безопасности, имеет системы резервирования на каждый элемент и работает 24/7/365, а его обслуживание ведется множеством специализированных инженеров.
Но выбор все равно всегда остается за вами. И пока он есть – мы будем довольно часто встречать сотрудников с сервером в руках и слышать одну и ту же историю о произошедшем fatality.


Сам сайт linkmeup на текущий момент по-прежнему хостится на серверах xgu.ru и в ближайшее время перевозить его мы не планируем.
В Миран уехал сервер трансляции, обеспечивающий нам ежемесячный (а в последние полгода уже, кажется, еженедельные) прямые эфиры.
В нашем распоряжении выделенный хост с 4ядерным Зионом, 16 гигов оперативы (руки начинают тянуться к Eve-NG) и 3ТБ SATA для бэкапов подкастов.
Организовано управление IPMI. На сервер установлен ESXI 6.5. Внутри живут виртуалки: транслятор, хостинг бэкапов, тестовый сервер.

Нам иногда задают вопрос: как работает трансляция. Рассказываем.

Сервер трансляции это win7sp1x64 на которую установлен SAM Broadcaster, Virtual Audio Cable, TeamSpeak Server, TeamSpeak Client.
Гости своими клиентами подключаются на наш сервер TS.
К нему же подключен через локального клиента podbot — некая немая сущность, которая всегда живет в канале TS и только слушает. Это для того, чтобы на сервер приходил стрим от всех остальных, который можно перенаправить в Virtual Audio Cable, а его в свою очередь в SAM.

SAM микширует музыкальную подложку с потоком голосовых данных идущих от podbot. Он же включает джингл, аплодисменты и формирует стрим на наш сервер Icecast (на xgu.ru), который уже раздает его слушателям. Сетевое обеспечение это инновационный NFV-рутер mikrotik x86. )

telecom №33. Работа катастрофоустойчивого хостинга

Гость 33-го выпуска Тимофей Кулин рассказывает о том, как он создал свой катастрофоустойчивый хостинг www.f1f2.ru/.

BGP для резервирования.
Ethernet-туннель для коммуникации между площадками.

Как это работает?

Скачать файл подкаста




Подписаться на podfm. Добавить RSS в подкаст-плеер.

Скачать все выпуски подкаста вы можете с помощью BT Sync (код: BYENRHD5UNKD5ZDIYFSB63WG2PEY2GIUN) или с яндекс-диска.

Статья Тимофея на Хабре для ознакомления с темой: habrahabr.ru/post/248837/.

Анонс подкаста. Выпуск 33

На этот раз поговорим на необычную тему — хостинг, но в разрезе сетевых вопросов, конечно.

Гость 33-го выпуска Тимофей Кулин расскажет о том, как он создал свой катастрофоустойчивый хостинг www.f1f2.ru/, какие сложности при этом были, какие решения пришлось применять.

Статья Тимофея на Хабре для ознакомления с темой: habrahabr.ru/post/248837/

Онлайн Трансляция

.



Задавайте вопросы онлайн: