spryt: странствующий вебмастер об авторе | контакты | PHP скрипты | Путешествия | Дешевые авиабилеты | Подкинуть деньжат

Архив рубрики ‘вебдев’

Интервью с Cheboor, разработчиком keys.so

Июль 4, 2016

Я большой любитель разных сервисов для вебмастеров и сеошников (с точки зрения разработки и заработка на них), хотя и мало какими пользуюсь, кроме своих. Поэтому я не смог упустить шанс выведать подробную информацию у автора одного из таких сервисов (известного в узких кругах), да и добротное интервью куда лучше штампованного рекламного поста) Хотя такой формат и не слишком мне привычен. Начнем-с:

Привет! Расскажи кратко о себе — уверен, большинство вебмастеров слышали или пользуются твоим сервисом keys.so, но лишь немногие знают, кто именно за ним стоит. Ты когда-нибудь вел блог?

Привет, меня зовут Дмитрий, в сети уже очень давно (первый сервер на колокейшен был взят в 2004 году), но блога никогда не вел. 33 года, программист, живу в Санкт-Петербурге. Наверно кто-то может меня помнить по проекту Smile SEO Tools — была такая программа для регистрации в каталогах.

Чем ты зарабатываешь на жизнь, и как к этому пришел?

Я успел поработать программистом в штате, поиграть в игру «собственная веб-студия», потом нырнуть в историю с shareware, пройти по тропе «заработок на сапе» и теперь оказался в текущей позиции, когда у меня есть несколько информационных сайтов и сервис keys.so. Но сейчас я не один, я работаю со своими партнерами, с которыми делятся и сайты, и сервис.

Дмитрий Cheboor

Старая добрая сапа =) Как пришел к идее создании такого сервиса — ведь на тот момент (октябрь 2015-го, если не ошибаюсь?) уже были конкуренты — база пастухова, spywords, сервисы для гугла и т.д. Что вообще предшествовало его появлению?

Прослушав марафон Смарта (осенью 2013) и сделав первый сайт по его технологии, я очень захотел разобраться, насколько много ребят серьезно подходят к вопросу производства таких сайтов, каков у них процент успешных проектов, стоит ли в это ввязываться.

У меня была неплохая база подсказок, база ключей из метрики и еще из нескольких источников. Не придумал ничего умнее, чем спарсить все топы, найти список «всех сайтов рунета», просканировать их на предмет меток adsense, сгруппировать-померять-сделать выводы. Сделал, померял, порадовался. Убедился в том, что надо нырять в контентники и допилил keys.so до состояния, когда он мог решать наши с ребятами задачи по сбору и кластеризации семантических ядер. Издержки на всю эту историю не нулевые, поэтому конечно хотелось как-то завернуть все в упаковку и продать кому-то еще. Сначала это были несколько знакомых, потом первые «честные» продажи (не знакомым людям), следом — договорились с Романом Пузатом о включении слайда keys.so в его марафон. В день релиза этого урока у нас был аврал, и мы убедились, что надо все доводить до более серьезной степени проработки.

Хоть конкуренты и есть – spywords, prodvigator, advodka, но на деле они про другое. Самая большая база у spywords и там 23 млн ключевых слов (когда я начинал кейссо – у них было 12 кажется, у меня – 60, сейчас – 76млн). Наверно для каких-то целей такого объема хватает. Для хорошей проработки ядра контентного сайта или даже для действительно проработанной кампании в Директе – явно недостаточно. А всякие плюшки в виде поиска сайтов одного владельца были совершенно никем не реализованы в таком объеме.

В общем у меня не было сильных сомнений в необходимости – это был собственный рабочий инструмент, которым мы делали свои сайты и на старте keys.so задача была переложить стоимость содержания этого инструмента на чужие плечи.

Меня самого сильно интересуют подобные сервисы, но все же в первую очередь — финансовая эффективность. Одно дело — сервис для себя и для знакомых, и совсем другое — успешный коммерческий продукт. Если я правильно понял, ты сам полностью создал сервис, или нанимал людей для некоторых задач? И самый главный вопрос — сколько сейчас платящих подписчиков, примерно?

Сервис в первую очередь под себя, поэтому вопросы финансовой эффективности долго оставались на втором плане. Сейчас они по-прежнему на втором плане, но начинаем работать над популяризацией сервиса, пробуем себя в маркетинге. Пока количество подписчиков не велико — около 100.

Весь код в конечном итоге написан мною, дизайн на аутсорсе. Один из моих партнеров просто гуру настройки серверов и он здорово помог как в вопросе подбора железа, так и в тюнинге mysql, совместно решалась часть технологических задач. В общем оказалось, что данных действительно много и когда их так много — это становится серьезной проблемой.

Сейчас поддерживаешь связь со Смартом/Пузатом? У Смарта все так же живой форум и новый марафон на подходе (правда, на форуме они собирают складчину на 30+ человек — очевидный признак того, что для таких вебмастеров цены все же высоковаты).

С Алексеем Смартом общаемся, правда, преимущественно не про keys.so. Во время его визита в Питер встречались, замечательно провели время, думаю о поездке в Самару, но вечно отодвигается. С Романом общение происходило как-то в деловом русле, думаю следующая встреча состоится на Кинзе, но вряд ли это будет какое-то личное общение. Найдется ли место для keys.so в рамках новых марафонов ребят я не знаю, но буду очень рад, если инструмент сочтут достойным )

По поводу складчин мы не переживаем, сейчас главная цель – популяризация сервиса.

Про поиск сайтов одного владельца — такие сервисы были и есть, многие даже открытые, но сейчас у тебя действительно очень много плюшек, которых нигде нет — поиска по Moevideo/Leadia и прочем (не хватает тизернета/бодиклика еще). А ситуации, когда код размещается только на внутренних страницах, а не на главной — тоже пробивается? База часто переиндексируется? (большая проблема таких сервисов — устаревшая информация)

my_sites

Так выглядит список сайтов с моим идентификатором адсенса на keys.so =)

Одно время модным способом сокрытия идентификатора было помещение его в отдельный js-файлик, например ads.js. большинство (точнее все сервисы, что видел я) такие ситуации разобрать не могли, роботы keys.so открывают все js, поэтому пробив сильно выше. И как ты правильно заметил — есть поиск и по другим сетям, список которых будет расширяться.

У keys.so есть три вида данных и все три имеют разную периодичность апдейтов:

  1. Частотности и биды ключей – стараемся обновлять данные раз в три месяца. Пока правда еще не было случая, когда база осталась бы неизменной в течение трех месяцев, т.е. апдейты проходили чаще;
  2. Результаты выдачи – декларируем срок годности 2 месяца, надеюсь будем управляться быстрее. Фактически же если сегодня данным по региону Москва три недели, то по региону Санкт-Петербург – одна неделя;
  3. Результаты сканирования доменов – в очередь на пересканирование домен встает по истечению трех месяцев с момента последнего сканирования. Новые домены встают в начало очереди. При этом сканирование у нас не всегда полностью меняет данные. Если наш робот видел на сайте идентификатор Adsense, а при следующем сканировании никакого Pubid не нашлось – старый удален не будет в течение шести месяцев. С каждого сайта мы открываем до 20 страниц, на каждой странице – все встреченные js. Т.е. если код только на внутренних – у нас есть все шансы его найти. Но роботы у нас довольно нежные – один сайт в один поток с совсем огромными таймауатами.

Получается, у тебя сейчас основной заработок все таки с информационных сайтов, несмотря на весьма неплохие результаты по подписчикам?

Да, пока основной источник дохода – сайты.

«данных действительно много» — да уж, я как-то собирал базу сайтов для рунета, для сохранения статистики — это явно цветочки по сравнению с тем, что у тебя) Для ощущения масштаба — сколько сейчас весит база mysql? Расскажи пару слов про стек используемых технологий.

Когда база в последний раз была единой она весила примерно 700гб на один регион, это с индексами. Теперь она разбита на несколько сотен баз, данные денормированы, многое дублируется. В общем шардинг во все поля. Думаю, сейчас объем порядка 800 гб на один регион и около 1.4тб на 2 региона.

Все прям на удивление просто. PHP + Mysql. Даже не MariaDB, которую попробовали, но в результате решили остаться на основной ветке. На клиенте совсем чуточка AngularJS. В порыве страсти был подход к задаче с MongoDB в качестве основного хранилища, первая версия роботов была написана на C++, но в результате от всего этого отказались в пользу более прозрачной системы, пусть и чуть более примитивной местами. В прошлой версии сервиса, т.е. две-три недели назад, одним из основных технологических моментов было использование Sphinx. Классная штука, но даже ее ампутировали, переиграв всю схему хранения данных и не только не упав в производительности, но даже выиграв раза в полтора-два.

Чем был обоснован такй выбор тарифной сетки и её возможностей? Стартовый тариф уже стоит довольно ощутимо, но при этом обладает весьма скромными возможностям (только собирать с единичных сайтов запросы/страницы, без группового анализа и поиска сеток сайтов). Базовый тариф, даже с учетом опта, будет подъемен только для веб-студии или оборотистых вебмастеров. Понятно, что такой ценой можно отсеять новичков и сократить нагрузку на сервер, но ведь это по сути приводит к вторичному рынку — люди берут доступ в складчину, или предоставляет вторичные услуги (а-ля сбора СЯ/выборки из базы). При этом есть софт с похожим функционалом для кеев, но при этом бесплатные (!!) — http://www.bukvarix.com/ например. Или ты вообще никак не анализировал это, а просто взял тарифы из спайвордса и чуть-чуть изменил?

Тарифы – посмотрели на конкурентов, сделали чуть дешевле, при этом в рамках тарифа дали чуть больше. Т.е. у условного «конкурента №1» маленький тариф стоит 1980р и там 5000 строк отчета за эти деньги – значит у нас 1500 рублей и 20 000 строк отчета. Большой тариф – 5000р – значит у нас примерно столько же, ведь функционала у нас сильно больше – и групповые отчеты просто безумно клевые 🙂 и поиск сетей конкурентов.

Я себя считаю весьма компетентным человеком в вопросе построения семантического ядра, сборе запросов и тд. При этом я реально не знаю, как построить ядро используя только Букварикс, базы Пастухова, MOAB или любую другую подборку ключей. Мне кажется, что это невозможно. Дело не в том, что базы хорошие или плохие, дело в том, что ты не знаешь, что в них искать.

А в подходе, который проповедует спайвордс, продвигатор, адводка и keys.so все просто – делаешь сайт про парники – скорми системе сайт teplicnik.ru и через 10 минут ты получишь супер-ядро, в котором будут такие слова, о которых ты не догадывался.

Про стоимость тарифов – имхо ты с другой стороны на это смотришь. Я считаю, что минимум 50% успеха контентного проекта – это его ядро. С помощью кейссо на Базовом тарифе, за 1 месяц я смогу наделать себе ядер на год вперед, вот без преувеличения. Подготовить одно ядро займет 10 минут, ну может 20. Конечно, это без кластеризации, без выделения рубрик, но это будет исчерпывающий список запросов тематики. Если я собираюсь делать относительно большой сайт, пусть на 300 статей. Наверно в среднем по рынку, сейчас себестоимость статьи с «публикацией чужими руками» выйдет в районе 500 рублей. Пусть 333, для удобного счета 🙂 В таком случае, подготовка всего сайта обойдется грубо говоря в 100 000 рублей. Если так, то 1 месяц Базового тарифа keys.so составит менее 5% от стоимости финального сайта. А правильное ядро – залог хорошего результата. В общем я уверен, что цена хоть и не бросовая, но весьма адекватна.

Ты так говоришь, как будто собрать ядро через кейссо это совсем просто)

Да, мне кажется, что это действительно довольно несложно. Если хочешь — можем сейчас попробовать собрать ключи под сайт какой-либо темы. Называй тематику или сайт-конкурент.

Ну, например, для сайта сейчас уже не очень актуальной тематики — свободных путешествий/таиланда, конкурент — life-trip.ru

https://www.youtube.com/watch?v=—oBvbROm9M

О, теперь понятней. Конкурентов для потенциальной покупки сайтов так искать куда проще) А как насчет гугла — они с яндексом все же на равных почти, у меня большинство сайтов имеют лучшие позиции в гугле, а не в яндексе. Не планируется его выдачу парсить?

Анализировать Гугл планируем, но это вопрос не сегодняшнего дня. Для информационных сайтов может быть доли двух поисковиков и соизмеримы, а для коммерции – Яндекс явно впереди. При этом мы сейчас пытаемся подстроиться под потребности контекстологов, а у них – непаханное поле – регионов в Яндексе много, адекватные данные (кроме кейссо) есть только для Москвы, хоть какие-то – еще для Питера. Сейчас выкатим десяток регионов, зададим новый тренд и уже следом можно будет переключиться на Гугл.

По поводу покупок сайтов – тут тоже кейссо может быть помощником – продавец рассказывает про перспективы роста, а ты видишь, что у сайта выраженных конкурентов нет, и 25% ключей дожаты в топ5 – роста ждать особо неоткуда. Говорят про «старый трастовый сайт» а все ключи глубже 10й позиции – наверно есть фильтры. Рассказывают про «первый сайт, хочу сделать новые» а у владельца 20 других площадок – может с этой что-то не то? Или предлагают слишком вкусную сделку и есть подозрения в мошенничестве, посмотри другие сайты, свяжись по контактам, указанным на них– вдруг предмет продажи угнали и пытаются быстро перепродать.

И базовый обзор сайтов доступен бесплатно, что тоже большой плюс (в том числе по предположению аудитории сайта, что иногда довольно сложно).

Ты говорил, что основной доход у тебя идет с информационных сайтов. Можешь немного описать свою «империю», стоит ли сюда соваться новичку? Ведь в том числе благодаря все более доступным инструментам и марафонам конкурентов становится всё больше, во многих тематиках очень горячо (со стороны). Как ты смог подняться? В паблике к сожалению довольно мало информации именно о серьезных вебмастерах, кроме буквально нескольких людей у всех на слуху.

У нас с партнерами все довольно скромно – порядка 30 сайтов, преимущественно строительной тематики. Почти все сайты сделаны с помощью keys.so – первые – с помощью маленького и слабенького внутреннего, последние – с помощью той версии, что в паблике.

Сейчас по моим наблюдениям рост сайтов стал более инерционным, если у новичка есть упорство и время – можно нырять, если хочется быстрых результатов, то вероятно лучше посмотреть в другие стороны. Я не думаю, что вход для новичков закрылся, но времена меняются и теперь надо больше требований предъявлять к качеству сайтов, к самому процессу их запуска.

Глядя на динамику развития сервиса (насколько я понял, в паблике он всего лишь полгода, а уже стам весьма востребован и прибылен) нет желания больше сосредоточится именно на создании сервисов/SaaS? Конечно, не будь изначально информационных сайтов и необходимости в ключах — не пришла бы в голову идея создать такой сервис. Но во все времена продавать лопаты было куда выгоднее, чем копать золото)

Да, конечно такие мысли крутятся. И если сейчас смотреть на мой рабочий день, то 75% энергии уходит в сторону keys.so, а сайты и остальное глубоко на вторых ролях. Сервисы – это красиво и клево, это работа с аудиторией, а не промывание тысяч уников в десятки кликов. Но технологически это сложнее. С сайтами все просто и понятно. Сделал, настроил, все. Дальше можно проплатить все домены-сервера, и уехать на два месяца, с сервисами так не получится. В общем пока сайты мне кажутся более предсказуемым и более стабильным видом деятельности.

Про лопаты – да, и у меня постоянно эта история в голове. Но что-то мне кажется, что в случае сайтостроения соотношение заработков другое. Да и основные продавцы лопат здесь – это не сервисы типа кейссо или мутагена, а биржи контента.

arb_direct

Сложнее, конечно, но на то мы и программисты)

Биржы контента конечно имеют большие обороты, но по чистому заработку сервисы с подпиской мало им уступают — даже имея аудиторию на порядки меньше. Саппорить несколько сотен знающих клиентов куда проще, чем тысячи исполнителей и заказчиков, зачастую неопытных.

Ты прав, чистых денег с бирж наверно не колоссальные количества, да и бирж то всего 4 грубо говоря (адвего, еткст, контентмонстр, турботекст), т.е. там видимо не разгуляться новичку) А саппорт — это мой персональный ад, как интроверту мне всегда хочется минимизировать общение с людьми.

Хм, можно наверное закругляться, и так объем приличный, и вроде бы интересные темы раскрыли)

Спасибо, Андрей, чет интервью оказывается интересная штука 🙂

Ага, особенно с интересными людьми, которые редко выходят в паблик)

keysso

Почему сервисы вытеснят статейники

Февраль 12, 2016

Жизненный цикл сайтов — штука странная. Какие-то живут годами, набирая аудиторию, другие — в одночасье её лишаются и исчезают. Разумеется, вебмастерам хочется иметь сайты первого типа, которым не страшны изменения в алгоритмах ПС, которые стабильно приносят доход и не дают причин для волнений. В последнее время такой «тихой гаванью» стали считаться статейники, на которые очень многие переключились — как на создание с нуля, так и на скупку. Но что в долгосрочной перспективе?

Но сначала определим, что является характерными чертам статейников (да и, в целом, вообще говносайтов):

  • Источники трафика: только ПС (>90%), еще хуже — только одна ПС (Гугл или Яндекс)
  • Число просмотров на посетителя: меньше 1.5
  • Возвраты посетителей: меньше 20% («постоянная аудитория» в LI, сравните «новые» и «посетители за день»)

Нет никакой разницы, уникальный ли шаблон на сайте, поддерживает ли он адаптивность, насколько устарели данные, есть ли в статьях фотографии, уник или копипаст, и прочее. Главное — это именно поведение посетителей на сайте. В худшем приближении статейник представляет собой сайт на вордпрессе, с сотней-другой постов по какой-то тематике, без комментариев, у которого весь траф с ПС с преобладанием яндекса (70:30 с гуглом), числом просмотров на посетителя 1.3, и все посетители — новые (90-97%).

Да, эти сайты собирают трафик, посетители читают статьи, кликают на рекламу, приносят доход. Это вполне выгодное вложение. Но что дальше? А ничего. Каждый день создаются новые статейники, вбрасывая в сеть миллионы знаков очередного рерайта. Посетители даже не вспомнят ваш сайт, если он чуть сдвинется в серпе, а в случае каких-то санкций от ПС (за агрессивную монетизацию например) сайт фактически прекратит существование (как прекратили существование сателлиты под продажу ссылок). Вопрос не в том, произойдет ли это — а в том, когда это произойдет. Может, через год. Может, через три. А может и через месяц.

О, я уже слышу «пользователям нужны ответы на их вопросы». Да, разумеется. Но вы уверены, что статейники предоставляют лучший контент? В интересующей меня тематике ответы на все вопросы я получаю либо на сайтах с документацией (php.net, htmlbook.ru), либо на stackoverflow.com. Все чаще я натыкаюсь на wikihow.com — хотя он не так популярен в РФ. Прослойку экспертного контента занимают профессиональные ресурсы и блоги, где не место рерайту или копирайту, а курировать такие проекты вебмастеру — слишком накладно. Что остается? Разный треш в виде женских сайтов, кулинарии, стройки, медицины и т.д., в который с радостью бросаются неофиты. И даже в них уже есть жирные лидеры, обросшие лояльной аудиторией и доверием поисковиков.

На марафонской встрече вебмастеров у f-seo

Какой выход? Самому становится тематическим лидером, разумеется. А для этого придется вкладываться в сайт — причем не в статьи и числа на счетчике, как многим привычно, а в бренд, в технические дополнения, в социалки, всё по взрослому. Когда 30-50% посетителей — вернувшиеся (неважно, из ПС или из закладок). Когда сайт обрастает обратными трафовыми ссылками с форумов, которые оставляют сами пользователи. Когда вам выгодней продавать рекламу напрямую, а не через ПП.

Или же заниматься сервисами/платформами. Это еще более гиморней и затратней, но в итоге это дает большую автономность и масштабируемость. Более лучший сервис со временем перетягивает аудиторию на себя — как это случилось с пикабу, который относительно быстро обошел старую гвардию полуварезных развлекательных сайтов на DLE — с удобным функционалом, дизайном и редакторской политикой. В то время как тот же башорг, застряв в прошлом, продолжает терять аудиторию. Се ля ви.

Развлекалово не тянет? Пожалуйста, хабр и прочие продукты TM. Вопросы и ответы? Ответы.майл собирают 87м посетителей в месяц — это пятый по посещаемости сайт в рунете (согласно рейтингу LI). Популярный кулинарный сайт на 800к уников в день — кто пишет рецепты? Пользователи. Аггрегаторы (к примеру, цен на товары) тоже не особо страдают от недостатка посетителей. Фактически, если зайти в рейтинг LI и начать листать сайты — большая часть на первых страницах либо наполняется пользователям, либо сервисы/платформы, либо событийные.

Мы люди маленькие, нам достаточно и небольших сайтов — да, конечно. Различных тематик — сотни, постоянно появляются новые инфоповоды, гиганты не всегда это отслеживают. В одном рунете больше 15к сайтов с посещаемостью больше килоуника в день — так что почему бы и нет. Интернет он большой, в каких-то тематиках нет бОльшого размера аудитории, да и мало какие вебмастера мыслят в масштабах сотен тысяч посетителей (или хотя бы десятков).

И возвращаясь к теме статейников — если ваши сайты по профилю поведения пользователей не отличаются от дорвеев, как долго будет продолжаться праздник? Не задумывались, почему при очевидной простоте перехода на сайты под бурж (ключи/СЯ уже есть, работа ведется и так с фрилансерами-копирайтерами, просто заменить русскоязычных на англоязычных, или вообще засадить обычных переводчиков с филфака) все продолжают жрать кактус работать в рунете с копеечными ценами на клики? Ответ прост — потому что Яндекс позволяет вам это делать (обратите внимание на первый пункт — у многих статейников не просто весь траф с ПС, он еще и идет только с Яндекса), в отличие от гугла (с которыми по общему трафику в рунете разница небольшая — всего на 5% меньше, чем у яндекса). Рунет отстает от буржунета в SEO на 3-5 лет — считайте сами дальнейшие перспективы.

google

Такие дела. Не забывайте про диверсификацию.

PS. Для любителей аналитики — найдите самый популярный сайт в рунете, который будет соответствовать критериями статейника/говносайта выше) Для проверки можете использовать liarchive.ru — там данные и по посещаемости, и по просмотрам на посетителя, и по постоянной аудитории. Подсказка — это женский статейник на 80 килоуников, который их поднял за полгода (и с открытой статой). В основном всех срубает на 30-40к в день, тематики стандартные — женская, медицина, новости.

LiArchive — история посещаемости сайтов с закрытыми счетчиками

Октябрь 21, 2015

Я очень часто занимаюсь анализом сторонних сайтов (для покупки, рекламы, анализа ниш и т.д.), и очень часто счетчик LiveInternet есть, данные на счетчике показываются, но сами статы закрыты. Конечно, можно прикинуть примерную посещаемость (данные за 24 часа и за 31 день), но этого не всегда достаточно — могут быть спады в выходные, динамика может быть негативной, ну и вообще неудобно. Учитывая, что более чем 70% сайтов статы закрывают — становится грустно. Однако — сами цифры не счетчиках закрывают около 5% сайтов, поэтому появилась идея для сервиса, который каждый день будет собирать статистику за 24 часа для каждого сайта и сохранять её для анализа. Сказано — сделано:

liarchive

Основная проблема возникла не с самого считывания стат, а с получением списка сайтов. В рейтинге LI участвует 700к сайтов — это всего лишь половина сайтов со счетчиком. Поэтому пришлось затариваться базами и проверять, проверять, проверять — базы ЯКа, DMOZ, топ 1м алексы, доноры сапы, все RU и SU домены (наиболее затянутое — пришлось чекать 5м доменов). В итоге удалось получить список из 1,094,925 сайтов с открытым счетчиком LI, для которых уже больше месяца и собираются данные. Все еще остается 400к неучтенных сайтов, но все же покрытие неплохое, и все более-менее посещаемые и публичные сайты в базу попали.

Кроме того, на основе этих данных я попытался рассчитать уровень «постоянной аудитории» для сайтов. Благодаря сервису мы имеем реальную среднюю посещаемость в день, а с публичных данных счетчика — число уникальных посетителей в месяц. Сравнивая их, мы получим число посетителей, которые посещают сайт регулярно (к примеру, посещаемость топсапы — 1000 уников в день, уникальных посетителей в месяц же только 16к. Из этих данных получается, что 500 человек заходит на сайт регулярно — что подтверждается данными на странице «постоянная аудитория», а так же по «числу новых посетителей»). Только все это доступно для любых сайтов с отображением статистики на счетчиках, поэтому не нужно гадать, что перед тобой — статейник по ПС или сервис с аудиторией.

Энджой — http://liarchive.ru/

Из технической информации — опрос счетчиков начинается в 10 вечера, и продолжается около полутора часов (250 сайтов в секунду). Работает на старом добром PHP, с использование библиотеки RollingCurl, в 20 потоков (можно выше, но впска не резиновая, незачем заваливать la). Графики на Google JS charts мегатормозные, серверных либ — совсем мизер, с отвратительным UI. Поэтому пришлось мучить уже deprecated Google Images Chart API, чтобы все работало быстро и было красиво. Сервис все еще в бете (не настроено регулярное добавление свежих сайтов и доменов, нет поддержки кирилических доменов), но предложения и сотрудничество приветствуется.

Второй вариант использования — это выборки сайтов по параметрам, но этот сервис в паблик скорее всего не выйдет. Так же как выборки посещаемости за более длительное время (когда они наберутся конечно). Се ля ви)

PS. Уже подумал, а стоит ли вообще делать сервис открытым.. Ведь чем больше людей о нем узнает — тем больше людей будет закрывать отображение статистики на счетчиках (я уже так давно делаю для нужных сайтов), не исключено и повышенное внимание со стороны самого LiveInternet. С другой стороны, многие сайты уже и так закрыли статы, а аудитория у блога не настолько большая, чтобы это как-то сильно повлияло. Пусть будет одним сервисом для анализа сайтов больше =)

Защищаем сайт с помощью CSP

Сентябрь 11, 2015

Вы наверное замечали в статитике LI в графе «переходы на другие сайты» кучу непонятных доменов вроде x8k.ru, quick-searcher-sng-v2.com или *.xyz? Причем на сайте ничего такого нет и в помине, никаких вирусов, ничего. Откуда же они все берутся?

li_xyz

Все просто. Помните инсталлы, которые ушлые вебмастера забрасывают юзерам? С ними в систему устанавливаются многочисленные тулбары, малвари и даже целые браузеры. Вы же не думаете, что люди их написавшие просто так платят по 2500 рублей за 1000 установок их софта? Разумеется нет. Но если в открытую красть деньги со счета в сбербанке слишком палевно и подпадает под УК, то просто добавлять на посещаемых сайтах рекламу — совершенно безопасно. Конечно, их возможности ограничены, но они могут на любой сайт встроить свой js, который может делать что угодно — заменять ваш адсенс код тизерам, ставить попап с рекламой, кликандер, что угодно. Не забывайте — в LI лишь палятся те сайты, которые сами используют LI (что глупо). На моем сайте развлекательной тематики 10-30% юзеров оказались заражены такой фигней (на секундочку забудем, кто именно подсовывал им инсталлы).

Конечно, такой возможностью пользуются не только злоумышленники — есть и вполне «белые» плагины и расширения браузера, которые с помощью такого яваскрипта делают полезные вещи. Например, советник яндекса, или плагин от Evernote. Но в большинстве случаев это именно малвари. И, к сожаелению, SSL тут не спасет — половина этой малвари грузится через https, а внедрение происходит на уровне браузера.

В идеальном мире сами браузеры должны заниматся защитой пользователей (а грамотные пользователи не попадутся на такие вещи — поэтому на сайтах с более-менее продвинутой аудиторией такой проблемы нет). Но увы, разве что Яндекс.Браузер делает какие-то шаги. В некоторых случах поисковые системы даже накладывают санкции за такие вещи (впрочем, никогда с этим не сталкивался, лишь на основе сообщений на форумах) — особенно если это касается развлекательных сайтов с хорошей аудиторией. Но даже без этого часть пользователей ваших сайтов скорее всего видит не один аккуратненький баннер адсенса, а вакханалию из полурабочего сайта, заваленного шок-тизерам. Что напрямую влияет и на ваш собственный доход, и на отношение пользователей.

Но что же делать? Все просто — все таки данный софт действует в рамках браузерных ограничений, которые предписывают ему следовать кое-каким правилам. Если сайт указывает, что нельзя загружать любые js файлы, кроме как с собственного домена — то так оно и будет. Тоже самое касается изображений и стилей. Да, всего лишь) Называется данная технология Content Security Policy.

Первый пациент — это сервис с 5000 уников в сутки довольно развлекательной тематики. Каждый день 150 человек переходили на левые сайты через такие расширения (повторюсь, это только среди тех идиотов, которые использовали LI на своих TDS для перенаправления посетителей). С установкой CSP каждый день блокировалось 10.000 случаев подгрузки левых JS-файлов (во первых, каждый пользователь загружал несколько страниц, каждый раз вызывая блокировку. Во вторых, при просмотре одной странице к ней могли попытаться подгрузится 5-10 файлов — даже не знаю, как они решают конфиликты между собой, если каждый из них будет вешать кликандер =). Вот выборка самых популярных доменов за три дня:

csp

Как видите, полный фарш — и Яндек.Советник (метабар), и маркетгид, и quick-searcher, даже google analytics подгружают (на сайте его нет). И это только вершина айсберга, еще часть скриптов грузится через data:base64 (они тоже блокируются, видны в таблице), и еще часть — инлайны, который увы не блокируются (если запретить — тот же адсенс не разместишь).

Но переходим к технической части. Для блокирвки всего этого хлама нужно, чтобы сайт отдавал браузеру заголовок «Content-Security-Policy» со списком настроек и разрешенных хостов. Например, вот так (разрешен адсенс, LI, метрика, VK/FB/Twitter), через PHP:

header("Content-Security-Policy: default-src 'self' data: http://googleads.g.doubleclick.net http://pagead2.googlesyndication.com/ https://pagead2.googlesyndication.com/ http://www.google.com/ http://mc.yandex.ru/ https://mc.yandex.ru/;style-src 'self' 'unsafe-inline' https://vk.com/ https://st.mycdn.me/;frame-src 'self' http://www.facebook.com/ https://www.facebook.com/ http://static.ak.facebook.com/ https://s-static.ak.facebook.com/ https://connect.ok.ru/ http://vk.com/ https://login.vk.com/ https://vk.com/ https://*.doubleclick.net/ http://googleads.g.doubleclick.net/ http://platform.twitter.com/ http://pagead2.googlesyndication.com/ https://pagead2.googlesyndication.com/;img-src 'self' http://counter.yadro.ru/ https://mc.yandex.ru/ http://vk.com/ https://vk.com/ https://syndication.twitter.com/ https://s0.2mdn.net/ https://pagead2.googlesyndication.com/ http://pagead2.googlesyndication.com/ data:;media-src 'self';font-src 'self';script-src 'self' 'unsafe-inline' 'unsafe-eval' https://vk.com/ http://vk.com/ https://queuev4.vk.com/ http://platform.twitter.com/ https://cdn.syndication.twitter.com/ http://pagead2.googlesyndication.com/ https://pagead2.googlesyndication.com/ https://connect.facebook.net/ http://connect.facebook.net/ https://*.doubleclick.net/ http://connect.ok.ru/ https://connect.ok.ru/ https://mc.yandex.ru/ http://mc.yandex.ru/ https://s0.2mdn.net/; report-uri /csp.php");

(ВНИМАНИЕ! Этот код указан в качестве примера, его работоспособность и безопасность никак не гарантируется. Более того, тут много лишнего, часть исключений дублируется и т.д. Я не спец, мне главное чтобы ехало)

Зачем одновременно http и https? Увы, некоторые браузеры не понимают разницы, и если написать только домен (стандарты это разрешают), загрузку через SSL блокируют (это хорошо видно в репортах). Вам же не хочется, чтобы у энного процента посетителей не грузился адсенс? Так же данный заголовок можно добавить через .htaccess, что-то вроде такого (максимально параноидальный — все загрузки вне самого домена блокируются, даже статистика не будет работать):

Headers set Content-Security-Policy "default-src 'self'"

Вообще, настройка правил — дело тонкое и слегка муторное. Для начала устанавливаете чистый заголовок (одним из методов выше) с «Content-Security-Policy-Report-Only«. Он предназначен для тестирования, и ничего не блокирует — зато в консоли бразуера (ФФ => Инструменты => Веб разработка => Веб консоль, Shift+Ctrl+K, в хроме аналогично) будет выдавать сообщение о каждом заблокированном ресурсе и какая именно директива нарушена. Добавляем в исключения, запускам опять, правим, и так пока все будет ОК. Очень муторно, учитывая что каждый норовит подгружать свои ресурсы из кучи источников, и нужно разрешение и для фреймов, и для скриптов, и для js. Но чем проще сайт и меньше используется сторонних инструментов — тем проще, на один из сайтов добавил только counter.yadro и всё) И наоборот, для сайтов с UGC-контентом часть придется разрешать на все домены (картинки например). Проверить, установлен ли заголовок, можно в тех же веб-инструментах, вкладка сеть.

После того, как настроили — убираете «-Report-Only», и вауля — все ненужное блокируется. Для собирания отчетов — добавляете еще «report-uri /csp.php» (это не обязательно, но желательно — для проверки, не накосячили ли где). Пример такого обработчика, а так же более подробное разъяснение разных директив — http://zabolotskikh.com/tips/content-security-policy/ [RU] (мой пост — лишь введение для новичков, полноценный FAQ выходит за рамки статьи), а всякие полезности и RFC — на http://www.cspplayground.com/ [EN].

А теперь самое главное — а какой же эффект от всего этого? Хотелось бы конечно сказать, как офигенно увеличился доход/CTR, но этого нет, пока что все в пределах статистической прогрешности. Пользователи тоже не стали от радости строчить хвалебные комменты. Переходы на левые сайты конечно полностью пропали, но профита от этого не прибавилось.

Тем не менее, один неожиданный эффект все же проявился — трафик с яндекса за три дня увеличился вдвое, на +500 уников в сутки. Мне кажется, тут дело в том, что на сайте установлена метрика, а левые скрипты подгружали в том числе маркетгид и другую нехорошую рекламу. Исчезла реклама — Яндекс убрал фильтры. Возможно, это просто совпадение с недавним АПом, может это краткосрочное явление — кто его знает) В конце месяца узнаем. На двух других сайтах изменений нет (но там и трафика куда меньше, и нет дисбаланса гугла и яндекса). Но все же если у вас сайт с 5к+ уников в сутки, а число переходов на левые сайты зашкаливает — попробуйте использовать CSP. Хуже от этого точно не будет (если правильно настроите и не заблочите что-то важное), а пользователям будет удобней пользоваться сайтом.

PS. Есть мысль сделать под это дело сервис (автоматическая генерация CSP под нужды пользователя, галочкам напротив установленных скриптов — адсенс/метрика/LI), но решил пока ограничится вводным постом. Во первых, мне еще курить и курить RFC, чтобы понять и найти оптимальные решения, а во вторых — неясно, востребовано ли это. Топик на серче хоть и активен, но в основном единичные энтузиасты, у некоторых весьма хорошие результаты (там же можно найти примеры кода), а сами сайты из категории 30-50к уников в сутки и выше. Сам я про CSP уже давно слышал, но руки дошли прикрутить только сейчас. Если эффект для яндекса подтвердится — буду ставить на все сайты по умолчанию (хотя, например, на блоге или топсапы это почти бесполезно — мало кто будет работать в интернете с расширениями, мешающими этой работе).

Ubuntu на десктопе

Август 15, 2015

Впервые с убунтой я познакомился еще с версии 7.10 (2007-й год соответственно), потихоньку ковырялся и пробовал другие дистрибутивы линукса (и даже фряху и солярку), а затем и совсем пересел с винды. Сейчас уже лет пять как основная и единственная ОСь — убунту, даже в дуалбуте ничего нет, а последняя используемая винда — XP. Когда-то давно я уже писал подобный пост, однако с тех пор много воды утекло) Рабочий стол выглядит вот так уже много лет:

ubuntu_desktop

Ubuntu 12.04 + Gnome + Unity. Док внизу — Cairo Dock, незаменимая вещь (unity в этом плане — УГ). Стандартный набор софта — Firefox, Sublime Text, FileZilla, Skype, Rescue time, всё кроссплатформенное.

Но есть кое-какие коррективы.. Во первых, кипер вебмани. Мини версии (mini.webmoney.ru) и enum-авторизации хватает для большинства задач, но не для всех (у мини версии ограничения — например, только один кошелек каждой валюты). Поэтому приходится держать виртуальную машину на Virtualbox с виндой исключительно для кипера (впрочем, это так же удобно для безопасности и переноса ключей — можно просто таскать на флешке весь виртуальный хард).

Во вторых, фото. Для обработки фотографий я использую GIMP, для каталогизации и экспорта из камеры — Shotwell. Обе они конечено очень далеко по функционалу от Adobe Lightroom, но для не слишком тонкой работы вполне годятся (а мне только оно и нужно — поправить баланс белого, повысить резкость, усилить цвета, кадрировать и уменьшить). Однако нормальных редакторов raw-файлов под линуксом можно сказать что нет. Они есть, но они жутко неудобные и тормозные, либо платные. В итоге я просто перестал снимать в raw (все равно флешка на камере маленькая), и до сих пор снимаю в JPG =) Не то чтобы оптимальное решение, но для меня этот вопрос не так критичен.

Но плюсы конечно перешивают минусы. А самое главное — это десятки мелочей. К примеру — кто бы знал, насколько удобней переключение раскладки повесить на Caps Lock?) Что куда проще загрузить всю музыку в Rhythmbox, и выбирать исполнителей просто написав их имя в строке (по той же схеме работает iTunes), а не переключаться между бесконечными папками и плейлистами в AIMP. И переключать треки простым Fn+F8/F10, так же как и громкость. Консоль всегда доступна одним нажатием по F12 (Guake Terminal). Но, как ни странно, самое привычное и незаметное для комфорта глаз — это шрифты. TrueType сглаживание творит чудеса (после установки соответствующего пака шрифтов, разумеется). Не знаю, может это в винде как-то настраивается, но когда я смотрю, как выглядит текст на винде — мои глаза начинают кровоточить.. Хотя кому-то наоборот такое сглаживание может показаться непривычным)

ubuntu_text

Но это еще не все, нет) Например, управление сетью. Все доступно в одном всплывающем меню — и подключения по WiFi, и через 3G-модем (без доп.софта, который поставляют операторы), и VPN. Просто выбираешь что нужно и оно работает, без кучи настроек в десятках окнах. И это касается не только сети — большинство подобных вещей решаются весьма интуитивно.

ubuntu-network

Так же, как веб девелоперу, мне нужно нормальное рабочее окружение. Сюрприз — вся установка серверного софта идентична (на впсках я так же заказываю Ubuntu Server или Debian). Не важно — Apache, Nginx, PHP-FPM, Node, RoR, Sphinx, весь серверный софт ставится без проблем, нет никаких отличий в рабочем окружении на локалке и на продакшене. Хотя денвер в этом плане сделал огромный скачок по удобству, но до такой нативности ему как до луны пешком. Я до сих пор помню, сколько было мороки с файлами .htaccess, корявой установкой кодировки файлов и CHMOD. А тут все сайты спокойно лежат в /home/spryt/www, домены автоматом подключаются апачем. И для SSH подключения достаточно консольной команды, а не сторонних клиентов (хотя если вам удобней PuTTY — пожалуйста, можете использовать её).

soft

Как происходит установка софта в Ubuntu? Вы либо вводите в консоли что-то вроде «sudo apt-get install firefox», либо открываете центр приложений, выбираете в нужной категории софт и нажимаете «установить». Или, в некоторых случаях, перед этим добавляете репозитарий в систему (тоже пара строчек копипаста в консоль) Всё. После установки кодеков на виндовом ноутбуке у меня каким-то образом установилось сразу три браузера, дополнительные рекламные плагины к ним, два анитивируса (один из которых так и не получилось удалить) и еще какие-то чистильщики рекламы/реестра. Хотя я скачивал с оффициального сайта (вроде бы, их сейчас не так просто отличить), и всегда отключал галочки напротив установки доп.софта. И это я, с десятком лет за компом.. В линуксе такое в принципе невозможно. Тут нет 1000 и 1 места, куда можно засунуть программу в автозагрузку, нет реестра с тысячами веток, можно посещать любые сайты без опасения за свою ось.

Зависает ли линукс? Да, бывает. Где-то раз в полгода, особенно из-за перегрева. Софтом повесить — очень сложно, хотя изредка на некоторых видео VLC может зафризить систему секунд на 30 (что решается проигрыванием этих видео через smplayer), или хром на 40-50 вкладках начинает фризить браузер целиком (именно из-за этого я перешел на ФФ), но чтобы повесить ОСь — нет, крашится само приложение.

li_unix

Производители софта уже давно держат в уме пользователей убунты, и различный софт делается сразу под все платформы. Телеграм, например. Хотя рост аудитории идет довольно медленно — сейчас в рунете 1,1 миллиона людей используют различные unix-дистрибутивы. Не так много, но за два года это число выросло на 60%. Для типовых офисных задач Ubuntu подходит идеально, при куда меньшей стоимости владения — некоторые это используют.

Даже большинство старых игр вполне запускается из под вайна, если это критично (только быстродействие снижается). И Rosetta Stone, и покерные клиенты, и даже фотошоп. Только iTunes не поднялся, так что не знаю, как это обходят владельцы айфонов)

Но все же, Ubuntu не совсем для домохозяек. Хотя решение некоторых проблем найти куда проще, особенно если искать на английском, для некоторых вещей нужно понимать, как работает ОСь, править конфиги, разбираться почему не ставится какой-то пакет и т.д. С каждыми релизом таких проблем все меньше, но они все еще есть (даже буквально сейчас — оказалось, что при открытом контекстном окне Управления сетью PrintScreen не работает. Только на 7-м результате в гугле нашлось решение — запустить скриншот с задержкой, «gnome-screenshot —delay=7»).

——————-

Хотел бы я сказать, что тема поста связана с купленным сайтом, но увы, фейл) Вообще за две недели практически ничего полезного не сделал, оффлайн-заморочки. Впрочем, сайты есть не просят, рекламодатели находят меня сами, так что с финансовой стороны все нормально (на топсапе продал рекламы на 10к+ рублей, и скоро должна прийти выплата с адсенса).

Смотрю House of Cards, жестокие политические игры, залип)

Ради чего люди занимаются созданием сайтов?

Октябрь 11, 2014

Условно создателей сайтов можно разделить на творцов и предпринимателей. Первые думают — «Как бы сделать офигенный сервис/сайт, которым будут пользоваться куча людей?«, вторые — «За какой сервис люди бы заплатили, и что нужно для его создания?«. Любая, даже самая офигенная и инновационная идея (а особенно новая), имеет намного меньший шанс на финансовый успех, чем просчитанная бизнес-стратегия даже очень банальных процессов.

Соответственно, первые делают некие «продукты», их цель — такое же тщеславие, что движет архитекторов и художников, признание общества — или просто осознание того, что ты работаешь над действительно стоящими вещами, которые действительно важны. При таком подходе вопрос той же монетизации откладывается на десятые роли, и вводится с сильным скрипом (к примеру, та же реклама напрямую мешает людям пользоваться сайтом, и если бы не необходимость, «творцы» никогда бы не вешали на сайты рекламу, мешающую посетителям. Впрочем, они зачастую это делают настолько неумело, что это их не спасает от банкротства).

У предпринимателей цели иные. Для них именно деньги выражают количественно ту пользу, что они приносят миру, а значит, чем больше они зарабатывают — тем лучше для общества. Швыряться деньгами направо и налево — нет, такое движет только людьми, которые получили деньги незаслуженно, предприниматели очень редко опускаются для пускания пыли в глаза (разве что в определенный момент роста и пересмотра жизненных ценностей). Наоборот, многие из них не знают, куда их девать, и иногда помогают творцам (хотя нет, бизнесмены именно что будут помогать творцам с целью возврата инвестиций, а не просто так =)

По сути, это два вида мышления и отношения к вещам, программист-творец создает linux, программист-бизнесмен — microsoft. Творец не обязательно является голодным художником (и в случае профессионалов это явление редкое), так же как и предприниматель не обязательно обеспечен (немалую часть времени становления он даже беднее наемных рабочих среднего уровня, даже когда они работают на него).

Принадлежность к каждой группе отнюдь не перманентна, и с течением времени может меняться, даже несколько раз. Не говоря уже о том, что для разных проектов можно придерживаться разных подходов, и пуристов из обоих лагерей меньшинство. Одни приходят в интернет-заработок из собственно создания сайтов, понимая, что на этом можно заработать куда больше с систематичным подходом. Другие — устают от налаженных процессов, и хотят создать что-то новое для души, например, игру. Как и во всех остальных областях, лишь малая часть достигает успеха, хотя стоит отдать должное — предприниматели как правило знают, почему, в то время как творцы — только догадываются (это касается как успеха, так и фейла). Точно так же повторение успеха для творца представляет собой крайне нетривиальную задачу, предприниматель же найдет способ получить прибыль в любой области.

Именно такое разделение позволяет понять, почему одни люди вкладывают сотни тысяч в обычные статейники, или скупают сайты, а другие — с упорством идиота занимаются каким-то непонятным и никому не нужным сервисом (иногда увлекая еще несколько сотен человек заниматься тем же самым). И критерии успеха для них отличаются кардинально, даже если они занимаются идентичными проектами — так что мерить одних по критериями других занятие бесполезное, хоть и вызывает приличный срач для обоих групп.

Естественно, только обозначив свои стремления, ничего не добьешься. Но позволяет немного сузить выбор сегмента и инструментов для достижения целей — если занимаешься зарабатыванием денег, отбрось то, что не влияет на результат. Если хочешь творить — подумай, на что будешь в этом время жить, так как стратегия «сначала сделаю, а потому буду думать о заработке» почти никогда не срабатывает. И вообще, стоит ли оно того?

Более подробно про подход «творцов» к созданию сайтов можно прочитать в первых постах этого цикла:

————————

А что я? Ну по моим проектам и предыдущим постам вполне можно понять, каких я придерживаюсь взглядов) Сегодня наконец-то закончил очередной никому не нужный 100500-й фотохостинг — ну серьезно, 85% имеющихся это треш и угар, чисто технически с такой задачей справится любой мало-мальски знакомый с программированием школьник (именно поэтому этих фотохостингов сотни и сотни), а уж какой у них интерфейс и количество рекламы… Вдоволь поигравшись с версткой (хотя до полностью адаптивного еще далеко), стилями и прикрутив напоследок SSL (ну вот захотелось мне), получилось что-то вроде этого:

Да, да, я знаю, что использовать чужие товарные знаки нехорошо. Но щито поделать, хоть какая-то подпитка трафом будет, в прошлый раз это сработало просто отлично. И я так же знаю, что вероятней всего этот проект даже не окупит затрат на покупку SSL-сертификата, даже если у него будут тысячи посетителей в день =) Но мне просто захотелось, чтобы где-то в интернете был просто удобный и прилично выглядящий фотохостинг. Правда, я уже насмотрелся, чего только на них не загружают, хорошо что есть один интересный сервис, предоставляющий Nudity API для фильтрации..

PS. И да, в который раз удивляюсь, что такие простенькие сервисы потребляют просто прорву времени на разработку, хотя там и готовые библиотеки, и стили, и опыт, ан нет.

PPS. Вот следующий проект вот точно будет для заработка, однозначно 😀 Кейворды ннада?

PPPS. Да нет, SSL сертификаты дешевые, всего $4/год, выдаются за 5 минут, ставятся на сервер еще за 10, ничего сложного.

Постоянная аудитория сайта

Июль 17, 2014

Сайты разные важны, сайты разные нужны.. Сегодня мне бы хотелось немного порассуждать про сайты с постоянной закладочной аудиторией — что это такое, как её набрать, какие плюсы и минусы. Статы для примерного понимания ситуации:

li_topsape

(суммарная статистика за две недели для людей, которые посещали сайт больше 10 дней за последний месяц, делается с помощью срезов в LI)

Именно так выглядит типичный сайт с постоянной аудиторией (самый распространенный пример — форумы). Относительно небольшое ядро посетителей, которые заходят на сайт регулярно, день за днем, генерируя ощутимое число просмотров и визитов.

Что для этого нужно?
Очевидно, что не все сайты могут иметь постоянную аудиторию. Например, посетителям незачем каждый день заходить на блог, если он обновляется раз в неделю — тем более, когда есть RSS/email подписка. Другое дело, если новые материалы появляются часто (новостные/медийные издания). Однако, в любом случае, сайт должен представлять некую ценность для посетителей, причем не единоразовую, а на регулярной основе. Например, человек может каждое утро заходить на сайт с прогнозом погоды, чтобы выяснить, брать зонтик или нет.

Еще большая вовлеченность возникает в сообществах. При этом тематика сообщества обычно играет не самую большую роль — на серче очень активно обсуждается тема зимовки в Таиланде/теплых странах, в то время как в сообществе путешественников — как раскрутить блог в поисковых системах. Куда важнее сплоченность и общие интересы, иногда самые легкомысленные (любители кед), иногда — профессиональные. Даже удобство использования стоит на втором-третьем месте — до сих пор живут и процветают форумы с вырвиглазным дизайном/UI и диктаторскими правилами.

Так что первый и самый важный вопрос — а ваш сайт стоит того, чтобы на него заходить каждый день? Глупо считать, что установка форума или соц.комментов как-то изменит ситуацию. Есть популярное заблуждение, что только развлекательные сайты собирают постоянную аудиторию. Да, конечно, им набрать её проще, и по объему она довольна значительна (баш, пикабу, 9gag), но в интернете не только страдают бездельем, и не только школьники его посещают.

Как набрать аудиторию
Среди вебмастеров ходит легенда, что достаточно всего лишь набрать существенную посещаемость (с поисковых систем), и постоянная аудитория заведется сама собой. Возможно, эта легенда права — не знаю, у меня не было сайтов с хорошей посещаемостью с ПС 😀 Однако, не столь важно, откуда пришли посетители — с ПС, с социалок или других сайтов (да даже с директа) — главное, чтобы у них был стимул остаться на сайте. Включится в обсуждение интересного вопроса, или подписаться на регулярные обновления, или просто запомнить сайт на будущее.

Что интересно, зачастую поведение посетителей непросто спрогнозировать (а еще сложнее, если это делать для аудитории, частью которой ты не являешься). Можно потратить прорву времени на сервис, обладающий большим потенциалом (на ваш взгляд), а посетители будут зависать вокруг второстепенного, сделанного на коленке. Именно поэтому нельзя останавливаться на достигнутом, нужно постоянно совершенствовать и улучшать свой сайт, пока он не обретет ощутимую ценность для посетителей (думаю, не стоит пояснять, что такая ценность дорого стоит, и за один вечер не делается).

Вторая легенда гласит, что достаточно создать мифический СДЛ, и ссылки на него посыпятся как из рога изобилия, принося ценный целевой трафик без всякого труда. Разумеется, это тоже чушь, которой тешат себя вебмастера. Люди, как правило, существа меркантильные, и пиарить ваш сайт могут только по двум причинам — личный интерес или мегаофигенность вашего сайта (с потенциалом для вирусного эффекта). Причем, что самое забавное, даже если ваш сайт вирусным потенциалом, это вовсе не означает, что на нем задержится хоть какой-то процент посетителей (как раз наоборот — чем более сайт склонен к взрывному росту и сарафанному радио, тем меньше смысла на нем оставаться). И даже для этого нужно попасть в яблочко с первичным пиаром (например, попасть на хабр). С личным интересом всё просто — пояснять, что такое реферальные программы, думаю, не нужно (главное, действительно предоставлять полезный сервис, иначе это превращается в обычную пирамиду/сетевой маркетинг). Дайте посетителям какой-то стимул на вас ссылаться — и они будут рекомендовать вас своим знакомым.

И что я получу?
У сайтов с постоянной аудиторией есть свои плюсы и минусы. Для начала — это, конечно же, стабильность и независимость от внешних ресурсов. Поисковики могут сколько угодно вас банить, посетителям по барабану (даже с брендовых запросов идет все та же постоянная аудитория). Во вторых — там, где постоянная аудитория, там и сообщество. Где сообщество — там и общение, а раз общение — то UGC (User Generated Content — пользователи сами наполняют ваш сайт). Закатайте губу обратно — как правило, его ценность намного ниже «экспертного», на за счет грамотной организации и большого объема, можно получить очень хороший бонус (ПС-траф на форумах например). А можно получить головную боль с модерированием и постоянные абузы, это уже как получится 😛

Хотя, на мой личный взгляд, главное преимущество — моральное удовлетворение, особенно — если ты сам входишь в ЦА (целевую аудиторию) сайта. Остальное уже просто приятные бонусы.

А минусы.. Куда уж без них) Как вы наверное уже поняли, создание таких сайтов — задача нетривиальная, еще сложнее — набирать аудиторию (в этом, кстати, очень помогает блог той же тематики). Если вы привыкли к механизму «написал/заказал статью — закупил ссылочек — получил траф с ПС», то будет сложно перестроится, выбросить из головы рамки. Еще сложнее тем, кто относится к посетителям как к безликому трафику, которому можно скормить что угодно, лишь бы пипл хавал. Без понимания аудитории создавать подобные сайты невозможно.

И вдогонку, последний гвоздь — это намного больше проблем с монетизацией. Та же контекстная реклама хорошо работает именно в связке с ПС-трафом, а не с постоянной аудиторией. И охват баннеров тоже оставляет желать лучшего — через несколько дней уже все посетители его увидели, и если нет постоянного притока новых — то эффективность падает до нуля. Тут важен индивидуальный подход, в идеале — чтобы сами посетители получали какой-то плюс от рекламы или услуг (или даже сам сайт предоставляет какие-то платные услуги/сервис). Ну или дорастать до таких размеров, когда все это перестает играть роль (но тут тоже много подводных камней, в первую очередь — узкий охват аудитории, и как следствие, низкий потолок посещаемости).

Впрочем, не обязательно делать чисто закладочный сайт, вполне можно комбинировать несколько групп пользователей на одном проекте. Правда, не все вебмастера на это способны, чаще видно перекосы — либо только закладочный, либо только ПС =)

———————

А я пока пытаюсь эту самую постоянную аудиторию набрать на сторифайндере. Она там уже есть, показатели просмотров на посетителя схожи с первым скрином, просто их мало. С директа прирост идет очень медленно и очень дорого — с 1300 кликов на 70$ стали пользоваться сайтом 20 человек (на самом деле точно подсчитывать я так и не научился, по другим статам — 5 человек стали регулярными). Сейчас еще больше увеличил охват (закинул еще 60 кеев), а то он совсем притих до 25-30 переходов в сутки (потом можно будет в очередной раз уменьшить охват с понижением цены клика, сейчас 4 цента). Только собрался капитально заняться рекламой (добил до 50к постов индекс, сделал карту, подрихтовал внешний вид), разослал письма — и тишина. Ни один блоггер не отвечает, винский молчит. По идее, именно с блогов максимальный эффект должен быть, но с постовых охват невысокий, нужны анонсы/обзоры (только не с рерайченных статейников конечно, или блогов с 50 униками). Не говоря уже о том, что большинство блоггеров — редиски, обраток не ставят, даже если я им даю посетителей (пусть и не так много). Теперь на каждый пост в ридере буду кидать пингбек, посмотрим на эффект.

Постовой: Топсапа продолжает помогать новым блогам набирать первичную аудиторию — на этот раз блогу Seo Romeo. Жаль только, что это доступно и всяким неадекватам.

Другие посты из цикла:

Делаем наглядную статистику событий по дням (PHP + Google Charts)

Март 7, 2014

Сегодня у нас «вебдев для самых маленьких», а именно — оформление разной статистический информации графиками. Задача: есть некоторые события (регистрация пользователей, появление сообщений, поисковый запрос и т.д.), логирующиеся в MySQL, требуется наглядно показать динамику (сколько событий в день/месяц/час), вроде такого:

post_stat

Для начала нужно добавить в таблицу события поле `time_added`, тип TIMESTAMP, значение по умолчанию — CURRENT_TIMESTAMP. Не нужно даже ничего менять в php-коде — в это поле будет автоматически добавляться время добавление записи, а в phpmyadmin он будет выглядеть вполне читабельным значением вроде «2014-03-07 18:22:27» (в отличие от записи timestamp-а в int поле). Затем делаем выборку из таблицы:

  1. //Получаем метку даты 30 дневной давности о оформляем его в удобовариемый mysql-ем вид
  2. $last30d=date("c",strtotime("-30 day"));
  3.  
  4. //Делаем выборку событий из базы старше нужного
  5. $res=mysql_query("SELECT COUNT(*),time_added FROM wordstat WHERE time_added>’$last30d‘ GROUP BY DAY(`time_added`)");
  6. while($row=mysql_fetch_array($res)) {
  7.         $key=date("Y-n-d",strtotime($row[‘time_added’]));
  8.         $days[$key]=$row[‘COUNT(*)’];
  9. }
  10.  
  11. //Сортируем массив в нужном порядке
  12. ksort($days);

Не так уж сложно, как видите) Точно так же можно подсчитывать число событий в месяц или год. Следующая задача — построить график по этим данным. Можно конечно использовать какую-нибудь php-gd библиотеку, или даже самостоятельно всё написать, но зачем, если есть готовые либы? Я использую JS-библиотеку Google Charts, обладающую просто безграничными возможностями, главное в нём разобраться.

  1. <script type="text/javascript" src="https://www.google.com/jsapi"></script>
  2. <script type="text/javascript">
  3.  
  4. // Load the Visualization API library and the piechart library.
  5. google.load(‘visualization’, ‘1.0’, {‘packages’:[‘corechart’]});
  6. google.setOnLoadCallback(drawChart);
  7.    // … draw the chart…
  8.  
  9. function drawChart() {
  10.  
  11.     // Create the data table.
  12.     var data = new google.visualization.DataTable();
  13.         data.addColumn(‘date’, ‘Дата’);
  14.     data.addColumn(‘number’, ‘Запросов’);
  15.     data.addRows([
  16.     <?
  17.     foreach($days as $day=>$count) {
  18.                 $date=strtotime($day)*1000;
  19.                 echo "[new Date($date), $count],\n";
  20.     }
  21.     ?>
  22. ]);
  23.         var options = {‘title’:‘Поисковых запросов, в день:’,
  24.         ‘width’:900,
  25.         ‘height’:200,
  26.         ‘legend’:{‘position’:‘none’},
  27.         ‘titleTextStyle’:{‘fontName’:‘Georgia’,‘fontSize’:20,‘bold’:false},
  28.         chartArea: {width: ‘100%’},
  29.         vAxis: {textPosition: ‘in’,minValue: 0},          
  30.     };
  31.  
  32.     // Instantiate and draw our chart, passing in some options.
  33.     var chart = new google.visualization.AreaChart(document.getElementById(‘chart_div’));
  34.     chart.draw(data, options);
  35. }
  36. </script>
  37.  
  38. <div id="chart_div" style="width: 900px; height: 200px;"></div>

И вауля, график готов. Кастомизировать его можно как угодно, мне больше нравится такой вид, а не дефолтный. Как я уже писал, возможности у библиотеки богатые (это ж гугл), документация весьма обширная, но её надо читать и вкуривать, и далеко не всё получается как надо (я например не могу настроить сетку внутри графика).

Задача решена. Да, возможно в MySQL можно задать такой запрос, который выдаст данные в уже нужном отформатированном виде. Уже перед самой публикацией понял, что я дичайше накосячил (до этого просто выбирал все записи из БД и фасовал их по дате в массив), и при более-менее значительных данных скрипт будет либо падать от нехватки памяти, либо очень очень долго думать. Отсюда вывод — не верьте всему тому, что написано в интернете) Гугл и stackoverflow быстро выдали мне нужное решение, описанное выше (там только SQL-запрос сменился). Хотя я пока еще использую старое ресурсоемкое решение, так-как мне нужно много более подробной информации, а не только динамика. Наверняка там и в других местах можно реализовать более удобно и правильно, например метод передачи данных между php и js.

PS. Я люблю собирать разнообразную статистику и анализировать её. Правда, не всегдя я делаю это наглядно — просто лень заморачиваться, можно ведь просто таблицу значений вывести) Но когда это публичная статистика, хочется навести красоту, а потом уже сам привыкаешь к такому удобству, и начинаешь делать так везде.

Исходный код оформлен в Pastebin, но для совместимости был скопирован со страницы для печати, вместе со стилями (только javascript-оформление не заработало, поэтому слегка криво подсвечен второй кусок кода)

Как найти идею для сайта

Январь 25, 2014

Что ж, продолжим играть роль Д’артаньяна, и будем дальше выяснять, как же делать правильные сайты для людей. Тем более, как я заметил, у очень многих людей с этим проблемы — они просто-напросто смотрят на посетителей как на цифры на счетчике, которые можно кому-то продать, и даже если хотят перестроиться — все равно мыслят в старых сео-рамках.

Допустим, вы решили наконец-то сделать что-то полезное, белейший сайт, который все будут любить, посещать, а вы будете купаться в деньгах. Стоп стоп стоп, для начала — если вы сразу думаете о том, как заработать с сайта (подробно продумываете этот вопрос фактически не имея даже идеи) — лучше сразу забить и вернуться в дорвеи или чем вы там сейчас занимаетесь. Если вы думаете только о прибыли — вы не сможете заинтересовать людей, как только вы на этом фокусируетесь — вы теряете с ними контакт. Если вы думаете, что эта статья про то, как заработать на сайте — вы глубоко ошибаетесь, и лучше вообще не читать дальше. Считайте, что создание сайта для людей — это хобби, вроде собирания марок, которое через несколько лет может внезапно принести немного денег, но лучше на это не рассчитывать — ведь главное в хобби это получение удовольствия от процесса. А деньги можно зарабатывать на других вещах, в том числе сайтах, создающихся специально для заработка — но этот пост не про это.

show-azusa-the-money

Так как же найти идею для сайта? Всё просто — ищите то, чего людям не хватает в интернете (а точнее, в рунете). Проще всего это делать на основе личного опыта — если вы когда нибудь задумывались «А вот клево было бы, если бы был вот такой сайт, где можно сделать то-то или узнать это» — это как раз оно и есть. Почему бы вам не сделать такой сайт? Или, другой вариант, «Я каждый день посещаю сайт, но он такой неудобный и не развивается, но нужная мне информация/люди есть только там, так что я возвращаюсь на него снова и снова». Почему бы не создать сайт, который исправляет эти недостатки, при этом решая проблемы пользователей?

Конечно, может показаться, что данный сайт будет интересен только вам. Но не недооценивайте коллективное бессознательное — 90% людей просто не высказывают свое мнение, но с удовольствием попробует что-то новое. Лучший критерий для оценки — а станете ли лично вы пользоваться сайтом, который создаете? Если ответ «Нет, но ведь я не ЦА (целевая аудитория) этого сайта, я делаю его для других людей» — почти наверняка это провальная идея. Это кстати объясняет, почему так много сайтов с очень обширной аудиторией, но при этом ужасным дизайном/UI — их создатели делали сайт, решая свои проблемы, а вовсе не потому, что хотели создать абстрактно «сайт для людей» (и в большинстве случае даже не являясь вебмастерами, но становясь ими). И так оказалось, что их проблема была у куда большего количества людей, чем они могли себе представить.

Скорее всего, вы все так же понятия не имеете, какой же сайт вам сделать. В таком случае просто выпишите в блокнот все интересные вам темы, или то, в чем вы разбираетесь. В моем случае это например (основное):

  • Создание сайтов
  • Самостоятельные путешествия
  • Программирование
  • Заработок на сайтах
  • Научная фантастика
  • Аниме

Веорятно вы знаете сайты, посвященные интересующим вас тематикам, и чего им не хватает. Так же помогает, например, представление себя новичком в той теме, в которой вы экхперт — куда он в первую очередь пойдет искать информацию, и найдет ли он то, что нужно? Почти наверняка существует несколько сообществ в одной тематике — но удовлетворяют ли они нужды всех посетителей?

То есть, лучше всего делать сайт в той тематике, которая вам интересна (не обязательно быть в ней гуру — достаточно иметь энтузиазм в изучении). Свой первый сайт я делал именно о том, как делать сайты, и по ходу дела собственно и учился тому, как делать сайты. Причем я просто собирал у себя интересные мне статьи и скрипты, мне это было интересно, энному числу посетителей — тоже. И только спустя какое-то время я обнаружил, что на сайтах можно еще и зарабатывать, и нашел в этом альтернативу работы на кого-то, но это совсем другая история.

Другой банальнейший прием — просто адаптировать популярное в буржунете у нас. Тут все очевидно и не представляет интереса.

Дальнейшее зависит от вашей фантазии. У кого-то в голове уже сидит десяток идей разной степени адекватности, но не хватает упорности довести хотя бы один из них не то что до рабочей беты, даже просто до опроса потенциальной ЦА. Впрочем, большинство таких идей и не стоят реализации в силу очень пространной идеи (вроде «сайт для любителей кофе»), но как только появляется что-то стоящее и интересное — сразу находится и свободное время, и средства, и энтузиазм.

Другие же все еще вертят в руках ручку, пытаюсь вспомнить хоть что-либо им интересное. Да, бывает у людей совершенно отсутствуют хобби, тем более конструктивные (смотреть ониму — это просто потребление контента, рисование — его производство). Щито поделать, если не умеешь придумывать что-то новое — улучшай старое, или работай над чужими проектами. Тут я ничего не могу посоветовать — разве что развивать своё любопытство и искать что-то новое.

Еще раз напомню (специально для сеошников), идея вроде «найти популярную и прибыльную тематику → собрать СЯ → написать/заказать статьи → монетизировать ПС траф» хоть и могут в итоге принести свою денежку (и порой неплохую), но по сути не является сайтом для людей. Чтобы там не говорили создатели этих сайтов («посетитель получает ответ на свой вопрос, зачем ему дальше смотреть сайт?») — это всего лишь информационные статейники для ПС. Причем зачастую с корявой реализацией, так-как сеошник в первую очередь думает о сроках окупаемости, а не о том, что нужно людям. Конечно, есть и информационные сайты для людей (википедия например, или авторские блоги), но создавать их очень непросто (а так же есть, например, прорва развлекательных сайтов, с большой аудиторией, которая сама же генерирует контент).

Ваша цель — заинтересовать людей. Причем не обязательно для этого иметь рабочий продукт — зачастую даже анонс проекта в разработке уже привлекает много внимания, если этот проект действительно нужен людям. Как и бета-версия, реализующая только базовый функционал. В 2009-м сапа была весьма популярна и давно имела API, но никто не делал рейтинг — хотя такие идеи были у некоторых людей. Написанная за вечер первая версия и анонс на блоге показали, насколько многим людям действительно это интересно (уже через месяц после запуска посещаемость дошла до 300 посетителей / 1500 просмотров, а так же обеспечивала по 500 переходов на другие сайты в день — LI сохранил PDF с суммарной статистикой за этот период =).

Вы думаете, что такие идеи очень редкие? Повторюсь, изначальная идея топсапы — это просто рейтинг вебмастеров в сапе. Всё. Остальное уже добавлялось и развивалось после того, как основная идея получила отклик у людей. Другой пример — мне нужно было загонять в сапу много страниц, но индексировались не все (я тоже делал говносайты). Написал решение, опубликовал в виде сервиса, пропиарил. Сейчас им обработано 16 тысяч сайтов на 62 миллиона страниц, хотя особо много денег мне этот сервис не принес (правда, я его не особо-то и развивал) — такая проблема все же волнует очень малое число людей. Сейчас меня волнует проблема нахождение постов в тревел-блогах по интересным мне местам, причем ни Яндекс, ни Гугл меня не удовлетворяет. Да, возможно это только моя проблема — не попробуешь, не узнаешь)

Напрямую спрашивать людей о том, что им нужно, скорее всего бесполезно (цитата Генри Форда — «Если бы я делал только то, что хотят от меня люди, они бы до сих пор ездили на каретах»). Простой дайте им то, что вы считаете нужным, если они этим пользуются — значит вы угадали с их потребностями.

Зачем такие сложности? Ну, если вам интересны только деньги, и совершенно наплевать на людей/какую пользу вы приносите — то, кончено, незачем. Я писал пост для тех, кто хочет все же сделать что-то стоящее, а не улучшать только свое благосостояние в ущерб остальным.

darker_than_black___yin_by_nafaziejezus-d3gxma2

PS. И да, ньюфаги отчаянно боятся, что кто-то сопрет их идею или их задавят конкуренты. Наивные) Ценность идеи без реализации равна нулю, и уж тем более без полного энтузиазма создателя. А если вас могут завалить конкуренты — значит ваш продукт недостаточно хорош, иначе посетители никогда не перейдут к менее хорошему варианту. Более того — большинство людей ленивы настолько, что никогда не дойдет до дела, даже если им расписать пошагово, что и как делать. Так что, если интересно, пишите в комментах, какие идеи у вас есть, возможно коллективный разум вам поможет)

Другие посты из цикла:

Какие сайты не нужно делать

Январь 9, 2014

Да, вы не ошиблись — очередной философский пост! И даже тематичный, про сайты, нонсенс. Вообще, я хотел назвать его «Ваши сайты — говно», но это слишком претензионно — ведь не у всех есть сайты, да и я не Тёма для таких заявлений. Так что ограничимся более нейтральным.

alpaca
Фото Ламы — Leeloo, Боливия

Я довольно часто вижу, как вдохновленные идеей заработка в интернете люди начинают клепать говносайты, и искренне не понимают, почему вместо золотых гор они получают в лучшем случае мелочь на пиво. И ведь так действуют не только люди, далекие от интернетов, но и вполне прошаренные хакеры. Частично, конечно, в этом есть и наша (моя) вина — все эти посты о быстром заработке, продаже ссылок, заманчивыми финстрипами.. Но увы, интернет так не работает.

Суть в том, что зарабатывая нечестными методами, вы не производите ничего полезного, и лишь паразитируете на посетителях и участниках рынка. Кому нужны сателлиты? Сеошникам, чтобы относительно дешево манипулировать выдачей поисковых систем. Да, какое-то время создавать их было очень выгодно (а еще более выгодно — создавать биржы), но поисковиками ведь управляют не идиоты — если что-то им достаточно сильно мешает, они начинают с этим бороться. И заместо того, чтобы подумать — а зачем? — многие включаются в это противостояние, придумывая все более и более хитрые методы обмануть систему и наварится (да, это может быть весьма интересным — и прибыльным, не спорю).

Интернет, по сути, слепок реальности. Только менее регулируемый. Можно заработать и обманом, и лохотронством. Каждому свое. Но точно так же, в интернете за это могут крепко настучать по башке (как минимум финансово). В первую очередь те, на ком вы зарабатываете. Легких денег не бывает.

Какой выход? Создавать полезную стоимость, разумеется. В первую очередь — для людей. О даа, мы опять вернулись к вечной теме Сайтов Для Людей) Которые довольно большое число людей (особенно сеошников) видят не иначе, как статейники с ПС-трафом.

Как же определить, насколько Cайт для людей — действительно для людей? Да очень просто — нужно все лишь выяснить, сколько людей регулярно посещает ваш сайт — то есть является его постоянной аудиторией. В случае блога, например — это те люди, которые регулярно заходят/читают посты, а так же комментируют (это число коррелирует с общей посещаемостью и числом ридеров, но напрямую от них не зависит). Для сервиса — те, кто ежедневно/регулярно его посещает. Это ведь наиболее очевидно — сайты создаются, чтобы их посещали, и лучшая метрика этого — число заинтересованных людей. Если у вас таких нет или мало — что ж, значит вы плохо работали, и сделали сайт только для себя (или для поисковиков). В статистике LiveInternet это графа «размер аудитории».

siliconrus
Статья на Цукерберг Позвонит как раз про то, как некоторые сайты накручивают себе реф-траф и продают его с бешенным CPM. Правда, это сайты несколько другого масштаба.

Как создать такой сайт? Дать людям то, что им нужно, то, что решит их проблему — и они пойдут за вами. Например, если мне нужно узнать общую информацию про визы — я всегда смотрю её на guide.travel.ru. Потому что там актуальная информация, читабельный дизайн и личный опыт других людей. И даже если гугл ерепениться и не показывает мне ссылку на неё на первом месте — я ищу конкретно «виза индонезия travel.ru» (почему с гугла? Потому что с самого сайта это целых три клика, плюс искать в каталогизаторе страну — проще написать в адресную строку то, что нужно). Аналогично — wikitravel, который я посещаю наверное каждый день.

Создайте такой сайт, которым вы бы сами пользовались. С той информацией, которая вам бы самим была интересна. Не ищите легких путей — выбирайте то, что еще никто не делал. Кому интересен очередной блог про Таиланд? Или сайт о создании сайта, блог о ведении блога, никому не нужное описание вашей жизни? Создайте сайт про путешествия в африку, напишите конструктор определенных сайтов, блог про развитие космоса — есть множество тем, которые интересуют людей, но нет никого, кто бы этим плотно занялся. И еще больше — тем, про которые никто не знает, что они появятся и будут популярны, но тренды заметны уже сейчас. 7 лет назад почти не было такого понятия, как мобильная разработка — сейчас больше половины посещений фейсбука происходит со смартфонов. Два года назад биткойн был игрушкой гиков — сейчас это пирамида с оборотом в миллионы долларов. 10 лет назад в Таиланд ездила горстка соотечественников — сейчас его ежегодно посещает больше миллиона россиян.

Логично будет спросить, а что же таки с деньгами? А ничего. Если вы создадите сайт, который заинтересует достаточное количество живых людей (а не нагоните на него N тысяч трафа) — будьте уверены, с монетизацией вы разберетесь. Даже если вам придется придумывать что-то абсолютно новое. Разумеется, такие проекты создавать куда сложнее, чем «Ну я кароч соберу СЯ, чекну мутагеном НК, закажу рерайта на адвего, куплю ссылочки — и буду рубить деньги с контекста. Как я клево придумал!» — да, придется работать и вкалывать. Но зато результаты такой работы можно гордится и показывать, а не прятать за семью паролями, чтобы не дай бог не спалили вашу ценную сеточку и не ушатали её стуком.

Ну, во всяком случае, для себя я пришел именно к этому выводу. Уж лучше заниматься тем, что нравится, и с какой-то ненулевой вероятностью создать действительно стоящий проект, чем генерировать шлак и наживаться на обманных схемах. Win-win. А деньги можно и фрилансом зарабатывать.

Именно поэтому я считаю комментарии очень важным критерием для сайта — чем больше адекватных людей в комментариях, тем больше вовлечена аудитория в происходящее на сайте. Несмотря на то, что их пишут считанные проценты от просматривающих, и это больше относится к статьям/постам/новостям. Особенно это забавно смотрится у «топ-блоггеров»/новостников с тысячами и десятками тысяч подписчкиков, но которые собирают по 500 просмотров на пост и пару комментариев. Но общая посещаемость под 3000 человек в сутки, да.

Ну а господам сеошникам… Продолжайте делать свои сайты для ПС 🙂 Благо сейчас у них настолько обширные требования, что беднягам приходится делать реально сайт очень дружелюбным для пользователей, чтобы получать траф. И это так же остается весьма прибыльным делом — для тех, кто точно готов вкалывать. Каждому свое)

Комикс простоквашино SEO

Мысль о написании поста родилась после активных дискуссий к циклу (курсу) «СДЛ от Devvvera», а так же под впечатлением статей про стартапы вроде How to make Wealth Пола Грэма. И Тормоза, да.

Другие посты из цикла:

Андрей «Spryt» Гиацинтов (VK)
Email: me@spryt.ru

Путешествия:

Сейчас: Самара, Россия
Посещенные страны:
открыть все | закрыть все

Посмотреть на Google.Maps

Как дешево путешествовать по Азии

Как найти идею для сайта

Я зарабатываю:

Рубрики:

Итоги(127) Я(57) Блоггинг(48) Таиланд(44) Заработок(35) Философия(35) Бред(34) Путешествия(32) Georgy(21) Сателлиты(17) Малайзия(16) Колумбия(15) SEO(14) Непал(13) Мои проекты(11) вебдев(11) Чианг Май(10) Филиппины(8) Индонезия(8) Бангкок(7) Ява(7) Шри-Ланка(7) Домены(6) Краби(6) Борнео(6) Эквадор(6) скрипты(5) Паттайя(5) Лаос(5) Самуи(5) Камбоджа(5) Кордильеры(4) Каталоги(3) Обзоры блогов(3) Буржунет(3) Cameron Highlands(3) Вокруг Аннапурны(3) Покхара(3) Helambu trek(3) Гонконг(3) Велотрип(3) Вьетнам(3) Россия(3) Гаджеты(2) Бредовые идеи(2) Визы(2) Куала-Лумпур(2) Катманду(2) Сингапур(2) деревня(2)

Архив:

Поиск по блогу:

SEO анализ сайта: