О сайтах и не о сайтах

О подборе доноров. Формирование whitе листа.

Самой по себе нехватки доноров не чувствуется, в сапе на данный момент можно купить ссылки с примерно полумиллиона ресурсов разной степени качества. Вопрос в другом - как среди такого количества сайтов отобрать именно те, покупка ссылки с которых будет обоснованной.

Первое и последнее, что приходит на ум, это фильтры. Тема избитая более чем. Обычно при подборе доноров отталкиваются от:

  • Индекс Яндекса и Гугла.
  • Кол-во страниц в индексе.
  • Тиц и pr.
  • Возраст домена.
  • Тематика сайта.
  • Доменная зона.
  • Посещаемость.

И так далее. Параметров проверки можно придумать еще не с один десяток (и ведь придумывают). Но все это ни о чем и никак не привязано к реальности. Ни по одному из этих параметров в отдельности, ни по их совокупности нельзя с высокой степенью уверенности сказать - да, сайт СДЛ, ссылки с него покупать не только можно, но даже нужно. Это подтвердит каждый, кто перед покупкой ссылки каждого донора просматривает в ручную. На большую часть сайтов, прошедших через ряд достаточно жестоких фильтров, даже смотреть страшно, не то что ссылки с них покупать.

Казалось бы, вариантов нет - либо покупать ссылки с сомнительных сайтов, либо тратить время на просмотр каждого донора в отдельности (что очень и очень времязатратно).

Однако решение есть. И как ни странно - простое и логичное. Во всяком случае намного проще и логичнее вышеприведенных каскадов фильтров. Просто надо покупать ссылки с хороших сайтов. С хороших сайтов с точки зрения поисковых систем.

Осталось только определить, что для поисковой системы хороший сайт, а что нет. Но здесь вопросов быть вроде как не должно. Берем запрос, скажем, "авто". Те сайты, которые находятся выше в выдаче - хорошие. Которые ниже - хуже. Логично? Да. А дальше дело техники.

Есть сайт-акцептор. Составляем для него семантическое ядро. С тем расчетом, что чем больше надо купить ссылок, тем шире должно быть ядро и наоборот.

А дальше парсим Яндекс/Гугл (в зависимости от того, под какую ПС продвигаем, а можно парсить обе ПС и брать пересечение доноров, например). По НЧ запросам парсим урлы из топ 3-5 выдачи, по СЧ запросам из топ 10, по ВЧ из топ 10-30, примерно так, плюс/минус. Далее полученные урлы чистим на дубликаты и неликвид (неблагонадежные зоны, домены третьего уровня...).

В результате этих манипуляций получаем лист из сотен или тысяч доменов, который импортируем в sape как white лист и уже посредством сапофильтров ищем доноров только среди сайтов из этого листа.

Итого выходит, что доноры:

  • Тематичные (т. к. нашли мы их по запросам из нашего семантического ядра).
  • СДЛ (т. к. берем сайты только из топа, куда ГС не попадают).
  • И вообще, мы покупаем ссылки с сайтов конкурентов, что не может быть плохим в принципе.

Хотел под это написать отдельный скрипт, но передумал. Т. к. задача легко решается любым парсером (тот же AllSubmitter идеально подходит) и любым офисным пакетом (для приведения спарсенных доменов к единому виду, чистки дубликатов и т. д.).

Можно пойти, в принципе, и дальше. Фильтровать уже отобранные страницы и покупать только с доброкачественных. Здесь все также элементарно просто - если страница по тайтлу находится в топе поисковика, то ссылку покупать с нее можно. Если в топе этой страницы нет, то сколько бы на ней не было килознаков хорошо отформатированного уника со вставками уникальных картинок - от покупки лучше отказаться, благо и хороших доноров хватает.

Добавить комментарий

Содержимое данного поля является приватным и не предназначено для показа.