О сайтах и не о сайтах

Продвижение

Всего постов по тегу: 40

Все что касается продвижения сайтов и интернет-маркетинга. Оптимизация под поисковые системы, работа с социальными сетями. Изначально уклон был в black/grey hat техники и всевозможные накрутки. Сейчас же исключительно white hat.

Сапофильтр для наращивания ТИЦ

Сразу хотелось бы сказать, что я не гарантирую работу данного фильтра. Это больше теория, т. к. экспериментальных данных у меня нет.

Дело в том, что к этому фильтру я пришел не так давно и протестировал всего-лишь на одном сайте. Однако буквально через несколько дней после начала закупки произошел ап тиц, в котором сайт хоть и получил +10, но из-за каких именно ссылок, сказать затруднительно (помимо купленных по фильтру, были еще сапоссылки для позиций, статейные бэки, постовые и немного естественных).

В планах было развивать идею дальше, тестировать фильтр на выборке как минимум из десяти сайтов. Тогда бы у меня на руках были бы точные данные. Но надоело. Надоело ставить свою деятельность (а также потенциальный доход) в зависимость от какой-то пузомерки (ТИЦ) какого-то сайта (Яндекса). Поэтому все свои работы по наращиванию ТИЦ'а я прекратил, и многообещающий фильтр так и остался не у дел.

Влияние мета тегов на ранжирование

Когда дело доходит до разговора о влиянии мета тегов на ранжирование, всегда трудно прийти к единому мнению.

Кто-то говорит, что влияют, приводя в качестве обоснования своего мнения либо теоретически-логические измышления ("если мета теги есть, то почему бы им и не участвовать в ранжировании"), либо практический опыт, имеющий сомнительную ценность из-за большой погрешности ("установил SEO плагин, прописал везде мета теги и на следующий ап трафик вырос на 10%").

Кто-то говорит, что не влияют, в качестве аргументов используя официальные заявления представителей поисковиков (которые, стоит признать, не всегда являются истиной, да и просто могут быть истолкованы по разному) или утверждения, что учет мета тегов уже изжил себя, т. к. их легко подделать и они, являясь по сути внутренней составляющей страницы, совершенно незаметны для конечного пользователя, следовательно смысл использовать в ранжировании конструкцию, которая создана только для поисковиков и которая не несет для посетителя никакой смысловой нагрузки?

Фильтры Яндекса. Теория.

В дорвеестроительстве, в отличие от создания СДЛ, важно изначально понимать, через какие фильтры придется пройти сайту. Как ни как лицензия на поиск нарушается (пункт 3.5, «Поисковый спам»), да и на лицо полная зависимость от индексации и позиций. Если при создании белого проекта цели вебмастера (создать хороший сайт) и ПС (отранжировать хорошие сайты выше) так или иначе в большинстве случаев совпадают, то при создании дорвеев начинается явное противостояние. Цель дорвейщика — создать механизм, позволяющий максимально автоматизировано получать поисковый трафик, цель поисковой системы — не допустить этого.

Дорвеи и текстовка. Результаты эксперимента.

Около двух месяцев назад я анонсировал эксперимент «дорвеи и текстовка». Что ж, пора поделиться результатами.

В двух словах о самом эксперименте. Было сделано суммарно 18 дорвеев, протестированы шесть вариантов текстовок (по три дора на каждый).

Домены брались нулевые, на которые вешались заглушки «сайт в разработке» на срок примерно полторы-две недели, до тех пора пока эти самые заглушки не попадут в индекс. После чего выжидалось какое-то время (от нескольких дней), и доры начинали заполняться контентом, по 10+ постов в сутки.

Количество страниц у каждого дора небольшое, 100+ самих статей, плюс навигация по страницам, рубрикам и тегам.

Слива трафика не было чисто принципиально, чтобы не нарушать чистоту эксперимента.

Дорвеи и текстовка. Анонс эксперимента.

Факторов, влияющих на автобан или вылет дора из индекса, великое множество. Но основной, конечно же, это текстовка, т.е. контентная составляющая.

Цель эксперимента – выявить лучший источник контента для дорвеев. В идеале добиться того, чтобы фильтр за текст не налагался вообще.

Составление анкоров. Генерирование VS ручная работа.

Ранее, когда я раскручивал в основном сателлиты, анкоры я составлял автоматически, т.е. генерировал (более подробно об этом уже писал). К составлению самих шаблонов для генерации подходил достаточно основательно, на выходе получалось несколько тысяч читаемых предложений, из который уже отбирал нужное количество наиболее «уникальных» (в оллсабмиттере есть встроенный функционал для этого).

Но несмотря на такой казалось бы умный подход, все равно было видно, что анкоры – генерированные. Да, если взять отдельно взятый анкор, то вроде нормальный, читаемый, но если смотреть по всей массе, то зависимости между ними прослеживались четко. Можно ли было всякими ухищрениями добиться генерирования нормальных анкоров? Может быть и да, но смотря на то, какой бред выдает тот же сеопульт, писать «анкорогенератор» только для себя представлялось слишком трудоемким и нецелесообразным, составлять тексты ссылок ведь не каждый день приходится.

Красивое размещение ссылок sape

sape красивое размещение

С точки зрения оптимизаторов, наиболее целесообразно покупать ссылки, размещенные в одном блоке с контентом, до или после текста (если не брать в расчет контекстные ссылки).

Вебмастера же чаще выносят сапоссылки в отдельный блок, не желая портить внешний вид своего сайта, помещая нетематические линки (часто с бредовыми анкорами) в поле зрения посетителей.

Так или иначе, но к консенсусу интересов вебмастеров и оптимизаторов надо прийти. Я последнее время руководствуюсь следующими правилами размещения сапоссылок на своих сайтах.

Ап ТИЦ 30.10.09

Спустя ровно две неделе Яндекс вновь порадовал нас апом тица. Хотя кого и порадовал, а меня лично нет.

Было до предыдущего апа/Предыдущий ап/Этот ап
0-30-20
0-20-10
0-20-10
0-20-10
0-10-0
0-10-0
0-10-0
0-10-0

Почти по всем сайтам минус десять. Внешних ссылок с прошлого апа только приросло, ссылки не мигали, то есть по логике должен быть плюс, однако независимо от происхождения обраток/сапа, сеопульт, блогун/ пузомерки порезались.

Ап ТИЦ 16.10.09

Вот и апнуло. Долго я этого ждал, долго. Ниже приведу список сайтов с небольшими пояснениями как и что делалось и что планируется делаться дальше.

АГС-17. Он должен был прийти.

Только ленивый еще не писал про фильтр АГС-17.

«Робот анализирует содержание всех страниц сайта и принимает решение о включении их в индекс. Если сайт большой, а в поиске участвует лишь несколько его страниц, это означает, что остальные были классифицированы как не имеющие дополнительной ценности для пользователей.

Какое количество страниц будет проиндексировано - зависит от многих факторов, в том числе от качества контента, интереса пользователей к ресурсу и соответствия сайта поисковой лицензии, особенно это касается пункта 3.5. В некоторых случаях число страниц может быть и меньше 10, и больше 10. В любом случае проиндексированных страниц должно быть достаточно для того, чтобы сайт находился по основным запросам, на которые он может дать хороший и релевантный ответ», - прокомментировал для Searchengines.ru менеджер проектов по борьбе с поисковым спамом компании «Яндекс».