Блог Ярослава Витязева

Персональный комментируемый блог

Архив для рубрики ‘Поисковые системы

Одним из возможных путей продвижения сайта в поисковых системах является регистрация в каталогах с целью получения обратных ссылок по целевым ключевым словам. Хоть и каталожная тема в последнее время начала "затухать", все же эффект от каталогов есть и многие специалисты по продвижению ее по прежнему используют. Прогон по базе каталогов (2-3 тысячи белых каталогов) приносит небольшой тИЦ и позволяет увеличить PR до 2-3 для нулевого сайта, см. ветку на SE.ru.

Однако поисковые машины считают каталоги серым методом продвижения и не приветствуют его. Неприветствовать они могут лишь двусторонне: "изучая" ссылки с каталогов на вас и "изучая" ссылки с вашего сайта на каталоги. Если с первой проблемой бороться трудно, то вторую проблему легко можно разрешить.

Многие каталоги требуют установки обратных ссылок, а их администраторы проверяют их наличие либо вручную, либо при помощи простейших алгоритмов вроде GET-запроса страницы с обратной ссылкой и проверки на наличие кода. Как правило эта проверка происходит либо в момент регистрации, либо в течение месяца после регистрации.

С другой стороны, если поисковый робот найдет страницу с обширным количеством обратных ссылок на каталоги, он сочтет, что вы используете непристойные методы продвижения и покарает ваш сайт, наложив фильтр. Что делать для того, чтобы администратор каталога нашел обратную ссылку на каталог, а робот нет? Ответ прост.

На странице вашего сайта (например, на главной) разместите ссылку на страницу с обратными ссылками по следующей схеме:

<noindex><a href='/blinks.html' rel='nofollow'>Друзья сайта</a></noindex>

А в файле /robots.txt пропишите:

Disallow: /blinks.html

В принципе можно ограничиться лишь последним. Удачной регистрации!

P. S.

Ах, да. Чуть не забыл. Через месяц следует убрать эти ссылки и директиву из robots.txt. В поисковых системах помимо роботов сайты на серость проверяют и Платоны Щукины.

Анализаторы поисковых машин (от А&П)

"Ашманов и партнеры" запустили анализатор выдачи ИПС. Весьма интересный инструмент, позволяет строить следующие виды отчетов:

  • анализ апдейтов;
  • анализ качества навигационного поиска;
  • анализ "давления" оптимизаторов на поисковую выдачу;
  • анализ качества тематического поиска;
  • анализ спама в выдаче.

Вот пример укрупненного отчета об анализе апдейтов:

Давыдов - молодец!

Здесь был непристойный говнопост про Давыдова. А теперь он удален. Давыдову - ссылка с анкором философского характера. Молодец. Садись. Четыре.

Мои каталоги сайтов и мои разочарования

В последнее время я практически забросил каталожную тему. Последнее, что я сделал в этой области - сухая выжимка аналитической части из проекта "Каталог ресурсов интернет с элементами ИИ" в виде реферата по специальности для поступления в аспирантуру. Итак, пришло время поделиться аналитикой, раз уж я (за исключением одного проекта) "бросаю" эту тему.

У меня три каталога ресурсов Интернет. Несколько месяцев назад (до неприятных обстоятельств с доменом) ежесуточное суммарное количество просмотров страниц составляло около 2-4 тысяч, что приносило некоторый доход, которого было достаточно для того, чтобы платить за интернет (анлимит в Иркутске сравнительно дорогой), за автомобиль (стоянка + бензин), и немного (50% :)) на развлечения. Было замечательно, поверьте, полный автопилот.

Подробности с иллюстрациями под катом.

(more...)

Обновление Google directory

Каталог Google обновился.

Игрался пару часов назад с сервисом Yahoo! Pipes. Уж очень крутая штука. И появилась в голове следующая мысль.

При помощи этого сервиса, используя модули Operators::Loop и String::Translate можно парсить выдачи (контент, RSS, XML) и создавать на этой основе вполне сносный машинный перевод оригинального текста, который, в свою очередь, можно использовать, например для дорвея.

При помощи Pipes программирование превращается в игру, а сам процесс создания такого дорвея в несколько десятков кликов мышью. Новые горизонты в области веб-подработок.

Иллюстрация к описанному выше методу (кликните по изображению для просмотра его в полном размере):

pipes-for-doorway

Проба системы Sape в каталоге

Поставил код системы Sape.ru в одном из своих каталогов сайтов. Посмотрим какой из этого будет результат.

На другом каталоге аналогичная по смыслу система продажи ссылок с внутренних страниц (рекламный брокер CLX) приносит 70$ в месяц при посещаемости чуть более 1К посетителей в сутки, тИЦ 220, PR 4.

По Sape.ru:

- страницы каталога быстро проиндексировались;

- каталог прошел модерацию за полчаса;

- спустя 10 минут было куплено 5 ссылок со страниц 3-го уровня вложенности;

- почему-то код ссылок не отображается на страницах каталога (перечитал все мануалы и FAQ-и, вроде бы все разместил верно; во внутренностях кода Sape копаться не хочется; в системе статус ссылки отображается как ОК).

Проба на предмет индексации страниц вида search.php?query=<TAG>:

robots.txt

User-agent: *
Disallow: /index2.php?act=show&doc=cartshow&type_id=
Disallow: /admin.php
Disallow: /sites
Disallow: /cgi-bin
Disallow: /test
Disallow: /temp
Disallow: /style
Disallow: /nfound
Disallow: /isover
Disallow: /engines
Disallow: /local-search.html
Disallow: /engines.html
Disallow: /template
Disallow: /snippet
Disallow: /errors
Disallow: /rss
Disallow: /phpBB2/viewforum.php?f=7

robots.txt

User-agent: *
Disallow: /cgi-bin/
Disallow: /details/software

robots.txt

User-agent: *
Disallow: /administrator/
Disallow: /cache/
Disallow: /components/
Disallow: /editor/
Disallow: /help/
Disallow: /images/
Disallow: /includes/
Disallow: /language/
Disallow: /mambots/
Disallow: /media/
Disallow: /modules/
Disallow: /templates/
Disallow: /installation/

Один из возможных вариантов: создать разделы, ассоциированные с этим контентом, например:

  • Порнография
    • Геи, лесбиянки и бисексуалы
    • Жесткое порно
    • и т.п...,

а контент, добавляемый в эти разделы, помечать специальным образом и не показывать (посетителям или поисковикам, защищая его, при помощи HTTP-заголовков, например HTTP 404 Not Found).

Получение значения Google PageRank (PR)

На прошлой неделе был написан код для получения Google PR.

Заголовок исходного файла:

/**
* Google Page rank data grabber.
* Based on Google toolbar data.
*
* Working with data like that:
* "Rank_1:1:6". Without XML/HTML parsing.
*
* @important:
* This code is for cognitive purposes only.
* Usage of this code is against Google's terms of service.
* No support is provided for this code.
* Can be used "as is" for your own risk.
*
* @requirements:
* - PHP version 5 (can easily be downgraded to PHP4)
* - cURL library (but you can replace curl functions with
* PHP standard fopen/fread or other)
*
* @version 1.1
* @author exstabler // PHP version
* @author snoopy // JS version
*
* @changelog:
* - 2007-01-18:
* 1. [exstabler] Deprecated method intToHex deleted.
* 2. [exstabler] Method toHex8 corrected.
*
* @sample usage:
* $obj = new PageRankGrabber();
* $rank = $obj->getRank('http://dir.org.ru');
*/