Под обычной индексацией страниц сайта понимается ситуация, когда бот поисковика заходит по внешней ссылке на какую-то страницу сайта, например на морду, находит там ссылки на внутренние страницы и обходит их тоже, находит на них ещё ссылки на более внутренние страницы и идёт туда. Работает это медленно и печально, есть разные способы помочь ботам в этом нелегком деле.

1. Добавление всех страниц сайта вручную (либо скриптом) через “аддурилку”, форму на сайте поисковика, куда можно добавить свой сайт. Вроде бы хорошо работает в Яндексе, с Гуглом непонятно, работает ли вообще хоть как-то, может данные оттуда даже никуда не записываются. Прикол: капчу, которую показывает Гугл на странице аддурилки, можно не вводить, работает одинаково. :)

2. Ротация внутренних ссылок на морде сайта и на других проиндексированных страницах. Классика. Недостаток в том, что зухмашина Гугл не любит, когда уже проиндексированный документ сильно меняется, так что способо не особо хороший и ускорение от него не особо сильное.

3. Создание ссылочных хтмл карт, хостящихся отдельно, на трастовых хостах. Как разновидность: создание хсс карт – огромных нтмл-портянок с хсс ссылками. Этот способ вроде как даже выращивает ТИЦ в Яндексе. Хакеры, ломающие вордпресс выкладывают такие карты на ломаные хосты, в результате новые сломаные хосты индексируются довольно шустро и формально у них получается бесспамная работа, но на пару лет за неё всё равно могут посадить.

4. Создание хитрых RSS-карт, когда карта ссылок генерится не сразу вся, а симулируется создание RSS-ленты, которая пингуется в пингосервисы. Для индексации тысяч страниц наверное не подойдёт, реализовать такое довольно сложно, зато страницы должны моментально попадать в “быстрый индекс”.

На данную тему советую также почитать SEO-блог о зароботке, на котором также описанны основные моменты темы.

5. Разбивка ссылок на блоки и сабмит их в различные закладочные сервисы, которых сейчас уже есть несколько сотен. Хорошо тем, что сразу появляется постоянный беклинк, плохо тем что требует реализации довольно сложного скриптового сценария, либо тяжелой ручной работы, там где нет импорта закладок.

6. Развешивание ссылок на сетях сплогов. Примерно похоже на предыдущий пункт, но легче реализуемо, поскольку сплоги управляются однотипно и их могут быть тысячи (на блоггере и WPMU-сайтах). Опять же, тоже образуются постоянные бэки (пока не снесут сплог).

7. Принудительное заманивание адсенс-бота на страницу с установленным адсенсом. Как известно, зухмашина Гугл использует некий кэш для индексируемых страниц, так что если страницу прочитает медиа-бот, то про неё будет знать и гугльбот, но неясно поможет ли это индексации. Скорей всего, поможет, скоро буду знать наверняка. Показываемый адсенс при этом совсем не обязательно должен принадлежать владельцу сайта, поскольку защиту против показа адсенс объявлений ввели совсем недавно, найти незащищенный код на просторах интернета не составляет никакой проблемы. Ещё хорошо тем, что скорость индексации зависит только от скорости отрисовки страниц браузером, тем более что можно запускать паралленьно несколько процессов.
Оригинал статьи на Блоге, где палят темы.

Для продвижения своего товара или своих услуг многие могут просто создать flash презентацию своего продукта, которая очень сильно привлекает потенциальных покупателей. Главное все сделать правильно, чтобы не отпугнуть клиента. Поэтому я советую обращатся только к професионалам.