Общий принцип работы поисковых систем

Если говорить коротко и упрощенно, то работают все поисковые системы так: Crawler по указанию Spider скачивает новые неизвестные страницы с сайта, они анализируются, определяются ссылки с этих страниц, по которым Spider опять уходит на поиски нового контента, обнаруживает их, дает команду Crawler на скачивание и далее на анализ и так до бесконечности. В найденных страницах анализируется содержание и они встраиваются в общий рейтинг (индекс поисковой системы).
Надо знать, что поисковые боты (роботы) запрашивают серверы, на которых расположены сайты, есть ли на «подведомственных» сайтах что-нибудь новое. Если сервер, отвечает утвердительно, то боты начинают искать и скачивать новые страницы. Или измененные страницы, если Вы вносили изменения. Поэтому вносить изменения в уже опубликованные статьи не менее важно, чем писать новые: в глазах робота – это тоже новый контент. Отсюда, кстати, вытекает то, что надежность сервера, на котором Вы размещаете свой сайт, имеет первостепенное значение.
Мы можем и должны учитывать этот момент в своей деятельности для решения тех или вопросов. Ясно, что ссылка  с социальной сети (особенно принадлежащей самому поисковику – Google+ или Я.ру) будет роботом поисковой системы обнаружена быстрее всего, но она не сможет передать такой же вес, как ссылка с самого авторитетного ресурса по Вашей теме.
Поэтому, если Вам надо, чтобы Ваш сайт (или его страницу) как можно быстрее нашли поисковые системы, то Вам надо получить ссылки с информационных ресурсов, социальных сетей и т.п. А если Вы озабочены «пузомерками» (PR и тИЦ), то Вам нужны совсем другие ссылки. Для того, чтобы это Вам стало яснее и Вы не допускали стратегических (именно так!) ошибок, нам необходимо узнать, каким образом у поисковых систем выдача и вообще ранжирование страниц.

Комментарии