Боты поисковых систем: как они работают?

Аналитика

Спроси любого, кто хоть немного понимает в принципах работы интернета, что главное в работе с сайтом, и тебе ответят – раскрутка и продвижение! А если спросить: «Что главное в раскрутке и продвижении», большинство ответят – Поисковая оптимизация! Поисковая оптимизация (англ. search engine optimization, SEO) — комплекс мер для поднятия позиций сайта в результатах выдачи поисковых систем по определенным запросам пользователей. Так, по крайней мере, говорит Википедия. Чтобы грамотно продвигать сайт, необходимо понимать, как осуществляется выдача по поисковым запросам. Выдачу осуществляет поисковый бот и руководствуется он при этом собственным индексом.

Например, если зарабатывать при помощи партнерки www.smartbucks.ru, то мой доход напрямую зависит от количества посетителей. То, сколько человек посетит ваш сайт, зависит от множества причин, но главной является положение вашего сайта в выдаче поисковиков. И сегодня я хотел бы поговорить с вами о работе поисковых ботов, которые собственно и определяют, будет ли ваш сайт в первой десятке выдачи, или где-нибудь на пятой странице.

Как я уже говорил, бот в своей работе опирается на собственный индекс. Как образуется этот поисковый индекс? Существует два способа индексации сайтов:

1) Поисковые боты постоянно шерстят интернет в поисках новых сайтов и изменений в уже индексированных. Если поисковый бот натыкается на новый сайт, он ставит его на заметку и в течение какого-то времени следит за ним. Если бот не обнаруживает на сайте спама, чего-то незаконного, видит, что он постоянно обновляется, и периодически заходят новые пользователи, он индексирует сайт. Время, в течение которого поисковый бот будет «присматриваться» к новому сайту и количество «правил» которым должен соответствовать этот сайт, дабы быть проиндексированым, зависит от конкретного поисковика. Рамблеру, например, необходимо не меньше пару месяцев, дабы добавить новый сайт, Яндекс же, пожалуй, самый «демократичный» поисковик, именно поэтому в его выдаче так много спамерских сайтов.

2) Веб – мастер самостоятельно обращается к поисковику, дабы тот проиндексировал его новое творение. На самом деле, послать подобный запрос на индексацию – первое, что должен сделать веб – мастер, после открытия нового сайта. Обращаться стоит в Яндекс, Рамблер, Гугл, Апорт. Остальные поисковики составляют слишком малую долю рынка поисковых услуг, так что ими можно спокойно пренебречь.

Стандартная ошибка новичков – получили высокий индекс и забыли о поисковой оптимизации. Это очень большая ошибка, потому как поисковые боты постоянно «перепроверяют» сайты. Если вы, после получения высокого индекса, начнёте захламлять свой сайт спамом, ворованным контентом и т.д. – уже через месяц ваш сайт может пропасть из выдачи вообще. И, кстати, получить высокий индекс изначально значительно проще, нежели опуститься в выдаче и снова подняться. Я уже молчу про тот случай, если вас забанит популярный поисковик. Если вас забанил Яндекс – можете сразу закрывать сайт! Вернее, не сразу конечно – можно попробовать сменить хостинг, название, домен, платформу, но на самом деле даже это не всегда помогает. Так что постоянно следите за положением своего сайта в выдаче поисковиков! По скорости реиндексации самый скоростной поисковый бот у системы Яндекс, самый медленный – Апорт. У последнего на реиндексацию сайта с количеством посещений 60 – 120 хостов за сутки может уйти до полугода! То есть, если вы упали в выдаче Апорта – можете смело забыть об этом поисковике, так как любые ваши действия по поднятию индекса дадут результат ещё очень не скоро.

Не стоит забывать также о разных АГС и прочих ужасах. Хотя я уже сомневаюсь, что Яндекс способен отличить СДЛ от ГС (судя по тому, что у меня он забанил несколько СДЛ), все равно нужно делать сайты для людей.

Мне кажется, что основным признаком СДЛ теперь становится дизайн. Не шаблон, не «на коленке», а нормальный, красивый, купленный дизайн.

Related posts

Оставить комментарий