Регистрация в Поисковых Системах

поисковая система http://manisait.bizПоисковые системы — это самый удобный и самый распространенный способ поиска информации в Интернете. Именно регистрация сайта в поисковых системах даёт до 80% трафика на Ваш сайт. Поэтому после создания и проверки сайта первым делом зарегистрируйте его в поисковых системах. Самые популярные в СНГ — RAMBLER.RU, YANDEX.RU, APORT.RU, GOOGLE.COM, MAIL.RU и др.
Англоязычное население Интернета использует Yahoo.com, Google.com и Altavista.com. В перечисленных выше поисковиках, и вообще во всех наиболее популярных системах, рекомендую регистрироваться вручную, несмотря на то, что существует множество сайтов и программ, позволяющих автоматически зарегистрироваться в десятках и сотнях поисковых систем.
Зарегистрировавшись вручную в наиболее популярных поисковиках и каталогах, не помешает еще и зарегистрировать свой сайт при помощи специальных сайтов и служб автоматической регистрации, через данные службы раскручивать сайт намного легче, чем вручную.
Проблема поисковых систем состоит в том, что в их базах данных содержатся сотни тысяч документов. Поэтому по любому запросу поисковая машина выдаст пользователю огромное количество ресурсов (сайтов) по данной теме. Если учесть, что на каждой странице размещается в среднем 15 ссылок, шансов, что кто-нибудь просмотрит, например, тридцатую страницу и увидит ссылку номер 157, практически нет. По статистике около 60% пользователей просматривают результаты своего запроса не дальше третьей страницы.
Таким образом, Ваша задача — добиться того, чтобы Ваш ресурс показывался одним из первых. Повышенная значимость документа определяется ссылками извне на сайт, содержащий этот документ.
Размещая ссылку на другой сайт, его как бы рекомендуют посетителям своего сайта. Однако, ссылки тоже бывают разные. Количество внешних ссылок на сайт не годится для представления «цитируемости». Важность ссылок с сайтов на бесплатных хостингах и с низким тИЦ ничтожна по сравнению со ссылками с известных ресурсов. «Цитируемость» и есть такой параметр важности, который выражает авторитетность страницы.
Все поисковики учитывают «цитируемость», но базы у них разные — поэтому цитируемый сайт для одного поисковика может не быть цитируемым для другого. Поэтому, очень важно то, чтобы ссылки на Ваш сайт были с наиболее цитируемых ресурсов.
Ниже Вы можете зарегистрировать свой сайт в самых популярных поисковых системах.

Регистрация в поисковых системах:

Для регистрации Вашего сайта в популярных поисковых системах, нажмите ниже на логотипы поисковых систем (откроется в новом окне).

Как работают роботы поисковой машины?
Поисковые роботы стоит воспринимать, как программы автоматизированного получения данных, путешествующие по сети в поисках информации и ссылок на информацию.
Когда, зайдя на страницу «Submit a URL», вы регистрируете очередную web-страницу в поисковике — в очередь для просмотра сайтов роботом добавляется новый URL. Даже если вы не регистрируете страницу, множество роботов найдет ваш сайт, поскольку существуют ссылки из других сайтов, ссылающиеся на ваш. Вот одна из причин, почему важно строить ссылочную популярность и размещать ссылки на других тематических ресурсах.
Прейдя на ваш сайт, роботы сначала проверяют, есть ли файл robots.txt. Этот файл сообщает роботам, какие разделы вашего сайта не подлежат индексации. Обычно это могут быть директории, содержащие файлы, которыми робот не интересуется или ему не следовало бы знать.
Роботы хранят и собирают ссылки с каждой страницы, которую они посещают, а позже проходят по этим ссылкам на другие страницы. Вся всемирная сеть построена из ссылок. Начальная идея создания Интернет сети была в том, что бы была возможность перемещаться по ссылкам от одного места к другому. Вот так перемещаются и роботы.
«Остроумность» в отношении индексирования страниц в реальном режиме времени зависит от инженеров поисковых машин, которые изобрели методы, используемые для оценки информации, получаемой роботами поисковика. Будучи внедрена в базу данных поисковой машины, информация доступна пользователям, которые осуществляют поиск. Когда пользователь поисковой машины вводит поисковый запрос, производится ряд быстрых вычислений для уверенности в том, что выдается действительно правильный набор сайтов для наиболее релевантного ответа.
Вы можете просмотреть, какие страницы вашего сайта уже посетил поисковый робот, руководствуясь лог-файлами сервера, или результатами статистической обработки лог-файла. Идентифицируя роботов, вы увидите, когда они посетили ваш сайт, какие страницы и как часто. Некоторые роботы легко идентифицируются по своим именам, как Google’s «Googlebot». Другие более скрытые, как, например, Inktomi’s «Slurp». Другие роботы так же могут встречаться в логах и не исключено, что вы не сможете сразу их идентифицировать; некоторые из них могут даже оказаться браузерами, которыми управляют люди.
Помимо идентификации уникальных поисковых роботов и подсчета количества их визитов, статистика также может показать вам агрессивных, поглощающих ширину катала пропускания роботов или роботов, нежелательных для посещения вашего сайта.

Как поисковые роботы читают страницы вашего web-сайта?
Когда поисковой робот посещает страницу, он просматривает ее видимый текст, содержание различных тегов в исходном коде вашей страницы (title tag, meta tags, и т.д.), а так же гиперссылки на странице. Судя по словам ссылок, поисковая машина решает, о чем страница. Есть много факторов, используемых для вычисления ключевых моментов страницы «играющих роль». Каждая поисковая машина имеет свой собственный алгоритм для оценки и обработки информации. В зависимости от того, как робот настроен, информация индексируется, а затем доставляется в базу данных поисковой системы.
После этого, информация, доставленная в индексные базы данных поисковой системы, становится частью поисковика и процесса ранжирования в базе. Когда посетитель осуществляет запрос, поисковик просматривает всю базу данных для выдачи конечного списка, релевантного поисковому запросу.
Базы данных поисковых систем подвергаются тщательной обработке и приведению в соответствие. Если вы уже попали в базу данных, роботы будут навещать вас периодически для сбора любых изменений на страницах и уверенности в том, что обладают самой последней информацией. Количество посещений зависит от установок поисковой машины, которые могут варьироваться от ее вида и назначения.
Иногда поисковые роботы не в состоянии проиндексировать web-сайт. Если ваш сайт упал или на сайт идет большое количество посетителей, робот может быть бессилен в попытках его индексации. Когда такое происходит, сайт не может быть переиндексирован, что зависит от частоты его посещения роботом. В большинстве случаев, роботы, которые не смогли достичь ваших страниц, попытаются позже, в надежде на то, что ваш сайт в ближайшее время будет доступен.
Многие поисковые роботы не могут быть идентифицированы, когда вы просматриваете логи. Они могут посещать вас, но логи утверждают, что кто-то использует Microsoft броузер и т.д. Некоторые роботы идентифицируют себя использованием имени поисковика (googlebot) или его клона (Scooter = AltaVista).
В зависимости от того, как робот настроен, информация индексируется, а затем доставляется в базы данных поисковой машины.
Базы данных поисковых машин подвергаются модификации в различные сроки. Даже директории, имеющие вторичные поисковые результаты используют данные роботов как содержание своего web-сайта.
Собственно, роботы не используются поисковиками лишь для вышеизложенного. Существуют роботы, которые проверяют баз данных на наличие нового содержания, навещают старое содержимое базы, проверяют, не изменились ли ссылки, загружают целые сайты для просмотра и так далее.
По этой причине, чтение лог-файлов и слежение за выдачей поисковой системы помогает вам наблюдать за индексацией ваших проектов.