Главная > Без рубрики > Пользуемся файлом robots.txt

Пользуемся файлом robots.txt

Допустим у вас есть свой веб-сайт. Пойдем дальше. Допустим вы захотели добавить его в базу данных поисковых машин Google, Yahoo, Yandex, Rambler… Существует много разных методов это сделать. Это целое направление которое получило название SEO (search engine optimization) . Если вы хотите серьезно этим заняться, то вам следует на это потратить намного больше времени, чем требуется для прочтения одной статьи.

Здесь я всего этого касаться не буду. Итак. Считаем что вы уже зарегестрировали свой сайт в поисковых машинах, Google,Yahoo,Yandex,Ramble

Теперь по крайней мере 4 поисковых машины знают о вашем сайте (но все равно вам придется подождать иногда и пару месяцев, пока они проиндексируют сайт). Вот здесь и возникает проблема. Допустим у меня есть сайт. Например http://www.storageguide.al.ru/ на котором есть одна страничка, например http://www.*****.net/data/downloads.php , которая содержит мою приватную информацию. Доступ на нее имеют только определенные пользователи.

Но роботы поисковых машин этого не понимают, пока им это не укажешь. Для этого и существует файл robots.txt, который нужно поместить в корень вашего сайта.

Формат файла robots.txt file указан стандартами Robot Exclusion Standard.
Файл robots.txt состоит из записей. Каждая запись состоит как минимум из двух строк: строки с названием клиентского приложения — User-agent, и одной или нескольких строк, начинающихся с директивы Disallow.
Пустые строки в файле robots.txt являются значимыми, они разделяют записи, имеющие разные строки User-agent.

Приведу некоторые примеры:
Роботам всех поисковых машин разрешена индексация всех страниц сайта:
User-agent: *
Disallow:

Роботам всех поисковых машин разрешена индексация всех страниц сайта:
User-agent: *
Disallow:/

Запретить роботу Google индексировать поддиректории, начинающиеся с private :
User-agent: googlebot
Disallow:/private*/

Запретить доступ ко всем страницам, содержащим знак ? :
User-agent: *
Disallow:/*?*

С помощью знака $ вы можете указывать на конец файла. Например блокировать все файлы, заканчивающиеся на .php :
User-agent: *
Disallow:/*.php$

Помимо директивы Disallow, можна еще использовать и Allow или их комбинацию.
Например :
User-agent: *
Alloew: /*?$
Disallow:/*?

Т.е. Disallow:/*? будет блокировать все URLs заключающие в себе знак ?, но опция Alloew: /*?$ разрешит URLs, которые заканчиваются на ?.

Ну и пример, про который я говорил в самом начале.

# No index my file downloads.php
User-agent: *
Disallow: /data/downloads.php

(знак # служит для включения коментариев).

Чтобы протестировать что у вас получилось, советую воспользоваться утилитой для вебмастеров, которая доступна всем, имеющим учетную запись Google.

Categories: Без рубрики Tags:
  1. Пока что нет комментариев.
  1. Пока что нет уведомлений.
Необходимо войти на сайт, чтобы написать комментарий.
#

//