Сейчас 127 заметки.

Robots.txt

Материал из ЗАметки
Версия от 23:10, 10 июня 2012; Admin (обсуждение | вклад) (Новая страница: «Для того, чтобы ускорить индексации сайта в поиске - закрываем в Robots.txt неинтересные, и бе...»)
(разн.) ← Предыдущая | Текущая версия (разн.) | Следующая → (разн.)

Для того, чтобы ускорить индексации сайта в поиске - закрываем в Robots.txt неинтересные, и бесполезные для пользователей информацию. Например, статистика посещений, страница с результатами поиска, страницу регистрации. И так, создаем новый текстовый документ, переименовываем его в Robots (многие переименовывают в Robots.txt, этого ни в коем случае делать нельзя, так как .txt - это расширение текстового документа) и вставляем нижеуказанный код.

User-Agent: *

Disallow: /wiki/Служебная:UserLogin

Host: wikiency.org

Где Disallow: указывает на запрет индексации станицы, а /wiki/Служебная:UserLogin путь к указанной страницы.

Host: wikiency.org - ваш домена.