Сейчас 127 заметки.

Robots.txt: различия между версиями

Материал из ЗАметки
(Новая страница: «Для того, чтобы ускорить индексации сайта в поиске - закрываем в Robots.txt неинтересные, и бе...»)
 
Строка 1: Строка 1:
Для того, чтобы ускорить индексации сайта в поиске - закрываем в Robots.txt  неинтересные, и бесполезные для пользователей информацию.  Например,  статистика посещений, страница с результатами поиска,  страницу регистрации.
+
Для того, чтобы [[Самостоятельное продвижение сайта|ускорить индексацию]] страниц в поискезакрываем в Robots.txt  неинтересные и бесполезные для пользователей информацию.  Например,  статистика посещений, страница с результатами поиска,  страницу регистрации.
 
И так, создаем новый текстовый документ, переименовываем его в Robots (многие переименовывают в Robots.txt,  этого ни в коем случае делать нельзя, так как .txt - это расширение текстового документа) и вставляем нижеуказанный код.
 
И так, создаем новый текстовый документ, переименовываем его в Robots (многие переименовывают в Robots.txt,  этого ни в коем случае делать нельзя, так как .txt - это расширение текстового документа) и вставляем нижеуказанный код.
  

Версия 23:23, 10 июня 2012

Для того, чтобы ускорить индексацию страниц в поиске, закрываем в Robots.txt неинтересные и бесполезные для пользователей информацию. Например, статистика посещений, страница с результатами поиска, страницу регистрации. И так, создаем новый текстовый документ, переименовываем его в Robots (многие переименовывают в Robots.txt, этого ни в коем случае делать нельзя, так как .txt - это расширение текстового документа) и вставляем нижеуказанный код.

User-Agent: *

Disallow: /wiki/Служебная:UserLogin

Host: wikiency.org

Где Disallow: указывает на запрет индексации станицы, а /wiki/Служебная:UserLogin путь к указанной страницы.

Host: wikiency.org - ваш домена.