Сейчас 127 заметки.

Robots.txt: различия между версиями

Материал из ЗАметки
 
Строка 1: Строка 1:
 
Для того, чтобы [[Самостоятельное продвижение сайта|ускорить индексацию]] страниц в поиске,  закрываем в Robots.txt  неинтересные и бесполезные для пользователей информацию.  Например,  статистику посещений, страницу с результатами поиска,  страницу регистрации.<br />
 
Для того, чтобы [[Самостоятельное продвижение сайта|ускорить индексацию]] страниц в поиске,  закрываем в Robots.txt  неинтересные и бесполезные для пользователей информацию.  Например,  статистику посещений, страницу с результатами поиска,  страницу регистрации.<br />
И так, создаем новый текстовый документ, переименовываем его в Robots (многие переименовывают в Robots.txt,  этого ни в коем случае делать нельзя, так как .txt - это расширение текстового документа) и вставляем нижеуказанный код.
+
И так, создаем новый текстовый документ, переименовываем его в Robots ( .txt - это расширение текстового документа) и вставляем нижеуказанный код.
 
<pre>
 
<pre>
 
User-Agent: *
 
User-Agent: *

Текущая версия на 19:40, 24 июня 2012

Для того, чтобы ускорить индексацию страниц в поиске, закрываем в Robots.txt неинтересные и бесполезные для пользователей информацию. Например, статистику посещений, страницу с результатами поиска, страницу регистрации.
И так, создаем новый текстовый документ, переименовываем его в Robots ( .txt - это расширение текстового документа) и вставляем нижеуказанный код.

User-Agent: *

Disallow: /wiki/Special:UserLogin

Host: wikiency.org

Где Disallow: указывает на запрет индексации страницы, а /wiki/Special:UserLogin путь к указанной страницы.
Host: wikiency.org - ваш домена.