Сейчас 127 заметки.
Robots.txt: различия между версиями
Материал из ЗАметки
Admin (обсуждение | вклад) (Новая страница: «Для того, чтобы ускорить индексации сайта в поиске - закрываем в Robots.txt неинтересные, и бе...») |
Admin (обсуждение | вклад) |
||
Строка 1: | Строка 1: | ||
− | Для того, чтобы ускорить | + | Для того, чтобы [[Самостоятельное продвижение сайта|ускорить индексацию]] страниц в поиске, закрываем в Robots.txt неинтересные и бесполезные для пользователей информацию. Например, статистика посещений, страница с результатами поиска, страницу регистрации. |
И так, создаем новый текстовый документ, переименовываем его в Robots (многие переименовывают в Robots.txt, этого ни в коем случае делать нельзя, так как .txt - это расширение текстового документа) и вставляем нижеуказанный код. | И так, создаем новый текстовый документ, переименовываем его в Robots (многие переименовывают в Robots.txt, этого ни в коем случае делать нельзя, так как .txt - это расширение текстового документа) и вставляем нижеуказанный код. | ||
Версия 23:23, 10 июня 2012
Для того, чтобы ускорить индексацию страниц в поиске, закрываем в Robots.txt неинтересные и бесполезные для пользователей информацию. Например, статистика посещений, страница с результатами поиска, страницу регистрации. И так, создаем новый текстовый документ, переименовываем его в Robots (многие переименовывают в Robots.txt, этого ни в коем случае делать нельзя, так как .txt - это расширение текстового документа) и вставляем нижеуказанный код.
User-Agent: * Disallow: /wiki/Служебная:UserLogin Host: wikiency.org
Где Disallow: указывает на запрет индексации станицы, а /wiki/Служебная:UserLogin путь к указанной страницы.
Host: wikiency.org - ваш домена.