Сейчас 127 заметки.
Robots.txt: различия между версиями
Материал из ЗАметки
Admin (обсуждение | вклад) |
Admin (обсуждение | вклад) |
||
Строка 4: | Строка 4: | ||
User-Agent: * | User-Agent: * | ||
− | Disallow: /wiki/ | + | Disallow: /wiki/Special:UserLogin |
Host: wikiency.org | Host: wikiency.org | ||
</pre> | </pre> | ||
− | Где '''Disallow:''' указывает на запрет индексации страницы, а ''[http://wikiency.org/wiki/ | + | Где '''Disallow:''' указывает на запрет индексации страницы, а ''[http://wikiency.org/wiki/Special:UserLogin /wiki/Special:UserLogin]'' путь к указанной страницы.<br /> |
Host: wikiency.org - ваш домена. | Host: wikiency.org - ваш домена. |
Версия 18:21, 11 июня 2012
Для того, чтобы ускорить индексацию страниц в поиске, закрываем в Robots.txt неинтересные и бесполезные для пользователей информацию. Например, статистику посещений, страницу с результатами поиска, страницу регистрации.
И так, создаем новый текстовый документ, переименовываем его в Robots (многие переименовывают в Robots.txt, этого ни в коем случае делать нельзя, так как .txt - это расширение текстового документа) и вставляем нижеуказанный код.
User-Agent: * Disallow: /wiki/Special:UserLogin Host: wikiency.org
Где Disallow: указывает на запрет индексации страницы, а /wiki/Special:UserLogin путь к указанной страницы.
Host: wikiency.org - ваш домена.