Сейчас 127 заметки.
Robots.txt
Материал из ЗАметки
Версия от 19:40, 24 июня 2012; Admin (обсуждение | вклад)
Для того, чтобы ускорить индексацию страниц в поиске, закрываем в Robots.txt неинтересные и бесполезные для пользователей информацию. Например, статистику посещений, страницу с результатами поиска, страницу регистрации.
И так, создаем новый текстовый документ, переименовываем его в Robots ( .txt - это расширение текстового документа) и вставляем нижеуказанный код.
User-Agent: * Disallow: /wiki/Special:UserLogin Host: wikiency.org
Где Disallow: указывает на запрет индексации страницы, а /wiki/Special:UserLogin путь к указанной страницы.
Host: wikiency.org - ваш домена.