У меня есть пару друзей которые тоже ведут автономные блоги на WordPress.
И тоже начали не так давно.
Ну я вот вчера ночью сидел и анализировал их внутреннюю оптимизацию.
И пришел к выводу что некоторым из них нужна помощь.
Точнее не помощь а пару советов.
Ранее я уже рассказывал как настроить rss и что потом с этим rss делать.
Теперь пришло видимо время рассмотреть файл robots.txt
И так.
файл robots.txt ( он кстати лежит в корне сайта ) нужен для создание "инструкций" поисковым роботам.
Если уж совсем по простому, то он объясняет поисковикам что можно индексировать а что нет.
Это ускоряет индексацию, помогает избежать дублирование контента и не забивает поисковики "ненужным хламом" который они так не любят.
Конфигураций конечно может быть много.
Но я считаю что для WordPress подходит примерно следующая.
******
User-agent: Yandex Allow: /wp-content/uploads/ Disallow: /wp-login.php Disallow: /wp-register.php Disallow: /xmlrpc.php Disallow: /template.html Disallow: /cgi-bin Disallow: /wp-admin Disallow: /wp-includes Disallow: /wp-content/plugins Disallow: /wp-content/cache Disallow: /wp-content/themes Disallow: /wp-trackback Disallow: /wp-feed Disallow: /wp-comments Disallow: */trackback Disallow: */feed Disallow: */comments Disallow: /tag Disallow: /category Disallow: /archive Disallow: */trackback/ Disallow: */feed/ Disallow: */comments/ Disallow: /?feed= Disallow: /?s= Host: указываете ваш основной домен, с www он или без ( к примеру delexp.net ) User-agent: * Allow: /wp-content/uploads/ Disallow: /wp-login.php Disallow: /wp-register.php Disallow: /xmlrpc.php Disallow: /template.html Disallow: /cgi-bin Disallow: /wp-admin Disallow: /wp-includes Disallow: /wp-content/plugins Disallow: /wp-content/cache Disallow: /wp-content/themes Disallow: /wp-trackback Disallow: /wp-feed Disallow: /wp-comments Disallow: */trackback Disallow: */feed Disallow: */comments Disallow: /tag Disallow: /category Disallow: /archive Disallow: */trackback/ Disallow: */feed/ Disallow: */comments/ Disallow: /?feed= Disallow: /?s= Sitemap: http://вашсайт.ру/sitemap.xml
* я использую именно такой пример конфига. можете проверить http://delexp.net/robots.txt *
* эта версия конфига была выявлена экспериментальным путем - читать здесь и здесь
просто создаете файл robots.txt копируете туда изложеное выше и кидаете в корневик блога.
все счастливы.
угу, а еще я закрыл вообще доступ некоторым ботам, ибо не фиг грузить сервер. А Yahoo имеет самого №%№% бота который приводит к чрезмерным нагрузкам на проц. А самое главное ни каких входов с их №;%:%? поисковика нет.
я кстати понял как можно увеличить количество рсс подписчиков. точнее понял как ты предлагал их "накрутить". вставить рсс в жж да? а это трафик даст? а то мне ударными темпами надо посещаемость поднимать.
а подскажи пж что ты понял? ))) для меня оч актуально
ну у нас там своя жж тема есть) но мы ей не пользуемся.. как высянилось мертвые подписчики никому не нужны
Я тупое блондинко :) не знаю, как вставить этот файл в корень блога )
ну ты как плагины туда заливала? вот так же. только прям в основную папку блога ( примерно так /www/ani-sanni.com/сюда )
А конкретней можно? Вот открываю я коммандер, запускаю ftp-соединение...и что дальше? Там тьма папок, в каждой из них - еще по тьме...
ну у каждого хостинга по своему. у меня к примеру в папке www все мои сайты хранятся
У меня таких папок, оказывается, две - www и WWW. Вроде обе оинаковые. Но файла роботс в корневом каталоге у обеих нет...Или ее создть надо мне самой?
ну ествественно. он же из воздуха не появится)
да, что-то на подобии этого
[...] на хостинг, провели внутреннюю оптимизацию, заполнили robot.txt, нашли более менее нормальный [...]
спасибо. как раз то, что я искал
Сори за тупой вопрос, но звездочки копировать? :-) А то мало ли :-) Я в этих ШТМЛях ничего не понимаю, вдруг оно без звездочек не прочитает :-)
последние которые? их не надо. остальное все надо надо обзор на твой блог сделать чтоли) а то ты у меня самый топовый комментатор
Ой ё ёй.. мне еще такое рано :D
это надо было в самом начале делать)
вот помощь мне точно не помешает
ну так давайте)
Ни чего не поняла. Где и что создавать, где искать корневую папку. А можно написать инструкцию для полнейших чайников? Я даже в терминолигии не разбираюсь.
ну стукни в аську если хочешь. помогу чем смогу
Кстати, не получаю ответы на свои коменты. Ответ вижу только, когда захожу сюда. А скайп есть? Я в скайпе - kladez_zolota
скайп не использую в этих целях.
И есть вопрос, как сделать, чтобы приятать некоторые ссылки от поисковиков.
Атрибут rel="nofollow" используется при формировании кода ссылки: текст ссылки
Прости за мою тупость, а куда вставляется этот атрибут7
создаешь файл robots.txt вписываешь в него все что я указал. и суешь в ту папку, где у тебя хранится блог. прямо в корень
Спасибо! Но к сожалению я ни чего не поняла.
Аська есть у тебя или нет?
аськи нет
очень зря
Приветствую всех не подскажете где найти файл хмл? у карты сайта Sitemap: http://адресвашегомапа.ру/сайтмап.хмл вот тут?
ну вначале его нужно создать. для этого используйте плагин.. подробнее тут - http://delexp.net/wordpress-plaginy/
я это видал =) как я понял оттуда надо взять Google XML Sitemaps этот плагин мне же надо эту карту для robots.txt Dagon Design Sitemap Generator- этот у меня уже стоит . Вообщем непонял я
ну. создай плагином xml карту.. она появится у тебя по следующему пути http://mirkartofana.ru/sitemap.xml вот его и вставишь в роботс.тхт
Большое спасибо. Щас закинул робота. вот только вопрос файл трекбэк случайно не нужно дописывать .php ?
да нет в принципе
Очень пригодилось, первый раз столкнулся, помогло.
спасибо, отличный пост + готовая инструкция :)
пожалуйста)
Да не совсем готовая. Правила-то надо учитывать: Недопустимо наличие пустых переводов строки между директивами ‘User-agent’ и ‘Disallow’ (‘Allow’), а также между самими ‘Disallow’ (‘Allow’) директивами. Кроме того, в соответствии со стандартом перед каждой директивой ‘User-agent’ рекомендуется вставлять пустой перевод строки. Почему у вас в файле robots.txt все сплошняком идет?
а не могли бы вы источник дать... где об этом подробно почитать...
а зачем создавать лишние сложности и забивать головы людей, если и так все работает? http://i005.radikal.ru/1101/03/6caf1abd6311.jpg
кстати по поводу последней строки - Sitemap: http://адресвашегомапа.ру/сайтмап.хмл если у меня стоит плагин google-sitemap-generator то эту строку все равно добавлять? они никак не пересекаются?
ну этот плагин делает карту сайта которую надо указать в роботс.тхт.. они работают в паре
Вадик, а у меня есть эта вещь в блоге?? Нужна она мне??? Я вернула антиспам, у меня блогировало 2800 ссобщений, атака бла что ли на мой сайт??
нет просто спамеры. их много) http://www.domitalia.ru/robots.txt
А такое роботс нормальный: User-agent: * Disallow: /wp-admin Disallow: /wp-includes Disallow: /wp-content/plugins Disallow: /wp-content/cache Disallow: /xmlrpc.php Disallow: /wp-content/uploads Disallow: /wp-content/themes Disallow: /trackback/ Disallow: /tag/ Disallow: /feed/ Disallow: */*/feed/*/ Disallow: */feed Disallow: */*/feed Disallow: /*?* Disallow: /?feed= Disallow: /?s= Sitemap: http://times.fireg.ru/sitemap.xml.gz Sitemap: http://times.fireg.ru/sitemap.xml User-agent: Yandex Disallow: /wp-admin Disallow: /wp-includes Disallow: /xmlrpc.php Disallow: /wp-content/uploads Disallow: /wp-content/plugins Disallow: /wp-content/cache Disallow: /wp-content/themes Disallow: /trackback/ Disallow: /tag/ Disallow: /feed/ Disallow: */*/feed/*/ Disallow: */feed Disallow: */*/feed Disallow: /?feed= Disallow: /*?* Disallow: /?s= Host: times.fireg.ru Можете подсказать пожалуйста.
уберите Sitemap: http://times.fireg.ru/sitemap.xml.gz ну и в принципе нормальный, только лишнего много.
А можно вопрос, почему убрать http://times.fireg.ru/sitemap.xml.gz и что лишнее можете подсказать пожалуйста.
а зачем оно вам там? у вас же там прописан .xml ну оно не лишнее, но в некоторых я не вижу смысла. но хуже оно не сделает) скоро будет небольшой эксперимент с robots.txt.. можете подписаться и почитать.
А если путь указанный в роботс, на самом деле в сайте отсутствует, он хуже не сделает? Или в этом случае поисковикам все равно на такие моменты? Да подпишусь, только ссылку дайти) А то до конца февраля в планах разобраться с роботс.
http://feeds.feedburner.com/delexp/del_exp - подписывайтесь) ну если ты закроешь от индексации несуществующую страницу, то хуже не станет. она же не существует и следовательно индексировать и так нечего)
А можете посмотреть мой сайт, и посоветовать, что-то по оптимизации? Интересна точка зрения со стороны.
ну напишите на мыло. оно в контактах есть
Спасибо за информацию!!! Готовая инструкция по созданию и установке robots.txt. Это мне точно не помешает, попробуем поэксперементировать…
пожалуйста. заглядывайте ещё)
А можно вопрос, изменил роботс случайно поставил неправильный параметр, вылетели все страницы из яндекса, осталась 1 страница, а сколько понадобиться чтобы все страницы вернулись, а то уже 4 дня все также 1 страница, хоть и теперь все правильно.
вернется с выдачей. скорее всего уже вернулось)
возвращаются только новые страницы, 3 создал, три проиндексировались, а старые пока нет, но жду.
вернуться. в любом случае, ну если уник конечн
А host он только для Яндекса надо? Я просто не особо в курсе, но вроде по этому файлику выглядит будто для яндекса лишь
да гугль тоже эту директиву прочитает. но гугл очень долго обновляет изменения связанные с робот.тхт, иногда полгода может занимать.
Мне не критично по времени. Просто хотел разобраться что к чему
ну если будут ещё вопросы, то заходите. а ещё лучше - подписывайтесь
Уже :)
ну и хорошо :)
если я зменю Host: на свой ну и соответственно url к каре сайта и вставлю в свой robots.txt то все будет оке?? он уже настроен?))
Да. именно так
Доброго времени суток! У меня такой вопрос: задалась целью разобраться с этим роботсом, создла, залила в корень и резко упала посещалка, хз с этим связано или нет, но резкий скачек вниз насторожил, как быть, убрать роботса или потерпеть и все наладится, а может тупо разрешить все к индексации, т.к. жил сайт до этого год, все нормально было, а тут на тебе! :-(