Как убрать дубли урл в системе?
Например многие страницы имеют 3 разных урл:
http://www.slaed.net/contact.html
http://www.slaed.net/index.php?name=contact
http://www.slaed.net/?name=contact
по этим урл выдается одна и таже страница, что не очень хорошо для поисковых систем на данный момент возможны санкции и вылет из индекса!
Как убрать дубли урл в системе
по этим урл выдается одна и таже страница, что не очень хорошо для поисковых систем на данный момент возможны санкции и вылет из индекса!
Ну надо же.Пункт, запрещающий подобное, покажите.
Вы вкурсе, что на всех сайтах запрос страницы возможен как i n d e x .php?name=contact, так и ?name=contact (если это слаед)
Аналогично и любой другой движок, ровно как и статичный сайт
Не занимайтесь ерундой.
А если такому пункту и место, то придется переписывать на корню все стандарты программирования
Как убрать дубли урл в системе?
через robots.txt закройте не нужные.
Ну надо же.Пункт, запрещающий подобное, покажите.
Рекомендации Яндекса при создании сайтов http://help.yandex.ru/webmaster/?id=1108947, если будут дубли могут последовать санкции, а если еще и продавать на них ссылки - получите АГС или бан.
А если такому пункту и место, то придется переписывать на корню все стандарты программирования
Да ничего не нужно переписывать все делается проще намного: http://help.yandex.ru/webmaster/?id=996567
если будут дубли могут последовать санкции, а если еще и продавать на них ссылки - получите АГС или бан.
Rado, ну ты хоть раз получал БАН за такое?
Масса примеров хороших сайтов на DLE , где достучаться до поиска можно и через /?do=search
У меня не один сайт был посещаемый и не приходилось мудрить в эту сторону.
Как по мне, так хрень (простите) полная.
PS. у каждого свое мнение
PSS. если не придерживать святой библии яндекса, то сам то что думаешь по этому поводу?
PSSS. так Яндекс уже и "опускает" сайты где popup- ы и кликандеры висят, и судя их логике развития скоро и с Адсенсом и Бегуном перестанет индексировать
ну ты хоть раз получал БАН за такое?
Я нет, но я закрывал предварительно не только дубли но и версия для печати, где идет дублированный контент и.т.д.
если не придерживать святой библии яндекса, то сам то что думаешь по этому поводу?
Я думаю проблемы у того возникают у кого не уникальный контент + продают ссылки, если сайт нормальный то все будет и так нормально.
laned, Вы правы, всё возможно, особенно если к сайту ранее уже применялись санкции, или сайт еще довольно молодой и содержит мало контента.
Если Вы пользуетесь ЧПУ и на Вашем сайте только ЧПУ-шные URL, то, как правильно написал Rado, запрещайте все ненужные URL через robots.txt по маске - вся проблема будет решена.
Можно конечно взяться за эту проблему кардинально и переписать принцип организации ссылок в системе, а все ссылки "Печать" поместить в <noindex>, но это уже гемморойно, легче сделать запрет на индексацию в robots.txt...
- Группа: Супермодераторы
- Пункты: 1595
- Регистрация: 18.09.2008
- Пол: Мужчина
- Из: Россия
а по подробней можно! как я могу создать запрет robots.txt
как на контакт:
http://www.slaed.net/contact.html
http://www.slaed.net/index.php?name=contact
http://www.slaed.net/?name=contact
http://www.slaed.net/index.php?name=34567789
спасибо за ранние
Добавить в роботс:
Disallow: /*contact
Disallow: /*name
[url=https://worldwebinfo.ru]World Web Info - лучшее и полезное для жизни [/url]
[url=https://max.worldwebinfo.ru]Каталог каналов, чатов мессенджера MAX[/url]
- Группа: Пользователи
- Пункты: 3849
- Регистрация: 21.07.2006
- Пол: Мужчина
- Из: Санкт-Петербург
Вот так убраны все
Disallow: /*name
[url=https://worldwebinfo.ru]World Web Info - лучшее и полезное для жизни [/url]
[url=https://max.worldwebinfo.ru]Каталог каналов, чатов мессенджера MAX[/url]
- Группа: Пользователи
- Пункты: 3849
- Регистрация: 21.07.2006
- Пол: Мужчина
- Из: Санкт-Петербург









