Текущее время: 14 дек 2025, 23:39

Часовой пояс: UTC + 3 часа [ Летнее время ]


Правила форума


Пожалуйста, прежде чем задавать вопрос, воспользуйтесь поиском, возможно ответ уже существует!



Начать новую тему Ответить на тему  [ Сообщений: 11 ]  На страницу 1, 2  След.
Автор Сообщение
СообщениеДобавлено: 29 дек 2011, 19:15 
Не в сети

Зарегистрирован: 15 ноя 2011, 23:43
Сообщения: 23
Вот официальный ответ Платона у Вас на некоторых страницах раздела не уникальный контент. (рекомендуем исправить), по мимо этого у вас дублер главной страницы(рекомендуем один удалить), и последнее скрыть от индексации закрытые разделы (у вас такие имеются)с помощью robots.txt. После чего он снова попадет в индексацию.
1. Над уникальностью контента я начал работу
2. То о чем я и говорил что дублер это плохо (попадет под АГС)
3. У меня есть действительно закрытые разделы на которые посетители могут только попасть в случае интернет оплаты robots.txt я сделал тот который мне необходим, но индекс видит только Ваш который не отображает индивидуальные потребности каждого сайта.


Вернуться к началу
 Профиль  
 
СообщениеДобавлено: 29 дек 2011, 19:45 
Не в сети

Зарегистрирован: 29 окт 2010, 11:03
Сообщения: 3699
salon-taro.ru писал(а):
2. То о чем я и говорил что дублер это плохо (попадет под АГС)


Дубль главной страницы НЕ приводит к АГС.

salon-taro.ru писал(а):
У меня есть действительно закрытые разделы на которые посетители могут только попасть в случае интернет оплаты robots.txt я сделал тот который мне необходим, но индекс видит только Ваш который не отображает индивидуальные потребности каждого сайта.


А теперь то же самое, только понятным обычному человеку языком.

salon-taro.ru писал(а):
у Вас на некоторых страницах раздела не уникальный контент


И вы ещё удивляетесь, почему сайт под АГС.

_________________
Заработок на сайте


Вернуться к началу
 Профиль  
 
СообщениеДобавлено: 29 дек 2011, 20:18 
Не в сети
Аватара пользователя

Зарегистрирован: 06 ноя 2010, 16:46
Сообщения: 144
Цитата:
3. У меня есть действительно закрытые разделы на которые посетители могут только попасть в случае интернет оплаты robots.txt я сделал тот который мне необходим, но индекс видит только Ваш который не отображает индивидуальные потребности каждого сайта.


Похоже человек имел в виду что хочет прописать в robots.txt запрет на индексацию некоторых страниц.
лично я в этом смысла не вижу (если цель этого ограничить доступ к некоторым страницам) достаточно набрать map.site.html и все страницы сайта как на ладони.

_________________
Да не оскверню я комп свой присутствием на нём лицензионного софта да отсохнут руки мои если я нарушу данную клятву Аминь


Вернуться к началу
 Профиль  
 
СообщениеДобавлено: 29 дек 2011, 20:39 
Не в сети

Зарегистрирован: 29 окт 2010, 11:03
Сообщения: 3699
Sergey писал(а):
(если цель этого ограничить доступ к некоторым страницам) достаточно набрать map.site.html и все страницы сайта как на ладони.


А вот поисковикам роботс.тхт очень хорошо ограничивает доступ.

_________________
Заработок на сайте


Вернуться к началу
 Профиль  
 
СообщениеДобавлено: 29 дек 2011, 22:02 
Не в сети

Зарегистрирован: 15 ноя 2011, 23:43
Сообщения: 23
да действительно мне необходимо скрыть ряд страниц от индекса так как на них информация относительно успешной оплаты заказа либо ошибки и рабочий скрипт обработчик платежей с ключом доступа к счёту, каким образом мне их на окисе запереть от поиска яндекса и не только.
То что дубль главной не попадает под АГС спорить не буду с вами, поскольку я это и им написал что такого не может быть, на что платон ответил что МОЖЕТ, сказал исправляйте то что рекомендую после и обращайтесь.


Вернуться к началу
 Профиль  
 
СообщениеДобавлено: 29 дек 2011, 23:02 
Не в сети

Зарегистрирован: 29 окт 2010, 11:03
Сообщения: 3699
salon-taro.ru писал(а):
поскольку я это и им написал что такого не может быть, на что платон ответил что МОЖЕТ


Надеюсь, вы не удивитесь, если я вам скажу, что ответы у Платона шаблонные...

У меня сайты почему-то с этим дублем спокойно живут. И даже посещаются, и в топе висят. Странно, да.

Может, всё-таки, контент будем нормальный писать и не раскручивать сайт чёрными методами? :)

_________________
Заработок на сайте


Вернуться к началу
 Профиль  
 
СообщениеДобавлено: 30 дек 2011, 01:16 
Не в сети

Зарегистрирован: 15 ноя 2011, 23:43
Сообщения: 23
Егор полностью согласен))) как говорится пока не наступишь сам на грабли не поймешь к чему может все привести.
Последний вопрос к Вам как профессионалу, после нового году планирую запустить рекламную компанию на Директе Яндекса, как вы думаете с учетом того что он под АГС находится таким образом можно его вылечить и в дальнейшем уже использовать нормальный контент и раскрутку. Планирую запуск компании по Директу через http://context.apishops.com , сегодня разговаривал с их специалистом он ни когда ранее не пробовал таким образом вылечить сайт, то что реклама будет эффектиной гарантирует а вот как себя поведет в таком случае Яша не понятно.(естественно запуск будет после переписывания контента на уникальный) Единственное что еще могу предположить я буквально неделю назад начал работу с Turbo-Link.ru произвел обмен с 4 сайтами(не продажа ссылок и не покупка) насколько это опасно для сайта в индексе.

Заранее благодарю за помощь,понимая что это не мосгорсправка)))
И с Наступающим Вас новым 2012 годом!
Желаю Вашему сервису Okis процветания, осуществления всех задуманных идей по улучшению, и огромная благодарность Вам кто помогает и решает наши вопросы.


Вернуться к началу
 Профиль  
 
СообщениеДобавлено: 30 дек 2011, 04:33 
Не в сети

Зарегистрирован: 15 ноя 2011, 23:43
Сообщения: 23
Sergey писал(а):
Цитата:
3. У меня есть действительно закрытые разделы на которые посетители могут только попасть в случае интернет оплаты robots.txt я сделал тот который мне необходим, но индекс видит только Ваш который не отображает индивидуальные потребности каждого сайта.


Похоже человек имел в виду что хочет прописать в robots.txt запрет на индексацию некоторых страниц.
лично я в этом смысла не вижу (если цель этого ограничить доступ к некоторым страницам) достаточно набрать map.site.html и все страницы сайта как на ладони.


Если я Вас правильно понял то вы ошибаетесь))))таким образом показаны будут те страницы которые закреплены в меню и новостной блок, другие возможно только увидеть методом подпора концовки (они как правило стандартны в обработке платежей) но в любом случае преже чем оказать оплаченную услугу ее можно отследить поступлением сообщения о поступлении денежных средств, если речь не идет о автоматическом сообщении например кода доступа(в таком случае облом человек его увидит).


Вернуться к началу
 Профиль  
 
СообщениеДобавлено: 30 дек 2011, 09:59 
Не в сети

Зарегистрирован: 29 окт 2010, 11:03
Сообщения: 3699
salon-taro.ru писал(а):
после нового году планирую запустить рекламную компанию на Директе Яндекса, как вы думаете с учетом того что он под АГС находится таким образом можно его вылечить и в дальнейшем уже использовать нормальный контент и раскрутку.


Директ привлечёт посетителей, но не выведет сайт из-под АГС. АГС можно снять только хорошей оптимизацией сайта, полной замены контента на уникальный. После всех этих действий нужно подождать пару апдейтов. Если сайт так и не появится в индексе - писать Платонам.

salon-taro.ru писал(а):
Turbo-Link.ru произвел обмен с 4 сайтами(не продажа ссылок и не покупка)


Фигня всё это.

_________________
Заработок на сайте


Вернуться к началу
 Профиль  
 
СообщениеДобавлено: 09 мар 2012, 17:41 
Не в сети

Зарегистрирован: 15 ноя 2011, 23:43
Сообщения: 23
Новые правила обработки директив Allow и Disallow в файлах robots.txt
9.03.2012

Добрый день!

Уведомляем вас об изменениях в обработке директивы 'Allow' файла robots.txt, с помощью которого вы можете разрешить или запретить индексирование сайта поисковым роботом Яндекса.

По новым правилам, если страница сайта попадает под действие нескольких директив 'Allow' и/или 'Disallow', то будет применяться директива с наибольшей длиной префикса URL. При определении длины префикса спецсимвол '*' не учитывается.

Если на вашем сайте в robots.txt совместно используются директивы 'Allow' и 'Disallow', пожалуйста, проверьте их на соответствие новым стандартам. В этом вам поможет наша форма проверки robots.txt.

Подробнее об использовании директив вы можете прочитать в Помощи.

--
С уважением,
Яндекс.Вебмастер


Вернуться к началу
 Профиль  
 
Показать сообщения за:  Поле сортировки  
Начать новую тему Ответить на тему  [ Сообщений: 11 ]  На страницу 1, 2  След.

Часовой пояс: UTC + 3 часа [ Летнее время ]


Кто сейчас на конференции

Сейчас этот форум просматривают: Bing [Bot]


Вы не можете начинать темы
Вы не можете отвечать на сообщения
Вы не можете редактировать свои сообщения
Вы не можете удалять свои сообщения
Вы не можете добавлять вложения

Найти:
Перейти: