Текущее время: 18 июл 2025, 16:22

Часовой пояс: UTC + 3 часа [ Летнее время ]


Правила форума


Пожалуйста, прежде чем задавать вопрос, воспользуйтесь поиском, возможно ответ уже существует!



Начать новую тему Ответить на тему  [ Сообщений: 11 ]  На страницу 1, 2  След.
Автор Сообщение
СообщениеДобавлено: 29 дек 2011, 19:15 
Не в сети

Зарегистрирован: 15 ноя 2011, 23:43
Сообщения: 23
Вот официальный ответ Платона у Вас на некоторых страницах раздела не уникальный контент. (рекомендуем исправить), по мимо этого у вас дублер главной страницы(рекомендуем один удалить), и последнее скрыть от индексации закрытые разделы (у вас такие имеются)с помощью robots.txt. После чего он снова попадет в индексацию.
1. Над уникальностью контента я начал работу
2. То о чем я и говорил что дублер это плохо (попадет под АГС)
3. У меня есть действительно закрытые разделы на которые посетители могут только попасть в случае интернет оплаты robots.txt я сделал тот который мне необходим, но индекс видит только Ваш который не отображает индивидуальные потребности каждого сайта.


Вернуться к началу
 Профиль  
 
СообщениеДобавлено: 29 дек 2011, 19:45 
Не в сети

Зарегистрирован: 29 окт 2010, 11:03
Сообщения: 3699
salon-taro.ru писал(а):
2. То о чем я и говорил что дублер это плохо (попадет под АГС)


Дубль главной страницы НЕ приводит к АГС.

salon-taro.ru писал(а):
У меня есть действительно закрытые разделы на которые посетители могут только попасть в случае интернет оплаты robots.txt я сделал тот который мне необходим, но индекс видит только Ваш который не отображает индивидуальные потребности каждого сайта.


А теперь то же самое, только понятным обычному человеку языком.

salon-taro.ru писал(а):
у Вас на некоторых страницах раздела не уникальный контент


И вы ещё удивляетесь, почему сайт под АГС.

_________________
Заработок на сайте


Вернуться к началу
 Профиль  
 
СообщениеДобавлено: 29 дек 2011, 20:18 
Не в сети
Аватара пользователя

Зарегистрирован: 06 ноя 2010, 16:46
Сообщения: 144
Цитата:
3. У меня есть действительно закрытые разделы на которые посетители могут только попасть в случае интернет оплаты robots.txt я сделал тот который мне необходим, но индекс видит только Ваш который не отображает индивидуальные потребности каждого сайта.


Похоже человек имел в виду что хочет прописать в robots.txt запрет на индексацию некоторых страниц.
лично я в этом смысла не вижу (если цель этого ограничить доступ к некоторым страницам) достаточно набрать map.site.html и все страницы сайта как на ладони.

_________________
Да не оскверню я комп свой присутствием на нём лицензионного софта да отсохнут руки мои если я нарушу данную клятву Аминь


Вернуться к началу
 Профиль  
 
СообщениеДобавлено: 29 дек 2011, 20:39 
Не в сети

Зарегистрирован: 29 окт 2010, 11:03
Сообщения: 3699
Sergey писал(а):
(если цель этого ограничить доступ к некоторым страницам) достаточно набрать map.site.html и все страницы сайта как на ладони.


А вот поисковикам роботс.тхт очень хорошо ограничивает доступ.

_________________
Заработок на сайте


Вернуться к началу
 Профиль  
 
СообщениеДобавлено: 29 дек 2011, 22:02 
Не в сети

Зарегистрирован: 15 ноя 2011, 23:43
Сообщения: 23
да действительно мне необходимо скрыть ряд страниц от индекса так как на них информация относительно успешной оплаты заказа либо ошибки и рабочий скрипт обработчик платежей с ключом доступа к счёту, каким образом мне их на окисе запереть от поиска яндекса и не только.
То что дубль главной не попадает под АГС спорить не буду с вами, поскольку я это и им написал что такого не может быть, на что платон ответил что МОЖЕТ, сказал исправляйте то что рекомендую после и обращайтесь.


Вернуться к началу
 Профиль  
 
СообщениеДобавлено: 29 дек 2011, 23:02 
Не в сети

Зарегистрирован: 29 окт 2010, 11:03
Сообщения: 3699
salon-taro.ru писал(а):
поскольку я это и им написал что такого не может быть, на что платон ответил что МОЖЕТ


Надеюсь, вы не удивитесь, если я вам скажу, что ответы у Платона шаблонные...

У меня сайты почему-то с этим дублем спокойно живут. И даже посещаются, и в топе висят. Странно, да.

Может, всё-таки, контент будем нормальный писать и не раскручивать сайт чёрными методами? :)

_________________
Заработок на сайте


Вернуться к началу
 Профиль  
 
СообщениеДобавлено: 30 дек 2011, 01:16 
Не в сети

Зарегистрирован: 15 ноя 2011, 23:43
Сообщения: 23
Егор полностью согласен))) как говорится пока не наступишь сам на грабли не поймешь к чему может все привести.
Последний вопрос к Вам как профессионалу, после нового году планирую запустить рекламную компанию на Директе Яндекса, как вы думаете с учетом того что он под АГС находится таким образом можно его вылечить и в дальнейшем уже использовать нормальный контент и раскрутку. Планирую запуск компании по Директу через http://context.apishops.com , сегодня разговаривал с их специалистом он ни когда ранее не пробовал таким образом вылечить сайт, то что реклама будет эффектиной гарантирует а вот как себя поведет в таком случае Яша не понятно.(естественно запуск будет после переписывания контента на уникальный) Единственное что еще могу предположить я буквально неделю назад начал работу с Turbo-Link.ru произвел обмен с 4 сайтами(не продажа ссылок и не покупка) насколько это опасно для сайта в индексе.

Заранее благодарю за помощь,понимая что это не мосгорсправка)))
И с Наступающим Вас новым 2012 годом!
Желаю Вашему сервису Okis процветания, осуществления всех задуманных идей по улучшению, и огромная благодарность Вам кто помогает и решает наши вопросы.


Вернуться к началу
 Профиль  
 
СообщениеДобавлено: 30 дек 2011, 04:33 
Не в сети

Зарегистрирован: 15 ноя 2011, 23:43
Сообщения: 23
Sergey писал(а):
Цитата:
3. У меня есть действительно закрытые разделы на которые посетители могут только попасть в случае интернет оплаты robots.txt я сделал тот который мне необходим, но индекс видит только Ваш который не отображает индивидуальные потребности каждого сайта.


Похоже человек имел в виду что хочет прописать в robots.txt запрет на индексацию некоторых страниц.
лично я в этом смысла не вижу (если цель этого ограничить доступ к некоторым страницам) достаточно набрать map.site.html и все страницы сайта как на ладони.


Если я Вас правильно понял то вы ошибаетесь))))таким образом показаны будут те страницы которые закреплены в меню и новостной блок, другие возможно только увидеть методом подпора концовки (они как правило стандартны в обработке платежей) но в любом случае преже чем оказать оплаченную услугу ее можно отследить поступлением сообщения о поступлении денежных средств, если речь не идет о автоматическом сообщении например кода доступа(в таком случае облом человек его увидит).


Вернуться к началу
 Профиль  
 
СообщениеДобавлено: 30 дек 2011, 09:59 
Не в сети

Зарегистрирован: 29 окт 2010, 11:03
Сообщения: 3699
salon-taro.ru писал(а):
после нового году планирую запустить рекламную компанию на Директе Яндекса, как вы думаете с учетом того что он под АГС находится таким образом можно его вылечить и в дальнейшем уже использовать нормальный контент и раскрутку.


Директ привлечёт посетителей, но не выведет сайт из-под АГС. АГС можно снять только хорошей оптимизацией сайта, полной замены контента на уникальный. После всех этих действий нужно подождать пару апдейтов. Если сайт так и не появится в индексе - писать Платонам.

salon-taro.ru писал(а):
Turbo-Link.ru произвел обмен с 4 сайтами(не продажа ссылок и не покупка)


Фигня всё это.

_________________
Заработок на сайте


Вернуться к началу
 Профиль  
 
СообщениеДобавлено: 09 мар 2012, 17:41 
Не в сети

Зарегистрирован: 15 ноя 2011, 23:43
Сообщения: 23
Новые правила обработки директив Allow и Disallow в файлах robots.txt
9.03.2012

Добрый день!

Уведомляем вас об изменениях в обработке директивы 'Allow' файла robots.txt, с помощью которого вы можете разрешить или запретить индексирование сайта поисковым роботом Яндекса.

По новым правилам, если страница сайта попадает под действие нескольких директив 'Allow' и/или 'Disallow', то будет применяться директива с наибольшей длиной префикса URL. При определении длины префикса спецсимвол '*' не учитывается.

Если на вашем сайте в robots.txt совместно используются директивы 'Allow' и 'Disallow', пожалуйста, проверьте их на соответствие новым стандартам. В этом вам поможет наша форма проверки robots.txt.

Подробнее об использовании директив вы можете прочитать в Помощи.

--
С уважением,
Яндекс.Вебмастер


Вернуться к началу
 Профиль  
 
Показать сообщения за:  Поле сортировки  
Начать новую тему Ответить на тему  [ Сообщений: 11 ]  На страницу 1, 2  След.

Часовой пояс: UTC + 3 часа [ Летнее время ]


Кто сейчас на конференции

Сейчас этот форум просматривают: нет зарегистрированных пользователей


Вы не можете начинать темы
Вы не можете отвечать на сообщения
Вы не можете редактировать свои сообщения
Вы не можете удалять свои сообщения
Вы не можете добавлять вложения

Найти:
Перейти: