Доверять ли?
Сергей Рыжиков в блоге
Но остается вопрос доверия. Поисковики уже не раз доверяли вебмастерам и всякий раз это заканчивалось не очень хорошо. Попытка доверять содержимому метатегов привела к появлению в них полного списка самых популярных ключевых слов. Начали индексировать полные тексты страниц — столкнулись со скрытым текстом, клоакингом и прочим набиванием страниц ключевиками. Придумали PageRank и сходные механизмы цитируемости — получили биржи ссылок.
Так, как вы считаете, могут ли поисковики доверять вебмастерам еще раз?
Скорее, научатся проверять 🙂 Но движение в указанную сторону уже есть — Sitemap и пинги о новых записях, например.
Никто не обещает индексацию Sitemap :). Так что проверяют.
Я вот тоже, когда СережуР вчера читал, очень неоднозначные мысли в голове имел — хотелось скорее ругнуться, чем нет 🙂 И поисковики я готов понять скорее, чем его. Ведь интернет — он такой, работает или нет. А то, что он еще и медленее работать может, чем кому-то в идеале хотелось бы, так это проблема того, кто делает его медленнее. И это — не поисковики 🙂
Нет конечно. Нет ни одной осмысленной причины зачем это надо делать и сотня причин почему этого делать не стоит.
Можно вводить абузы в выдачу и приучать пользователей ими пользоваться.
А это мне кажется не очень хорошая идея т.к. обычные люди особо не будут этим пользоваться, а некоторые не чистые на руку люди — будут деренжировать валидные сайты…
Работающие примеры показывают что такую систему используют исключительно для того чтобы подгадить конкурентам.
Мне кажется поиск сейчас на достаточно высоком уровне, для того, чтобы делать какие-то шаги к веб-мастерам, которые могли бы ещё выше поднять планку предоставляемой поисковиками информации. Революции в качестве работы поисковых систем это не произведёт, потому наверно и смысла нет.
Сергей, а можно давать такую возможность только тем сайтам, которые заслуживают доверие Яндекса?
Как мне кажется, решение вопроса о доверии поисковых систем к вебмастеру лежит на поверхности. Очень странно, что его еще никто не воплотил в жизнь.
Начнем с того, что вопрос доверия — это, в первую очередь, вопрос открытости и знания того, с кем имеешь дело. Так что мешает поисковой системе дать вебмастеру возможность рассказать ей о себе?
Допустим, поисковик может создать некий сервис, в котором вебмастер регистрируется, оставляет самую подробную информацию о себе, а поисковая система в ответ дает ему возможность добавить свой/свои сайт/сайты для быстрой индексации.
Каждый сайт «закрепляется» за своим владельцем, который несет за него ответственность. Администрация периодически выборочно проверяет добавленные сайты на нарушения и в случае их нахождения банит и сам сайт, и аккаунт владельца. Навсегда. В случае с Яндексом процесс проверки сайтов автоматизируется и упрощается, т.к. для этого уже наработаны методы и способы.
Конечно, в начале будет много геморроя, но в длительной перспективе выгоды их затмевают. Поисковая система получает:
1. Группу персонифицированных вебмастеров, каждый из которых несет ответственность за свои сайты. Страх потерять аккаунт навсегда очень хорошо будет стимулировать эту ответственность;
2. Мгновенное попадание в индекс свежего контента;
3. Качество этого контента будет на хорошем уровне;
4. Мусора в индексе становится меньше, т.к. теперь нет необходимости совершать стандартный набор действий по добавлению нового контента в этот самый индекс (различные прогоны, соцзакладки и т.д.).
Вебмастер получает возможность мгновенной индексации всего нового контента на сайте. В свою очередь это сильно облегчает задачу определения первоисточника, что чрезвычайно помогает в борьбе с дублированием и копипастом (а это также ведет к снижению количества мусора в индексе).
Про выгоду для пользователей поисковых систем, думаю, говорить не нужно — она и так очевидна.
Для стимулирования вебмастеров к регистрации в таком сервисе поисковик может придумать еще несколько «вкусных плюшек».
Узких мест у такого сервиса два (по крайней мере, на первый взгляд):
1. Проверка и подтверждение информации, которую сообщает о себе вебмастер;
2. Та самая периодическая выборочная проверка сайтов на нарушения. Точнее, ее качество. Если подойти к ней, спустя рукава, то вся идея похерится и получится второй Яндекс.Каталог, в котором процент сайтов, продающих ссылки, уверенно стремится к 100.
В общем, суть самой идеи вроде изложил. Нюансы же при желании можно доработать.
Э-э-э, вы правда ничего не знаете о существовании http://webmaster.yandex.ru ?
Тут скорее речь о Новостях. С мгновенной индексацией проверенных вручную источников, которые они сами отправляют.
Собственно, как раз то, что критично по скорости.
Э-э-э, вы правда не видите отличий?
Ни малейших, если не считать вашего необоснованного допущения, что вебмастеры будут настолько честны, что поисковики им все же смогут довериться без каких-либо ответных гарантий. Что возвращает нас к исходной проблеме.
Очень жаль. Что не видите. Ни различий, ни гарантий.
Ну так расскажите, где гарантии. И где смысл всю работу с вебмастерами строить так, чтобы работать в действительности с одним промилле от общего количества сайтов.
Помоему яндексу плевать на пинги в отличие от гугл…
У Гугла и вовсе негде пинги принимать. В отличие от Яндекса.
Там где есть деньги, доверия быть не может, и это правильно.