Доверять ли?

Сергей Рыжиков в блоге «1С-Битрикс» пишет о том, что поисковикам следует научиться быстро индексировать сайты, предоставляя вебмастерам API для такой индексации. Я, в-общем, полностью согласен, что скорость индексации достаточно важна для поисковиков — Твиттер серьезно ускорил веб вообще и поставил перед поисковиками новые требования.

Но остается вопрос доверия. Поисковики уже не раз доверяли вебмастерам и всякий раз это заканчивалось не очень хорошо. Попытка доверять содержимому метатегов привела к появлению в них полного списка самых популярных ключевых слов. Начали индексировать полные тексты страниц — столкнулись со скрытым текстом, клоакингом и прочим набиванием страниц ключевиками. Придумали PageRank и сходные механизмы цитируемости — получили биржи ссылок.

Так, как вы считаете, могут ли поисковики доверять вебмастерам еще раз?

Subscribe
Сообщать
guest
19 Комментарий
старые выше
новые выше популярные
Inline Feedbacks
View all comments
petrenko

Скорее, научатся проверять 🙂 Но движение в указанную сторону уже есть — Sitemap и пинги о новых записях, например.

pdidenko

Я вот тоже, когда СережуР вчера читал, очень неоднозначные мысли в голове имел — хотелось скорее ругнуться, чем нет 🙂 И поисковики я готов понять скорее, чем его. Ведь интернет — он такой, работает или нет. А то, что он еще и медленее работать может, чем кому-то в идеале хотелось бы, так это проблема того, кто делает его медленнее. И это — не поисковики 🙂

playhell

Нет конечно. Нет ни одной осмысленной причины зачем это надо делать и сотня причин почему этого делать не стоит.

Sov1et

Можно вводить абузы в выдачу и приучать пользователей ими пользоваться.

apollo2k4

А это мне кажется не очень хорошая идея т.к. обычные люди особо не будут этим пользоваться, а некоторые не чистые на руку люди — будут деренжировать валидные сайты…

playhell

Работающие примеры показывают что такую систему используют исключительно для того чтобы подгадить конкурентам.

Sergey Kudryavtsev

Мне кажется поиск сейчас на достаточно высоком уровне, для того, чтобы делать какие-то шаги к веб-мастерам, которые могли бы ещё выше поднять планку предоставляемой поисковиками информации. Революции в качестве работы поисковых систем это не произведёт, потому наверно и смысла нет.

Shankaron

Сергей, а можно давать такую возможность только тем сайтам, которые заслуживают доверие Яндекса?

Алексей

Как мне кажется, решение вопроса о доверии поисковых систем к вебмастеру лежит на поверхности. Очень странно, что его еще никто не воплотил в жизнь.

Начнем с того, что вопрос доверия — это, в первую очередь, вопрос открытости и знания того, с кем имеешь дело. Так что мешает поисковой системе дать вебмастеру возможность рассказать ей о себе?

Допустим, поисковик может создать некий сервис, в котором вебмастер регистрируется, оставляет самую подробную информацию о себе, а поисковая система в ответ дает ему возможность добавить свой/свои сайт/сайты для быстрой индексации.

Каждый сайт «закрепляется» за своим владельцем, который несет за него ответственность. Администрация периодически выборочно проверяет добавленные сайты на нарушения и в случае их нахождения банит и сам сайт, и аккаунт владельца. Навсегда. В случае с Яндексом процесс проверки сайтов автоматизируется и упрощается, т.к. для этого уже наработаны методы и способы.

Конечно, в начале будет много геморроя, но в длительной перспективе выгоды их затмевают. Поисковая система получает:

1. Группу персонифицированных вебмастеров, каждый из которых несет ответственность за свои сайты. Страх потерять аккаунт навсегда очень хорошо будет стимулировать эту ответственность;

2. Мгновенное попадание в индекс свежего контента;

3. Качество этого контента будет на хорошем уровне;

4. Мусора в индексе становится меньше, т.к. теперь нет необходимости совершать стандартный набор действий по добавлению нового контента в этот самый индекс (различные прогоны, соцзакладки и т.д.).

Вебмастер получает возможность мгновенной индексации всего нового контента на сайте. В свою очередь это сильно облегчает задачу определения первоисточника, что чрезвычайно помогает в борьбе с дублированием и копипастом (а это также ведет к снижению количества мусора в индексе).

Про выгоду для пользователей поисковых систем, думаю, говорить не нужно — она и так очевидна.

Для стимулирования вебмастеров к регистрации в таком сервисе поисковик может придумать еще несколько «вкусных плюшек».

Узких мест у такого сервиса два (по крайней мере, на первый взгляд):

1. Проверка и подтверждение информации, которую сообщает о себе вебмастер;

2. Та самая периодическая выборочная проверка сайтов на нарушения. Точнее, ее качество. Если подойти к ней, спустя рукава, то вся идея похерится и получится второй Яндекс.Каталог, в котором процент сайтов, продающих ссылки, уверенно стремится к 100.

В общем, суть самой идеи вроде изложил. Нюансы же при желании можно доработать.

Lisa

Тут скорее речь о Новостях. С мгновенной индексацией проверенных вручную источников, которые они сами отправляют.

Собственно, как раз то, что критично по скорости.

Алексей

Э-э-э, вы правда не видите отличий?

Алексей

Очень жаль. Что не видите. Ни различий, ни гарантий.

Денис

Помоему яндексу плевать на пинги в отличие от гугл…

Oleg Botvenko

Там где есть деньги, доверия быть не может, и это правильно.