Яндекс.Вебмастер: история запросов

Яндекс.Вебмастер: история запросов

Как изменялась позиция сайта по наиболее популярным запросам? Как менялась доля кликов по запросу? Как менялся CTR? Теперь ответы на эти и другие вопросы можно найти в новом разделе «История запросов».

Раздел позволяет выбрать несколько популярных запросов и построить графики истории измененения таких величин как показы, клики, позиция, доля кликов по запросу от общего числа кликов и CTR.

http://webmaster.ya.ru/replies.xml?item_no=3188

217
Комментарии (7)
  • 12 апреля 2009 в 01:29 • #
    Alexander Brovkin

    А можно озвучить алгоритм (хотя бы его примерный принцип действия) по которому Яндекс определяет,ворованный ли текст сайте или нет? Ведь с скопированными откуда-либо текстами сайты последнее время стало бесполезно раскручивать...

  • 12 апреля 2009 в 01:48 • #
    Валерий Козлов

    Александр, более того, видел юмористический случай, когда люди так спешили, что скопировав текст с другого сайта забыли адрес сайта из текста убрать :-))))

  • 12 апреля 2009 в 04:22 • #
    Николай Попков

    создайте отдельную тему, отвечу

  • 12 апреля 2009 в 09:06 • #
    Алексей Оглоблин

    Александр, нет такого алгоритма. По крайней мере, той лёгкости в определении это человеком, компьютер (программа) не научится какое-то ближайшее время точно. Потому что для такого действия нужны, с одной стороны, невиданные вычислительные мощности, с другой, - определённая семантическая, филологическая, лексическая, морфологическая и ещё Бог знает какая алгоритмическая модель. Поисковики не умеют ещё даже определять тематику, скажем, статьи. Скажем, если в статье говорится об изумрудах, то это может быть и тематика геологоразведки, и ювелирной промышленности, и нарушений в сфере оборота драгоценных металлов и камней.

  • 12 апреля 2009 в 13:25 • #
    Alexander Brovkin

    Насколько я знаю, Яндекс как-то умеет это делать. По крайней мере сайты с скопированными текстами не вылезают в топы, но стоит поменять тексты (банально поменять местами слова или фразы) то все становится нормально. Но и это срабатывает не всегда, если поменять немного слов то Яндекс как-то видит скопированный текст

  • 12 апреля 2009 в 13:45 • #
    Алексей Оглоблин

    Александр, вот откуда именно Вы это знаете? Официальная ссылка есть? По крайней мере, Садовский ещё ни разу категорично не подтвердил этого. Тем более, определение именно первоисточника вообще может быть отдельной проблемой. Если бы так было, Яндекс давно бы представил это. Т.к. тогда совершенно конкретно явление копипаста прекратилось бы. Зачем Яндексу лишний мусор в базе?

    Попробуйте какой-нибудь откровенно уникальный НЧ, и сайт будет в своём топе с полностью ворованными текстами. Это не поэтому. А потому что вообще продвижение стало сейчас очень нелёгким делом. И это тоже, в свою очередь, не потому, что яндексоиды такие злыдни, а всего лишь потому, что сам Интернет вырос за два года. Стали другими пользователи, произошёл рост тематик и т.д. и т.п. А как раз динамическая составляющая СР уже подпадает под отслеживание. Тут где-то уже были темы недели две-три назад... Я там подытожил типа...

    Уникальность информации и уникальность контента - это разные вещи. И об этом там тоже... Яндекс рассматривает именно второе понятие.

    А тот факт (может быть, есть конкретные исследования?), что "потом, после уникализации - вверх", так это просто потому, что начинает действовать СР и сайт начинает немного двигаться вверх. Просто совпадение и всё...

    Как ищешь чего-нибудь, так статьи по ссылкам в выдаче десятками друг за другом...

  • 12 апреля 2009 в 14:27 • #
    Алексей Оглоблин

    P.S.

    Видите ли, Александр во всём этом есть ряд объективных проблем. Например, юридические официальные документы. Литературные произведения, библиография, тесты песен... Вы можете себе представить, чтобы какой-нибудь "сайт-поэтник", для того чтобы продвинуться, начнёт "редактировать" Пушкина? А вот если это "поэтник" действительно новый и замечательный, то образующееся в ближайшие месяцы после его открытия растущее и повышающееся СР перебьёт любые "пессимизации" из-за дубликатов... Какой смысл вводить тут какие-то "обнаруживающие" алгоритмы???

    Или самое категоричное: пресс-релизы в новостном интернет-бизнесе. Ведь их нельзя ни редактировать, ни изменять, ни "приукрашивать" - их нужно публиковать в точности с первоисточником. И что? Опять алгоритмы? А ведь есть такой объективный момент: чем новость "нужнее", тем её больше перепечатают. Это своего рода показатель. И Яндекс тут совершенно не станет вмешиваться в этот процесс.