Все об индексации материнского капитала: как она влияет на размер суммы? Что такое индексация? А что же Яндекс.

В последние годы очень часто можно услышать споры о том, как ссылки, внешние и внутренние, влияют на ранжирование сайтов в поисковой выдаче. Может ли ссылка с «плохого» сайта чем-то помочь вашему ресурсу? А что насчет закрытых от индексации ссылок? Поскольку поисковики корректируют свои алгоритмы, воздействие на ранжирование таких переменных, как ссылочная масса сайта, количество и качество ссылок, со временем тоже претерпело изменения. Мы решили разобраться, как изменилась со временем политика таких компаний как Google и Яндекс.

Мэтт Каттс, вездесущий глава отдела по борьбе с поисковым спамом в Google,поднял эту тему, отвечая на вопросы, присылаемые ему пользователями:

1. Закрытые от индексации ссылки не повредят позиции вашего сайта в выдаче


Если вы будете оставлять бесконечное множество комментариев со ссылкой на свой сайт везде, где только можно, то это может вам навредить, так как в конечном итоге ваши действия будут расцениваться как спам. Значит ли это, что для того, чтобы обезопасить себя, вы должны закрыть все внешние ссылки? Разумеется, нет .

Делать это нежелательно, потому что некоторые ссылки заслуживают того, чтобы по ним перейти. Плюс, политика закрытого от ссылок сайта может спровоцировать других вебмастеров закрыть все ссылки на ваш сайт, что вам, несомненно, только навредит.

Николь Колер, контент-стратег в WebpageFX, к примеру, утверждает , что вы должны мотивировать пользователя перейти по вашей ссылке, даже если она является закрытой от индексации. Это значит, что нужно пробовать различные заголовки, твиты или заявлять прямо, что если пользователь кликнет по ссылке, то найдет что-то очень интересное. Специалисты из Buffer заметили, что ссылка в одном из их твитов заработала на 100% больше переходов после того, как они полностью переписали текст сообщения.

2. Google отменяет ограничение в 100 ссылок с сайта


Ограничение было отменено в ноябре 2013, но, как и водится, с некоторыми оговорками. Мэтт объяснил, что интернет эволюционирует, страницы обновляются, содержащийся на них контент становится разнообразней и ссылок, соответственно, больше. Из-за этих закономерных изменений Google пересмотрел условия ограничения. Мэтт предупредил владельцев сайтов, что нужно все же придерживаться разумного количества ссылок и убедиться, что все они будут актуальны и интересны пользовательской аудитории. Также он отметил, что, если на вашем сайте имеется 100 ссылок, все они должны быть подробными и вести к надежным и проверенным источникам. Стоит помнить и том, что исходящие внешние ссылки передают вес страницы. Соответственно, чем больше ссылок, тем меньше веса несет каждая из них в отдельности. Многие задаются вопросом: какое же количество внешних ссылок может быть на моем сайте? Мэтт уверяет, что это не имеет значения, если есть хороший контент и пользователь получает удовольствие от посещения вашего сайта и работы с ним.

3. Как сайт ранжируется в поисковой выдаче, если на него нет ссылок?


Google сортирует сайты в выдаче в соответствии с их содержанием. Если на сайт не ссылались, он все равно может ранжироваться. Самое главное - это релевантность контента. Каждый пост на вашем сайте должен быть полезен и интересен пользователю, поэтому, потратив усилия на его написание, выделите время на его проверку.

Ссылайтесь на проверенные источники. Покажите, что ваш контент тоже заслуживает доверия, и в следующий раз сошлются уже на вас.

А что же Яндекс?

О том, что Яндекс отменяет ссылочное ранжирование, очень много. Представители компании объяснили такой радикальный ход невозможностью отличить релевантный сайт от нерелевантного. Количество купленных ссылок никак не улучшало качество сайтов, потому было решено перестать учитывать ссылки при ранжировании по коммерческим запросам. SEOnews задал вопрос представителям SEO- агентств о том, как изменилась их ссылочная стратегия в связи с изменениями в политике Поисковых сетей.

Алексей Елфимов , руководитель отдела поискового продвижения i-Media:

«По тематикам, в которых „ссылочное“ ранжирование не отменилось, наши стратегии сильно не менялись. При этом мы постоянно запускаем эксперименты, проверяем, тестируем. В настоящее время ссылочные бюджеты перенаправляются на те запросы, по которым Яндексу сложно сформировать ранжирование по поведенческому фактору. Мы пробуем многое, но нужно отметить, что если что-то сработало на одном проекте, это совершенно не означает, что сработает на другом. Поэтому подчеркну: ссылочное работает, но при этом учитывается много других факторов, которые в разных тематиках - разные».

Григорий Загребельный , ведущий специалист трафиковых проектов Ingate:

«После „отмены“ ссылок статический вес, передаваемый ими, никуда не делся, а значит, ссылки всё ещё нужны. Больший упор стал делаться на безанкорные, „естественные“ ссылки».


Алексей Скрынник , исполнительный директор iSEO:

«Глобальных изменений в нашей работе не произошло. Как и раньше, основная часть бюджета расходуется на работы по сайту, его техническую оптимизацию, развитие структуры, наполнение новым контентом и т.д. Качество ресурса - первостепенная задача при продвижении сайта и залог успеха проекта. На ссылки мы расходуем лишь незначительную часть бюджета. Полностью отказаться от ссылок мы не можем, так как они все еще работают в Google, да и Яндекс скорей всего не будет полностью абсолютно отказываться от столь значимого фактора ранжирования. Но в свете происходящих апдейтов поисковиков необходимо очень аккуратно работать с ссылочным фактором, стараться получать естественные и вечные ссылки. Это дорогая и трудозатратная стратегия, но она дает хороший результат».

На чем стоит сосредоточиться сайтам после отмены ссылочного ранжирования?

Если изложить все вышесказанное одним словом, то это релевантность. Ссылка должна быть уместной относительно вашего контента. Если это не так, то лучше от нее отказаться вообще.

Продолжаем углубляться в основы Интернет-маркетинга. Сегодня РодинаЛинков поможет Вам разобраться в том, каким образом происходит сортировка сайтов в поисковой выдаче. Это полезно знать, не так ли?

Раньше поисковые системы обращали внимание на ключевые слова. Прошли годы, и теперь в центре внимания поисковиков - идеи.

Да, безусловно, слова продолжают играть важную, но далеко не ключевую роль. Сегодня на позиции сайта в рейтинге влияет уникальность его идей. В эпоху персонализации всё просто: чем более ценной является предоставленная на сайте информация, тем лучше будут его позиции в рейтинге. В этой статье мы расскажем Вам об основных принципах поиска. Эта статья является не руководством для Google, Yandex или других поисковиков, а отправной точной к лучшему пониманию Интернет-маркетинга.

Приручаем Интернет.

Хотя наша статья посвящена принципам ранжирования сайтов в поисковой выдаче, мы не можем оставить без внимания собственно поиск вебсайта, важнейшими элементами которого являются:

  • краулинг - процесс загрузки вебсайтов поисковиком;
  • индексация - собственно процесс добавления вебсайтов в базу данных.

Неудивительно, что сегодня всё это можно сделать с помощью автоматизированных инструментов поисковиков. Менее очевидными являются уровень и глубина краулинга и индексации вебсайтов. Зачастую это может быть связано с некоторыми внутренними и внешними факторами, которые мы скоро рассмотрим.

Распознаём сигналы.

Сначала о главном, а именно - о сигналах. Это очень обсуждаемый термин в кругах SEO-специалистов, однако, часто его толкуют неправильно.

Поисковая система использует сигналы во многих процессах, среди которых - категоризация, геолокализация и многие другие. Сигналы используются не только в целях ранжирования, многие из них используются в качестве сигналов качества (завершение задачи).

Мы приближаемся к самому интересному - к сигналам страницы и сайта, к тому, каким Ваш сайт «видят» поисковики. Такие сигналы играют огромную роль в ранжировании. В самом широком смысле ими могут быть:

  • сигналы сайта:
  • авторитет/степень доверия;
  • классификации;
  • внутренние ссылки;
  • локализация;
  • история домена;
  • контент.
  • сигналы страницы:
  • метаданные;
  • классификации (и локализация);
  • авторитет/степень доверия (внешние ссылки);
  • временные сигналы;
  • семантические сигналы;
  • лингвистические сигналы (язык и его особенности;
  • выдающиеся детали (заголовки, жирный или полужирный шрифт, выделение курсивом, и т.д.).
  • внешние сигналы:
  • сигналы, относящиеся к ссылкам;
  • временные сигналы;
  • авторитет (цитирование и т.д.);
  • спам-сигналы;
  • и т.д.

Не путайте «сигналы, относящиеся к ссылкам» с алгоритмом PageRank. Ссылки посылают множество сигналов, и метод PageRank - всего лишь один из них. Наверняка Вы уже получили представление о том, что существует множество различных сигналов, которые используются поисковиками для того, чтобы определить тематику вебсайта или страницы. Они и являются элементами ранжирования поисковой выдачи.

Этот дивный мир графов.

Теперь мы поговорим о различных способах классификации и категоризации, применяемых поисковиками - о графах.

Вот, например, некоторые из них:

  • граф ссылок, с которым так хорошо знакомы SEO-специалисты: все ссылки на сайты, определяющие релевантность, авторитет и степень доверия;
  • граф социальных сетей: актуальность информации, взаимоотношения пользователей и т.д.;
  • граф сообществ: люди, предметы, события и т.д.;
  • граф знаний: информация, относящаяся к сообществам;
  • граф терминов и граф классификации.

Каким образом графы влияют на ранжирование? Всё очень просто - Google проводит категоризацию их взаимосвязей и на основе этого проводит ранжирование сайтов в поисковой выдаче.

Усвоили? Замечательно!

Учимся понимать механизмы ранжирования.

Наконец мы подошли к самому главному - к тому, как именно поисковик осуществляет ранжирование сайтов.

  • скоринг (обработка запроса) - поисковики используют множество факторов ранжирования, зашифрованных во множестве алгоритмов. Представьте себе луковицу и её «одёжки». Скоринг позволяет сформировать первоначальный рейтинг.
  • бустинг - это ещё один сигнал, который поможет улучшить позиции сайта в рейтинге. Например, недавно Google заявила, что быстро загружающиеся сайты на мобильных устройствах будут иметь приоритет в поиске, осуществляемом с мобильных устройств. Бустинг также широко применяется при различных формах персонализации.
  • демпенинг - это «смягчающий» элемент, призванный понизить позиции сайта в рейтинге после первоначально проведённого скоринга. Отличными примерами могут послужить непопулярные алгоритмы Penguin и Panda.

Итак, у Вас уже вырисовывается картинка? Мы с Вами рассмотрели различные сигналы (как внутренние, так и внешние) и графы (ссылки, социальные сети, сообщества и знания). Кроме того, мы рассмотрели механизмы, которые сказываются на том, где в конечном счёте окажется сайт в результатах поисковой выдачи.

Персонализация и меняющийся облик мира.

Думаете, на этом мы закончим? А вот и нет!

Перемены начались примерно в 2004 году. В это время в Google Labs пользователи могли обозначить свои предпочтения. В 2009 году этот сервис, использующий поисковую историю, стал доступным для всех пользователей.

Сегодня, в 2013 году существуют пять видов переранжирования, основанных на предпочтениях конкретного пользователя. В основе каждого вида лежат следующие особенности:

  • поведенческие, основанные на анализе поисковой истории и последнего запроса;
  • социальные, связанные с ростом значения социальных сетей;
  • географические - рейтинг сайтов в выдаче может меняться в зависимости от места нахождения пользователя;
  • демографические - нечто похожее на социальные, однако, использующие категоризацию пользователей;
  • временные - результаты выдачи зависят от деятельности пользователя.

Некоторые элементы привязаны к профилям зарегистрированных пользователей (социальные, поведенческие), в то время как другие действуют без привязки к профилю (например, географические).

Это означает, что результаты поисковой выдачи могут кардинально различаться у разных пользователей в один и тот же момент времени.

Как НЕ оказаться в ТОПе.

Спам не является сам по себе элементом ранжирования, однако, нельзя не согласиться, что он играет в ранжировании не последнюю роль. Вряд ли спам повысит рейтинг Вашего сайта, но весьма вероятно, что он нанесёт сайту ущерб. Здесь мы рассмотрим элементы, об использовании которых Вы должны забыть - если, конечно, хотите улучшить позиции сайта в рейтинге:

  • «маскирование» (предоставление разного контента поисковикам и пользователям);
  • скрытый текст;
  • парковка доменов;
  • спам;
  • неуникальный контент;
  • несуществующие ссылки с сайта;
  • несуществующие ссылки на сайт.

Поисковая система — это программа, осуществляющая поиск информации в Интернете в рамках своего индекса. Самые крупные поисковые системы: Google, Yahoo!, Baidu, Bing, Яндекс.

Индексация — это процесс добавления содержания сайта в базу данных (в индекс) поисковой системы. , а .. Теперь если одна из них релевантна запросу человека, введённому в строку поиска Яндекса, то поисковик учтёт её при ранжировании.

Релевантность = соответствие. Для того, чтобы страница соответствовала запросу, на ней хотя бы раз должно быть употреблено слово, его синоним или словоформа из искомой фразы. 385 миллионов страниц релевантны запросу «Что добавить на сайт». Шпаргалка блоггера по нему более релевантна, чем Яндекс.Вебмастер. Для того, чтобы решить какая из страниц более релевантна в формуле ранжирования учитывается огромное количество факторов (около 800 в Яндексе), таких как

  • возраст сайта. Чем старше веб-ресурс, чем дольше он остаётся на плаву, тем больше к нему доверия.
  • дата написания/обновления веб-документа. Для запроса «кто стал президентом» важна актуальность новости, а для «пробегающий по буквам блик на CSS» в плюс пойдёт продолжительность существования страницы, так как именно она была первоисточником.
  • является ли страница предпочтительней для пользователя. Для этого оценивается поведение человека. См. .
  • указан ли контактный городской телефон на коммерческих проектах.
  • быстро ли загружается веб-документ.
и т.д., вплоть до цвета фона страницы. Причём список факторов и их приоритет меняется в зависимости от запроса.

Ранжирование — из релевантных страниц выбирается та, которая лучше других отвечает на запрос, другими словами, самая релевантная. А далее по убывающей. То есть ранжирование — это расстановка элементов системы по рангу, от самого значимого до самого невесомого. Согласно алгоритмам ранжирования отечественного поисковика первую позицию по запросу «Что добавить на сайт» занимает мой веб-ресурс.

Запрос в данном контексте — это вопрос «где можно найти то-то в интернете?», заданный поисковой системе (набранный на клавиатуре в строку поиска или озвученный голосом).

Выдача поисковой системы (SERP) — это результат поиска, список из страниц сайтов, на которых можно найти ответ на свой запрос. Выдача одного человека будет отличатся от выдачи другого согласно их местонахождению, интересов и предпочтений. См. персонализированные результаты поиска .

P.S. пожалуйста, обязательно напишите, если после прочтения статьи остались вопросы, если текст написан слишком сложным языком.

Индексация сайтов и управление индексацией при помощи атрибута nofollow, метатегов nofollow, noindex и файла robots.txt. Ранжирование сайтов

Для индексации сайтов поисковики применяют специальные программы, именуемые пауками, или спайдерами. Это виртуальные роботы, читающие страницы сайта, обычно начинающие обход с главной страницы и переходя на другие страницы по ссылкам. Чем популярнее сайт и чем чаще на нем обновляется контент, тем чаще пауки заходят на интернет-ресурс.

Веб-мастера и владельцы сайтов могут самостоятельно управлять некоторыми функциями индексации сайтов. Для этого можно применять 4 способа:

1. Управление индексацией сайтов при помощи атрибута (тега) nofollow, когда этот тег помещается в отдельную ссылку.
2. Использование метатега nofollow (просьба не путать с тегом nofollow), работающего на уровне целой страницы, когда этот метатег добавляется в секцию своей страницы.
3. Метатег запрета индексации noindex, работающий на уровне страницы, он также добавляется в секцию конкретной веб-страницы.
4. Файл robots.txt — работает на уровне всего сайта и управляет индексацией всех страниц сайта. Этот файл помещается в корневой каталог сайта.

Все эти инструменты для управления индексацией сайтов выполняют свою уникальную функцию. Чтобы пользоваться этими полезными инструментами правильно, нужно четко понимать, зачем они нужны и как их применять. Для этого сначала определимся с такими важными понятиями в СЕО-отрасли, как сбор информации, ее индексация и ранжирование сайтов.

Сбор информации

Сбор информации — в результате этого процесса паук загружает страницу, сканирует ее на предмет наличия ссылок, затем проходит по этим ссылкам, чтобы найти больше страниц. Необходимо учитывать, что хотя поисковый робот и заходит на страницу, это совсем не значит, что весь ее контент обязательно будет сохранен на серверах. Также это не значит, что страница обязательно будет отображена в результатах поиска. Это лишь означает одно — поисковик знает об этой странице.

Индексация сайтов

Индексация сайтов, а точнее индексация страниц происходит после того, как робот зашел на страницу и обработал ее контент с целью извлечения ключевых запросов, говорящих, о чем эта конкретная страница. После этого данные о странице сохраняются для будущих показов в поисковых результатах выдачи. Не все страницы, прошедшие сбор информации, проходят процесс индексации.

Ранжирование сайтов

Ранжирование сайтов — результат расчета поисковой системы (ПС) с учетом контента, находящегося на конкретной странице, на сайте и по ссылкам. Это необходимо, чтобы определить, где и по каким ключевым фразам должна отображаться в результатах поиска та или иная страница.

Атрибут NOFOLLOW

Цель этого атрибута (тега) — донести до ПС мысль о том, что ссылка с атрибутом NOFOLLOW не должна включаться в оценку рейтинга конкретной страницы. На практике это означает следующее: ссылка с тегом NOFOLLOW не будет увеличивать рейтинг страницы, на которую она проставлена. Но страница будет обработана, проиндексирована и будет ранжироваться во многих ПС. Поэтому название этого тега придумано не в лучшем виде. По-русски правильнее было бы сказать не «Не следовать», а «Следовать, но не передавать вес».

Важно иметь в виду, что официальная позиция компании Google такова, что пауки Google не следуют по ссылкам с тегом NOFOLLOW. А вот Яндекс и большинство других поисковиков следуют. Поэтому нельзя полагаться на ссылки с NOFOLLOW, если нужно предотвратить индексирование или сбор информации поисковиками. И все же тег NOFOLLOW можно применять для Гугла, чтобы не подчеркивать неважные ссылки, например, на страницу Контакты.

Метатег NOFOLLOW

Странно, что для двух абсолютно различных важных атрибутов — тег NOFOLLOW и метатег NOFOLLOW не придумали разных названий. Это похоже на ситуацию, когда в одной семье двух детей (мальчика и девочку) зовут одинаково — Саша (например) и в семье из-за этого сплошные неудобства — зовут мальчика, прибегает девочка и наоборот 🙂

Метатег NOFOLLOW означает, что поисковик не проследует ни по одной из ссылок на странице, но авторитетность этих страниц будет учитываться с учетом ссылок на них. То есть метатег NOFOLLOW работает на всю страницу и он не влияет на передачу веса на закрываемую этим метатегом страницу от поисковиков.

Метатег NOINDEX

Метатег запрета индексации NOINDEX говорит лишь о том, что страница запрещена к индексации поисковиками. При этом поисковики собирают информацию со страницы и следуют по ссылкам, расположенным на ней. Если Вам необходимо, чтобы некоторые страницы не попадали в поиск, но при этом хотите, чтобы поисковики следовали по ссылкам на этих страницах, то следует применять этот метатег. На практике он применяется редко.

Файл robots.txt

Чтобы запретить поисковикам индексацию определенных страниц или целых каталогов применяется файл robots.txt. Это единственный важный файл, который любые поисковики обязаны прочитать на любом сайте перед тем, как совершать другие действия. Но читать-то они читают, но вот инструкциям следуют не всегда. Если спайдер идет в каком-либо направлении, то страницы, заблокированные в robots.txt, не будут подвержены сбору информации. Но рейтинг они смогут получать. Эти заблокированные страницы будут отображаться в списках Гугл, так как Гугл все равно приходит по ссылкам, ведущим на эти заблокированные страницы.

Следует заметить, что robots.txt не гарантирует полной неиндексации страниц. Ситуация такова, что не надо полагаться на них, если у Вас есть конфиденциальная информация. Такую информацию надо закрывать паролями, а не robots.txt.



Есть вопросы?

Сообщить об опечатке

Текст, который будет отправлен нашим редакторам: