Как продвинуть сайт самостоятельно, улучшая внутреннюю оптимизацию под ключевые слова и удаляя дубли контента

0

Сегодня я публикую продолжение мануала по тому, как продвигать сайт самостоятельно для начинающих вебмастеров и оптимизаторов. Вообще, статья писалась как единое целое, но получившийся в итоге размер заставил разбить ее на три части. Первую часть Как и зачем продвигать сайт вы можете прочитать по приведенной ссылке.

В ней мы рассмотрели различные способы, позволяющие привлекать на свой проект дополнительных посетителей. Причем, мы пришли к выводу, что самым перспективным занятием является раскрутка в поисковиках, ибо при этом формируется устойчивый и один из самых стабильных видов трафика на ваш ресурс — поисковый трафик.

Но для того, чтобы начался существенный приток посетителей с поиска, вам придется прилично поработать над внутренней, внешней и пользовательской оптимизацией своего проекта. Но обо всем по прядку и на очереди у нас сегодня внутренние факторы.

Умеренная оптимизация помогает продвинуть сайт без затрат

Обычно внутренняя поисковая оптимизация сайта включает в себя написание текста статьи с таким расчетом, чтобы в ней встречались выбранные вами ключевые слова, по которым вы хотите попасть в Топ 10 поисковой выдачи. Как часто должны включаться ключи в тексте статьи — отдельный вопрос, но, пожалуй, их плотность в свыше 1-2 процента от общего числа слов в статье будет максимально допустимой, а если больше, то это уже спам и искусственная накрутка.

Позволю себе напомнить вам некоторые материалы, на которые я ссылался в первой части мануала по продвижению и которые могут вам пригодиться как раз при рассмотрении сегодняшних вопросов. Во-первых, это серия материалов по внутренней оптимизации, а также некоторые советы по внутренней оптимизации под Google.

Ключевые слова в тексте старайтесь употреблять в разных словоформах (падежах, числах и т.п.) и не употреблять их дважды в пределах одного предложения или даже абзаца, а еще старайтесь равномерно распределить их по статье. Для усиления их влияния, некоторые из них (ни в коем случае не все, а то поисковики дадут вам по рукам) можно выделить тегам STRONG или EM, а также ключевики можно использовать в заголовках h1-h6.

Не знаете Html тегов? Это довольно просто и доступно, попробуйте для восполнения пробелов воспользоваться данной рубрикой HTML для начинающих.

Теперь самое важное — обязательно употребите ключевые слова в мета теге Title (заголовке страницы). Если этого не сделать, то продвинуть данную статью будет крайне сложно или вообще невозможно. Вообще, про самостоятельное продвижение я уже писал довольно подробно, поэтому после прочтения этой публикации не примените ознакомиться с материалом по приведенной ссылке.

Title мало того, что должен включать в себя ключевики, он должен правильно формироваться используемой вами CMS (системой управления контентом). Ибо зачастую в нем сначала идет название всего ресурса, а уже только потом название данной конкретной статьи. Чем это плохо?

Да всем плохо. В Title поисковыми системами учитывается только ограниченное число слов, и если название вашего проекта очень длинное, то все тайтлы будут для поисковиков одинаковыми, что не принесет вам никакой пользы, а только лишь один вред.

В правильно сформированном в автоматическом режиме тайтле в начале должно идти название статьи, расположенной на этой странице, а уже только после него название вашего ресурса. Это обязательно нужно учитывать при создании сайта (формирование правильного Title в Joomla и тайтлы в WordPress).

Также правильно составленный и сформированный мета тег Title, о котором читайте тут, может оказать существенное влияние на пользовательские факторы, что, в свою очередь, может как помочь, так и помешать продвигать свой сайт. Но об этом уже читайте в третье части данного мануала.

При написании текста статей следует еще учитывать тот факт, что Яндекс и Гугл отдают предпочтение хорошо структурированным текстам, в которых используются заголовки различных уровней (H1-H6), если объем текста будет достаточно большим для этого. Но заголовок уровня H1 на каждой странице должен быть в единственном числе, иначе это может быть засчитано как спам.

Все остальные уровни заголовков можно использовать неограниченно, но они должны соблюдать вложенность (внутри заголовка уровня H3 можно использовать заголовки H4-6, но не H2). Ну и ключевые слова в заголовки не забудьте добавлять, ибо их влияние после заключения в эти теги заголовков несколько увеличивается. Опять же, спамить нельзя ни в коем случае.

Также поисковикам нравится, когда текст разбавляется различными Html списками, таблицами или изображениями. При вставке изображения в текст с помощью тега IMG, обязательно пропишите ему атрибут ALT, в котором употребите ключевые слова, ибо они тоже будут учтены поисковыми системами. Подробнее про все эти тонкости Html разметки читайте в этих статьях:

  • Как вставлять изображения в Html код с помощью тега IMG описано тут и тут
  • Как создавать гиперссылки — здесь
  • Форматирование текста в HTML, Html шрифты, Strong, Em, B, I — тут
  • Маркированные и нумерованные списки — тут
  • Таблицы различной сложности и вложенности — тут
  • Html формы — здесь
  • Вставка видео и другого медиаконтенкта с помощью Embed и object — здесь
  • Да и само изображение получает шанс поучаствовать в поиске по изображениями от Яндекса и Google. Правда реальный трафик с поиска по картинкам может существовать только в определенных тематиках, но несколько десятков переходов в сутки вам тоже, наверное, не помешают. Названия файлов с изображениями тоже можно будет составить из ключевых слов преобразованных транслитом.

    Еще один важный момент, который может в той или иной степени повлиять на то, насколько просто будет вам продвигать сайт — это активация ЧПУ (человеко-понятных урлов) в используемой вами CMS. Это дает возможность заменить адреса (URL) страниц с вида (edit.php?post_type=page) на понятный пользователям и поисковым системам вид (https://ktonanovenkogo.ru/gde-vzyat-vneshnie-ssylki).

    ЧПУ ссылки дают сразу два преимущества. Во-первых, вашим посетителям будет легче ориентироваться даже просто используя Урлы страниц, особенно, если вы включите в них названия разделов и категорий, к которым они принадлежат.

    А, во-вторых, ключевые слова, написанные транслитом в URL подверженных такому преобразованию, будут учитываться поиском, что наглядно можно увидеть в поисковой выдаче по любому запросу (они будут выделены жирным). Это опять же будет привлекать больше внимания пользователей и повышать ваши поведенческие характеристики.

    ЧПУ лучше делать на транслите, а не на кириллице. В качестве разделителя используйте тире, ибо оно воспринимается поисковыми системами, как символ разделения слов (в отличии от символа подчеркивания). О его включении читайте подробнее здесь — SEF для Joomla, ARTIO JoomSEF, ЧПУ в WordPress.

    Внутренняя оптимизация должна тоже в обязательном порядке включать и перелинковку. Что это такое и для чего она нужна? Для примера зайдите на сайт Wikipedia и убедитесь, что со страницы с любой статьей будет идти множество ссылок на другие публикации прямо из текста материала (я не говорю про элементы навигации, меню и т.п., говорю именно про гиперссылки, вставляемые из текста, ибо это наиболее эффективный способ линковки).

    А теперь скажите — вы часто видите Википедию на первых позициях в выдаче? А это в том числе и за счет такой всеобъемлющей внутренней перелинковки, хотя и не только из-за этого (тут может быть и в трасте причина), но это уже тема для отдельного разговора о нюансах работы поисковых систем.

    Есть различные теоретические схемы правильной внутренней линковки, например, перелинковка под низкочастотные запросы. Но лично я делаю ее по схеме «сфера», когда статьи одной тематики ссылаются на множество других, но из этой же темы (говорят, что линковка внутри кластеров одного сайта эффективна, а вот между ними не очень). Получается несколько сфер линковки, которые также связаны и между собой.

    В общем случае, ее значимость для продвижения сайта можно сравнить с кровеносной системой человека. Чем больше будет пронизан внутренними ссылками ваш проект (не стоит делать однин большой сквозной блок с ссылками, который будет отображать на всех страницах, а именно линковать из текста статей), тем равномернее будет распределяться по его страницам статический вес (это аналог крови) и тем выше будут стоять страницы вашего проекта в поисковой выдаче.

    Статический вес передается между любыми страницами в интернете по гиперссылкам, если они не закрыты от индексации поисковыми системами. Причем не важно, будут ли это страницы вашего же ресурса (внутренние линки) или же это будут страницы других ресурсов (внешние). Поэтому, если ваш проект содержит достаточное количество хорошо перелинкованных между собой страниц, то статический вес (который можно косвенно оценить по тулбарному значению PageRank) может быть очень существенным и позволит страницам стоять выше в выдаче при прочих равных условиях.

    Также учтите, что длина текста ваших статей тоже может помочь или, наоборот, помешать успешно продвинуть проект. Текст не должен быть слишком коротким (мне кажется, что нужно хотя бы 1000 слов), но и слишком длинным делать его нет смысла, ибо это было преимуществом несколько лет назад, но после того как оптимизаторы стали злоупотреблять этим фактором, влияющим на релевантность (писать полотенца вроде некоторых моих статьей), поисковики резко снизили влияние длинных текстов на ранжирование.

    Однако, короткие статьи рискуют просто выпасть из индекса поисковых систем, особенно, если у вас имеет место быть очень большой сквозной блок (сайдбар, куча меню, навороченный футер и т.п. блоки, отображаемые на всех страницах ресурса). Да, конечно же, Яндекс и Гугл умеют отделять сквозные блоки от полезного контента и учитывают их по разному, но это не мешает им выкидывать короткие посты из индекса за неполное дублирование.

    Уникальный контент и проблема дублирования

    Мы тут, кстати, подошли к архиважной проблеме, мешающей продвигать ресурсы многим начинающим вебмастерам. Я говорю о дублировании контента. Поймите и запомните раз и навсегда — поисковые системы не любят полные или частичные дубликаты страниц, причем не важно, дубликат ли это вашей же страницы или дубль статьи скомунизженной с другого сайта. Хотя во втором случае наказание может быть более жестким, особенно в последнее время.

    Почему им не нравятся дубли в любом виде? Да все очень просто и банально. Индексируя кучу дубликатов, они вынуждены задействовать дополнительные резервы для хранения данных дублей (компьютерные мощности), а любые лишние расходы вызывают у коммерсантов желание бороться с причинами их вызывающими.

    Поэтому не допускайте ситуаций, когда у вас могут появиться полные или частичные дубликаты страниц. Что для это нужно делать или не делать? Ну, во-первых, не нужно копипастить чужие статьи, пусть даже и частично. Это не хорошо со всех точек зрения, в том числе и с точки зрения того, что продвигать сайт с не уникальным контентом будет на порядок сложнее, да и риск попасть под страшный фильтр АГС (почти все страницы ресурса будут удалены из индекса Яндекса) или его аналогов в Google, будет крайне высок.

    Т.е. получается, что уникальный контент — это тот минимум, который будет вам необходим для того, чтобы успешно продвинуться. Но одного этого, к сожалению, не достаточно. Почему «к сожалению»? Да потому что поисковики еще не так умны, чтобы вровень с человеком уметь отличать хорошие статьи, просто их прочитав.

    Они оперируют только такими единицами информации как слова и если вы в своем уникальном, со всех точек зрения, тексте не упомяните несколько раз о чем именно ваша статья, то и в Топе поисковой выдачи по желаемому запросу вам, скорее всего, не бывать.

    Поэтому, если хотите иметь трафик с поиска, то окромя написания оригинальных материалов озаботьтесь хотя бы минимальной его внутренней оптимизацией и при возможности перелинковкой, в соответствии с описанными мною выше принципами.

    Перебарщивать с внутренней оптимизацией тоже нельзя, но и не делать ее вообще будет довольно глупо и не дальновидно (стеснения употребить несколько раз в тексте ключевые слова, боясь праведного гнева читателей здесь не уместны, ибо мы волей не волей загнаны в такие условия современными алгоритмами). Не забывайте, что вы пишите для людей, а если этих самых людей не будет достаточно приходить с поиска, то и писать вам получается нет смысла.

    Продолжим про дублирование контента, ибо мы чуть-чуть сбились. Итак, для того, чтобы сайт можно было продвигать без проблем, нужно избавиться по возможности от всех полных и не полных дублей контента. Будем считать, что тексты у нас уникальные и они достаточно длинные, чтобы не быть признанными поисковыми системами неполными дублями из-за больших сквозных блоков.

    Но практически любая CMS (система управления контентом) создает дубли (версии страниц для печати, rss ленты и т.п.) и с этим обязательно нужно бороться.

    Способ борьбы заключается в создании запретов для поисковиков, учитывая которые они не посмеют затронуть индексацией дубли. Т.о. мы не только сохраним лицо перед поиском (а нету у нас дублей — вот такие мы белые и пушистые), но и снизим нагрузку на сервер, создаваемую роботами всех поисковых систем. К индексации следует по этой причине также запретить и все служебные файлы используемой вами CMS.

    Для запрета индексации мы будет использовать так называемый файл robots.txt, важность которого для последующего успешного продвижения очень трудно переоценить. Если вы по каким-либо причинам считаете, что использовать этот файл не нужно, то вы ошибаетесь, в силу того, что просто не знаете или не учитываете всех положительных моментов от его правильного использования (вы не любите кошек? — просто вы не умеете их готовить).

    Подчеркиваю, именно правильного файла robots.txt, потому что довольно часто возникают ситуации, когда начинающие вебмастера запрещают к индексации продвигаемые страницы со статьями, что может привести к полному пропаданию поискового трафика. Работать с этим файлом следует осмысленно и обязательно проверять через Вебмастер Яндекса и Гугла правильность его работы (введите ссылку одной из своих статей и посмотрите, не запрещена ли ее индексация).

    Что такое файл robots.txt, какие директивы в нем используются, как будет выглядеть оптимальный robots.txt для Joomla и WordPress, я уже довольно подробно описывал. Советую ознакомиться с этими или какими-либо другими материалами, ибо вещь действительно нужная и полезная, хоть и не сразу понятная.

    Те кто использует WordPress могут воспользоваться плагином All in One SEO Pack, помогающим решить целый ряд вопросов по правильной индексации страниц блога, а также позволяющего запретить индексировать страницы с неполными дублями и прописать в шапку страниц дублей специальный новый тег Canonical, который подскажет поисковикам, что перед ними дубль и покажет адрес страницы с оригиналом текста, которую и нужно будет проиндексировать.

    Стоит еще упомянуть о такой вещи, как склейка зеркал сайта с WWW и без него. Вы, наверное, уже встречали в интернете доменные имена как с WWW, так и без него. В принципе, вы скорее всего понимаете, что оба варианта будут являться одним и тем же ресурсом, но вот поисковые системы придерживаются другого мнения и вполне могут посчитать их двумя разными сайтами со всеми вытекающими последствиями. А какие могут быть последствия?

    Да, в принципе, самые печальные. Допустим, что обратные внешние ссылки будут проставлены в основном на ваш домен с WWW, а недальновидные поисковики сделают главным зеркалом без WWW. В результате вся накопленная ссылочная масса (результат внешней оптимизации, о которой мы подробно поговорим в третьей части мануала по продвижению для начинающих) будет потеряна.

    Так вот, чтобы этого избежать нужно прописать в файле .htaccess несколько строчек для склейки зеркал, а в файле robots.txt добавить для Яндекса специальную директиву Host (см. ссылку на статью выше), предписывающую ему выбрать в качестве главного зеркала тот или иной вариант. Подробнее обо всех этих перипетиях читайте в данном материале — Домены с www и без него и их склеивание.

    Итак, мы подобрали низкочастотные и среднечастотные запросы, по которым будем продвигать сайт, написали уникальные тексты с нужными ключевыми словами, одновременно проведя их внутреннюю поисковую оптимизацию, создали разветвленную схему перелинковки, а также запретили к индексации все полные и не полные дубли контента.

    Мы молодцы. В общем-то, уже только этого будет достаточно для продвижения и попадания в Топ по некоторым НЧ (во всяком случае по тем, где нет конкуренции между оптимизаторами, т.е. такими же умными челами как и мы с вами).

    Надо продвигать сайт комплексно и равномерно

    Но для того, чтобы продвигать сайт успешно и попасть в Топ по большинству намеченных запросов, одной лишь внутренней оптимизации будет не достаточно. Нужно будет обязательно уделить достаточно времени и сил еще двум факторам, влияющим на успешность процесса — внешняя оптимизации и поведение пользователей на вашем ресурсе.

    Причем, недочет или ваша недоработка в одном из этих направлений может привести к нивелированию всех успехов, достигнутых по двум другим направлениям продвижения и оптимизации. В современных условиях двигать проект нужно комплексно, одновременно по всем трем фронтам вести неуклонное наступление и успех не заставит себя ждать.

    Но о двух других важнейших факторах, позволяющих успешно продвигать сайт самостоятельно, мы поговорим уже в заключительной части этого мануала. Там во всех подробностях рассмотрим влияние на продвижение внешней оптимизации сайта (ссылочное ранжирование), а еще пользовательских факторов, которым в последнее время очень пристальное внимание уделяют поисковые системы.

    Удачи вам! До скорых встреч на страницах блога KtoNaNovenkogo.ru

    Источник: ktonanovenkogo.ru

    Добавить комментарий

    Ваш адрес email не будет опубликован. Обязательные поля помечены *

    Этот сайт использует Akismet для борьбы со спамом. Узнайте, как обрабатываются ваши данные комментариев.