СЕО терминология, сокращения и жаргон

Обновлено 19 мая 2021 Просмотров: 157 785 Автор: Дмитрий Петров

Продолжаю публиковать, начатый в посте Расшифровка и разъяснение Seo сокращений, терминов и жаргонизмов, список seo аббревиатуры. Итак продолжим…

  • ВЧ-запрос (высокочастотник) — запрос пользователей Яндекса или Гугла, имеющий очень высокую популярность (наверное, где-то более 10000 запросов в месяц). Высокочастотники отличаются также повышенным уровнем конкуренции в выдаче поисковиков (как правило). Продвинуться по такому запросу особенно сложно. Посмотреть, с какой частотой пользователи вводят в поисковиках те или иные запросы, можно здесь:
  • Статистика ключевых слов по Вордстату
  • Статистика запросов по Яндексу, Рамблеру и Гуглу
  • СЧ-запрос (среднечастотник) — среднечастотный запрос. Обычно под среднечастотными понимают запросы, которые вводят несколько тысяч раз в месяц. Это количество является индивидуальным для каждой тематики и зависит от её популярности в интернете. Конкуренция здесь, как правило, несколько ниже, но все равно достаточная.
  • Частотность запросов, апдейты, тошнота, бан и релевантность

  • НЧ-запрос (низкочастотник) — низкочастотный запрос. Они вводятся по нескольку сотен раз в месяц. Продвинуться по НЧ можно, вообще не используя внешнюю оптимизацию. Для этого достаточно будет грамотно провести оптимизацию внутреннюю (перелинковать статьи).
  • Ссылка сквозная (сквозняк) — вебссылка со всех страниц сайта (главная + все внутренние). С помощью сквозняка хорошо поднимать PR или ТИЦ сайта, но при продвижении по запросам (для попадания по ним в топ) сквозняк не имеет особого преимущества по сравнению с обычной вебссылкой с главной страницы.
  • Яка — каталог Яндекса.
  • ДМОЗ (DMOZ) — Open Directory Project — популярный ненашенский каталог (dmoz.org ). Имеет большое влияние на pr при продвижении (есть мнение, что на рунет это не распространяется). Добавление в ДМОЗ (DMOZ) производится на бесплатной основе. Русскоязычный ресурс можно добавить по адресу — dmoz.org/World/Russian.
  • Клоакинг (Cloaking) — метод оптимизации, при котором поисковому роботу предоставляется один контент, а посетителям ресурса — другой. При обнаружении карается баном (ресурс исключается из базы поисковика).
  • Пессимизация сайта — занижение позиций ресурса при его ранжировании в результатах поиска. Обычно возникает в результате использования методов «чёрной оптимизации». Яндекс и Гугл делают в целях повышения релевантности своей выдачи.
  • Релевантность поиска — соответствие ответа вопросу. Важны две составляющие – полнота (ничего не потеряно) и точность (не найдено ничего лишнего).
  • Бан — запрещение ресурса к индексации одним или несколькими поисковиками. Например, если Яндекс вас забанил, то ваш сайт на стартовой странице яндекса не найдется ни по одному из запросов.
  • Тошнота страницы — степень неествественности текста. Тошнота увеличивается при явном переборе ключевых слов, большом кол-ве тегов strong и др. Она не обязательно ведет к пессимизации и уж тем более к бану, но может подпортить мнение поисковиков о вашем ресурсе.
  • Поисковый спам — это любые приёмы или тексты, рассчитанные только на роботов поисковиков и не предназначенные для “живого” посетителя. Например, размещение невидимых для пользователя гиперссылок (как вариант — в виде прозрачной картинки размером 1×1) и создание, так называемых, Link Farm (линк-ферм, или ссылкопомоек) — вебстраниц с огромным количеством гиперссылок на разные ресурсы.
  • АП (апдейт) — это обновление индекса Яндекса (у Google все происходит практически в реальном времени), приводящее к изменению позиций в выдаче. Апдейты проходят двумя способами — мгновенная очистка кеша и постепенная замена. В первом случае, во время начала апдейта мы видим сильные изменения в выдаче сразу, т.к. кеш очищен и выдача формируется в реальном времени, а во втором — выдача обновляется постепенно.
  • Поисковая выдача SERP (search engine result page) — набор ссылок на сайты и их описания, выдаваемый в результате поиска. Ввели запрос и в результате получили список ресурсов, соответствующих по мнению поисковика вашему запросу. Этот список и будет поисковой выдачей.
  • Семантическое ядро — это полный список запросов, по которым проект будет продвигаться. Разрабатывать структуру сайта нужно только после составления семантического ядра. Это даст Вам представление о разделах Вашего не созданного вебсайта и о материалах, которые на нем нужно будет размещать.
  • Ссылочное ранжирование (Link Popularity) — это влияние текстовой составляющей гиперссылки, проставленной с чужого сайта, на релевантность вебстраницы вашего ресурса по поисковым запросам, содержащимся в текстовой составляющей ссылки (ее анкоре). Это поиск по лексике анкоров, который является, пожалуй, самым интересным из критериев, оказывающих влияние на ранжирование документов в результатах поиска.

    Ссылочное ранжирование — это иерархия по авторитету в выдаче Яндекса или Google. Если на ресурс ссылаются много других ресурсов, значит он авторитетный. Управлять всеми ссылающимися вебсайтами вебмастер не может, поэтому ссылочный критерий более объективный, чем текстовый. Дополняя друг друга, оба критерия позволяют поисковикам обеспечивать лучшие результаты поиска.

  • Ссылочная популярность — это показатель того, сколько гиперссылок с внешних ресурсов ведет на ваш сайт, документ или домен, на котором он находится. Ссылочная популярность будет меняться в зависимости от поисковой системы, поскольку каждый поисковик имеет свою собственную базу данных и количество ссылок, хранящихся в базах различных систем различно. Гугловский PR и яндексовский ВИЦ являются показателями ссылочной популярности.
  • Free-for-all (FFA) страницы — это место, где каждый может добавить свою гиперссылку. Т.к процесс автоматизирован, то нет никакой возможности его контролировать. Тысячи и тысячи нетематических ссылок находятся на страницах FFA. Единственная цель — это увеличение link popularity.
  • Анкоры, движки, виды оптимизации парсеры и песочница

  • Анкор (anchor) — текст ссылки.
  • «Черная» оптимизация — продвижение нечестными методами, поисковый спам. Для достижения результата используется размещение невидимого текста, использование дорвеев с редиректом, клоакинг, ссылочный спам (размещение невидимых для пользователя гиперссылок.)
  • «Серая» оптимизация — оптимизация «вслепую», без учета особенностей проекта. Осуществляется, например, созданием дорвеев без редиректа, хаотичный обмен ссылками. Эффект от такой оптимизации минимальный.
  • «Белая» оптимизация — работа с контентом и структурой сайта с целью сделать его наиболее удобным для посетителей и доступным для индексации поисковиками. Проводится путем оптимизации навигации на сайте, чисткой кода, добавлением контента, размещением ссылок на тематических ресурсах. Вы так же можете ознакомиться со статьей — Внутренняя оптимизация сайта
  • Двиг, движок — программный код, на основе которого построен сайт. Чаще всего имеются в виду CMS (Content Management System) – Системы управления контентом. Оптимизация выдвигает к «движкам» ряд требований, которыми обычно пренебрегают многие разработчики CMS.
  • Жирная ссылка — гиперссылка с вебстраницы с большим авторитетом (ТИЦ, PR). Важность этой ссылающейся страницы, в свою очередь, тем выше, чем больше количество и чем авторитетнее ссылки ведущую на эту вебстраницу.
  • Затачивать — применительно к SEO, это оптимизация под поисковик, либо текста под ключевое слово.
  • Киберсквоттеры — это те, кто регистрирует домены для продажи. Маржа киберсквоттера может превышать несколько сотен процентов.
  • Мордовские ссылки — с главных вебстраниц (морд) сайтов.
  • Непот фильтр — отказ поисковика учитывать гиперссылки с сайтов-спамеров.
  • Непот лист — список ресурсов, которые попали под ограничения накладываемые непот фильтром.
  • Парсер — программа, которая обеспечивает автоматическую обработку (разборку) вебстраниц сайтов с целью получения нужных данных. Парсеров в природе существует огромное множество, в зависимости от задачи, например, парсеры для сбора ключевых слов из сервиса wordstat.yandex.ru.
  • Парсить — процесс проверки (разборки) данных, основной целью которого является обнаружение необходимых элементов файла (ссылка, логические части текста и т.п.).
  • Парсить можно выдачу на предмет позиций ресурса, можно страницы на предмет нахождения там нужной ссылки и т.п.
  • Песочница — это одно из самых серьезных препятствий, которое необходимо преодолеть новому проекту, прежде чем попасть в результаты поиска русского Google. Песочница Google не позволяет новым ресурсам искусственным путем улучшать свои позиции. Далеко не каждая поисковая система имеет подобную фильтрацию. Сайты, оказавшиеся в песочнице, могут пробыть там от двух недель до года. В течение этого периода новые проекты успеют занять высокие позиции в других поисковиках, но не в Google.
  • Удачи вам! До скорых встреч на страницах блога KtoNaNovenkogo.ru

    Источник: ktonanovenkogo.ru

    Статьи по теме

    Добавить комментарий

    Ваш адрес email не будет опубликован. Обязательные поля помечены *

    Этот сайт использует Akismet для борьбы со спамом. Узнайте, как обрабатываются ваши данные комментариев.

    Back to top button