Что такое пессимизация сайта

Что такое пессимизация сайтаТермин пессимизация был придуман разработчиками поисковой системы Рамблер и примерно в 2003 году стал употребляться в обсуждениях, касающихся этой поисковой системы, не только разработчиками Рамблера но и веб-мастерами. Несмотря на то, что термин пессимизация официально не употребляется другими поисковыми системами, само слово прижилось в среде веб-разработчиков и seo-оптимизаторов.

Пессимизация — это понижение позиции сайта в поисковой выдаче, искусственное снижение релевантности конкретному запросу, это санкция накладываемая на сайт поисковой системой в наказание за некачественный контент, недобросовестные способы раскрутки сайта и др.

Какой бывает пессимизация сайта и кто ее накладывает

Пессимизация бывает ручной и автоматической, в зависимости от способа обнаружения нарушений на сайте и способа наложения на сайт специальных фильтров.

Ручная пессимизация — это специальный фильтр, который накладывается сотрудниками поисковой системы (модераторами) в ответ на сообщения пользователей о нарушениях на сайте и после их тщательной проверки. Этот фильтр я упоминаю вскользь, потому что с ним все очень индивидуально. Если на ваш сайт пожаловались поисковой системе, значит вы кому-то не угодили, проигнорировали жалобы пользователей, требования правообладателей, либо ваш сайт не соответствует законодательству РФ. Чаще всего владелец сайта в курсе того, что его сайт нарушает законодательство, в том числе авторское право. Единственный способ вывода сайта из под ручного фильтра — устранение причины, по которой сайт попал под фильтр и написание письма раскаяния поисковой системе с упоминанием, что причина устранена и заверениями, что это не повторится.
Продолжить чтение

Оптимальный размер статьи для блога

Оптимальный размер статьи для блога

Какой объем статьи считается оптимальным для успешного поискового продвижения? Сколько текста надо написать чтобы статья понравилась и людям и поисковым роботам?

Такие вопросы часто слышатся на форумах по раскрутке сайтов и в комментариях seo-блогов. Существует немалое количество блогеров, пытающихся измерять статьи количеством букв, тошнотой ключевых слов и объемом изображений. Для таких дотошных товарищей написана эта статья

Продолжить чтение

Что такое ЧПУ и зачем они нужны

Что такое ЧПУ и зачем они нужныАббревиатура ЧПУ расшифровывается, как человекопонятные урлы (от англ. URL — Uniform Resource Locator). Сайты на CMS обычно генерируют автоматические адреса страниц, которые состоят из технических меток CMS и сложно воспринимаются «на глаз».

Вот что говорит Википедия:

ЧПУ (аббревиатура от «Человеку Понятный Урл», где «урл» — жаргонное название URL) — веб-адреса, удобные для восприятия человеком (а также систем и методов построения таких адресов).

Концепция ЧПУ предполагает максимально лаконичные и интуитивно понятные адреса, которые показывают естественную для человека логическую структуру данных на сервере, а не её программный интерфейс с модулями и параметрами.

Продолжить чтение

Раскрутка блога контекстной рекламой. А стоит ли?

Раскрутка блога контекстной рекламой. А стоит лиСтоит ли раскручивать блог с помощью контекстной рекламы? Мой ответ — однозначно нет. Этот вопрос возник у меня после прочтения советов по раскрутке блога от начинающих блогеров, которые советуют повышать посещаемость с помощью контекстной рекламы.

Контекстная реклама не подходит для раскрутки блога совсем. Реклама должна побуждать к действию и оправдывать вложенные в нее средства. Контекстная реклама эффективна для страниц на которых можно что-то купить, подписаться, зарегистрироваться и т.д. в этих случаях затраты на рекламу всегда окупаются.
Продолжить чтение

Эксперимент по распространению своих шаблонов оформления

Эксперимент по распространению своих шаблонов оформленияИдея увеличения ссылочной массы посредством распространения собственных шаблонов оформления для сайтов на WordPress, на мой вгляд, феерически провалилась.

Я совершенно упустила из виду, что на меня начнут ссылаться сайты с которых мне и задаром ссылки не нужны. Основные подводные камни, которые обнаружились в процессе анализа внешних ссылок на сайт:

1. Сайты, установившие мой шаблон совершенно не связаны с моей тематикой;

2. Сайты, которые таким образом на меня ссылаются откровенно плохого качества.
Продолжить чтение

Устаревшие способы оптимизации сайтов

Устаревшие способы оптимизации сайтовЭта статья рассчитана на начинающих веб-разработчиков и SEO-оптимизаторов. В процессе поиска полезной и обучающей информации в Интернете, они, зачастую, забывают обратить внимание на дату выхода материала. Это очень важно, потому как информация в мире высоких технологий имеет свой срок годности и он весьма короток. Изучая сайты и блоги известных веб-разработчиков, оптимизаторов, стартаперов, блогеров и прочих, не забывайте смотреть на дату. Те советы и идеи, которые выстреливали полгода назад могут быть абсолютно бесполезны сейчас.

Я посетила несколько блогов, начинающих SEO-оптимизаторов и заметила, что они копипастят устаревшие советы маститых блогеров, не задумываясь о том, что информация сильно устарела. Развенчаю несколько мифов, которые бросились в глаза.
Продолжить чтение

Почему сайт выпал из индекса поисковой системы

причины падения посещаемости и проседания позиций сайта

Почему сайт выпал из индекса поисковой системыВ том, что сайт попадает в немилость поисковой системы и перестает ранжироваться виноват всегда владелец сайта. Поисковые системы, конечно, изобретают новые механизмы борьбы с некачественными сайтами и недобросовестными оптимизаторами, но делает сайт некачественным и выбирает неправильные способы раскрутки сайта всегда его владелец.

Основные причины, по которым сайт выпадает из индекса поисковой системы и краткие советы как устранить эти причины:

1. Не уникальный контент, копипаст, неглубокий рерайт, плагиат. Необходимо добавить на сайт уникальный контент, уникализировать существующий контент, либо скрыть от поисковиков большую часть копипаста.
Продолжить чтение

Поисковая выдача, индексация, бан — три большие разницы

Поисковая выдача, индексация, бан - три большие разницыОчень часто на форумах, посвященных сайтостроительству и SEO можно встретить топики с такими названиями:

«Помогите мой сайт выпал из индекса»

«Сайт не индексируется поисковиком»

«Поисковик видит только главную страницу и игнорирует внутренние»

«Мой сайт забанен поисковой системой»

И, почему-то, многие считают что понятия поисковой выдачи и индексирования сайта поисковиками это синонимы. Давайте рассмотрим что именно обозначают понятия выдачи и индекса, а также бана применительно к поисковым системам, а в следующих статьях проанализируем причины выпадения из индекса поисковых систем и способ устранения этих причин.
Продолжить чтение

Поисковая выдача

Что такое поисковая выдача По какому алгоритму поисковые системы индексируют и ранжируют сайтыЧто такое поисковая выдача?

Поисковая выдача, в сленговом варианте серп (от анг. Search Engine Result Page) — это страница с результатами, генерируемая поисковой системой, с учетом релевантности информации на сайтах запросу пользователя.

Процесс (алгоритм) определения релевантности (соответствия) информации на сайте запросу пользователя происходит автоматически и называется ранжированием. Алгоритмы, по которым поисковые системы ранжируют сайты, отличаются у разных поисковых систем, также они постоянно обновляются дабы поставить палки в колеса сеошникам улучшить результаты поиска, предоставить пользователю самую полезную и актуальную информацию по его запросу и отсеять ГС.
Продолжить чтение

Наказывают ли поисковики за копипаст

Наказывают ли поисковики за копипастДо 2009 года среди веб-мастеров было много любителей создавать сайты-клоны с одинаковыми текстами и картинками. На сайтах, наполненных копипастом (контентом скопированным с других сайтов) можно было неплохо заработать, потому как такие сайты беспрепятственно попадали в индекс поисковых систем и не имели проблем с посещаемостью, при том, что оформление и юзабилити таких сайтов-клонов оставалось на уровне ниже среднего.

В конце 2009 года Яндекс запустил алгоритм АГС 17, который получил прозвище «атака клонов». Основной задачей этого алгоритма было выведение из индекса сайтов с не уникальным, а иногда и ворованным контентом. То есть сайт, основной контент которого был копипастом отправлялся в бан и вывести его из под АГС 17 было очень сложно.
Продолжить чтение