Devaka Talk
11K subscribers
1.23K photos
38 videos
28 files
3.18K links
Канал по просуванню та оптимізації сайтів під Google. Hard SEO.

Зв'язок зі мною: @devaka
(Сергій Кокшаров)

Реклама: @dv_adv
Для донатів: @dv_donate

Навчаю у групах.
https://webpromoexperts.net/courses/seo-pro-online/
Download Telegram
CMS для SEO

Люди ищут CMS для SEO как святой Грааль. И это будет продолжаться веками. Но истина в том,.. что такой CMS не существует.

Любая CMS — норм!

Любую вам придется допиливать. Любую можно вылизать и поисковики будут хорошо понимать и сканировать сайт. И любую можно засрать так, что с SEO все будет плохо. И некая оптимизация под поиск это далеко не единственное требование к CMS, когда речь идет о серьезном проекте, которым управляет команда.

Если кто-то вам говорит, что его CMS лучшая для SEO, то перед вами менеджер по продажам.

#makeseogreatagain 16/100
Блоки ответов

Все вебмастера делятся на 2 типа. Одни хотят попасть в блок ответов, чтобы обогнать конкурентов. Вторые хотят от него избавиться, так как снижается CTR сниппета.

Избавиться от попадания в блок ответов в Google возможно с помощью использования директив nosnippet или max-snippet. Но вот попасть уже сложнее...

Несколько советов, использование которых повысит вероятность занятия нулевой позиции:

• Чаще используйте списки
• Заголовок списка должен содержать ключевое слово
• Используйте текст для людей, его будет зачитывать голосовой ассистент
• Если запрос подразумевает определение, дайте емкое определение в одном предложении.
• Анализируйте и дорабатывайте

#makeseogreatagain 17/100
Конфликт правил

Есть ряд инструментов, с помощью которых оптимизатор может давать технические инструкции и рекомендации поисковой системе. Например,
— файл robots.txt с инструкциями, что не нужно сканировать.
— файл sitemap.xml с рекомендациями, что нужно сканировать.
— директива meta-robots с инструкциями краулеру и индексатору.
— тег rel=canonical с рекомендацией канонической страницы.
— X-Robots-Tag, HTTP Headers, и другие.

Так как директив много, а оптимизатор часто один, то возникают ситуации, когда инструкции в разных участках противоречат друг другу.

Например, URL присутствует в sitemap.xml и в то же время закрыт в robots.txt, отдает 404 код статуса или отсутствует в перелинковке. Или же страница закрыта мета-тегом robots "noindex,follow", и в то же время для нее указывается каноническая страница. Или используется отдельный язык в hreflang, но указанной страницы не существует/редиректит. Иногда можно встретить страницы с двумя каноническими тегами, которые ведут на разные URL.

Комбинаций таких инструкций, которые противоречат друг другу, может быть много и это конфликт правил, с которыми поисковику нужно как-то справляться.

Одна из задач технического анализа найти все конфликты правил, чтобы после исправления робот понимал инструкции недвусмысленно и четко. А для этого, конечно, желательно хорошо разбираться в работе каждого из инструмента/директивы, которые вы используете у себя на сайте.

#makeseogreatagain 18/100
Слепое удаление страниц

Чистка сайта от мусорных или шаблонных страниц, поддержание качества индекса — это хорошее дело. Но слепое удаление может привести к потере трафика, иногда существенной. Так как мы чаще смотрим лишь на объем трафика, а не то, куда он приходит.

Перед тем, как что-то удалить, нужно оценить, давала ли эта страница или раздел трафик и сколько, готовы ли вы его потерять.

#makeseogreatagain 19/100
Скорость - фактор ранжирования!

Чем быстрее вы внедрите рекомендации своего оптимизатора по оптимизации контента и размещению ссылок, тем больше получите трафика. Потому что скорость - это фактор ранжирования.

#makeseogreatagain 20/100
Минимальный PageRank

RageRank имеет интересное свойство. Он никогда не равен нулю (за исключением случаев, когда на сайт/страницу накладывается фильтр).

Классическая формула PR подразумевает, что воображаемый пользователь, случайно кликающий по ссылкам, в конце концов перестает кликать. Вероятность продолжения клика является демпфирующим фактором и равна около 0.85.

PR = (1-d) + d*SUM(PR/L)

Если страница не имеет каких-либо ссылок, то ее PR будет 0.15. Но обычно страницы имеют внутренние ссылки. И чем больше сайт, тем больше внутренних ссылок имеет каждая страница.

Допустим, у вас имеется сайт со 100 000 страницами. И все они по удивительной случайности оказались в индексе. На каждой из страниц по 100 исходящих ссылок на другие внутренние страницы. Тогда, в первой итерации PageRank главной страницы будет равен:

0.15 + 0.85*100 000*0.15/100 = 127.65

Это примерно 2.5 в тулбарном значении. Весьма неплохо. Учитывая, что для получения того же эффекта линкбилдингом, потребовалось бы около сотни стандартных статейных ссылок.

Минимальный PageRank намекает на важность ассортимента и грамотной перелинковки.

#makeseogreatagain 21/100
Косвенные ссылки

Это те ссылки на домен, которые, не являясь прямыми, оказывают влияние на продвижение документа. Через хостовые факторы.

Так, ссылки на главную страницу помогают продвигать внутренние. А ссылки на внутренние помогают продвигать главную.

Плюсы косвенных ссылок:
- Упрощают процесс линкбилдинга.
- Помогают попасть на авторитетные площадки, включая Википедию, учебные или правительственные сайты.
- Помогают избежать срабатывания антиспам-алгоритма.
- Позволяют по-максимуму использовать белые стратегии для продвижения коммерческого раздела.
- Усложняют жизнь конкурентам.

Минусы:
- Меньшее влияние, чем у прямых ссылок.
- Не существует инструментов для анализа косвенных ссылок. Приходится это делать вручную.

Если в конкурентом ТОПе заметите документ без ссылок, не спешите делать выводы.

#makeseogreatagain 22/100
Олдскульная стратегия анализа внешнего продвижения конкурентов

Сейчас существует множество удобных инструментов анализа ссылок конкурентов, чтобы понять их стратегии продвижения. Но представьте, что совсем недавно их просто не существовало.

Ahrefs появился в конце 2011, но массово им начали пользоваться с 2013. Majestic появился в 2008, но тогда о нем мало кто знал. Остальные инструменты по анализу ссылок тоже появились плюс-минус в те года. А как же без них обходились раньше?

Анализировали конкурентов прямо на выдаче. Есть очень простой способ.

— Выделяется уникальное название сайта. Это может быть имя домена или имя бренда, если оно уникально.
— Производится поиск в кавычках.
— В итоге получаются все сайты/страницы, где упоминается искомый сайт, о которых знает поисковик.
— Поисковиков много, каждый из них может знать что-то больше другого.

Дальше собиралась инфа, и составлялась стратегия повышения видимости своего сайта на тех же площадках, где находили конкурента. Сейчас это тоже работает! Тем более, что в поиске можно выбрать дату найденных результатов. Попробуйте. Найдете много интересного.

#makeseogreatagain 23/100
Время реакции на падение трафика

Когда на сайте резко падает трафик/позиции и на это нет объективных причин, то реагировать сразу (что-то внедрять, исправлять) — плохая затея. Нужно подождать неделю, может две. За это время может многое измениться, все может вернуться на место.

Но не просто ждать, а использовать это время для ресёрча. Тогда, если вдруг ситуация не изменится, вы будете точно знать, что проблема на вашей стороне, плюс у вас будет много гипотез и данных, что исправить, или над чем поэкспериментировать.

В SEO нельзя торопиться.

Видео по теме: https://youtu.be/23fBoqQxSgQ

#makeseogreatagain 24/100
Частотность запроса

Очень мутный термин. Является сеошным и обозначает, как часто люди(?) ищут результаты по анализируемому поисковому запросу.

Почему мутный? Потому как цифра, которую мы в результате получаем с помощью инструментов, считается этими инструментами по-разному. Плюс понимается вебмастерами тоже по-разному.

— По умолчанию, частотность фразы отображается в широком соответствии. То есть, включая частотность фраз, которые включают искомые слова как составляющие. Цифра для "утепление фасада" будет включать все варианты запросов, в том числе "стоимость утепления фасада" и "утепление и облицовка фасада".

— Частотность не означает количество людей, которые производят поиск. Один человек может генерировать 1000 однотипных запросов.

— Переход пользователя на вторую страницу поиска это дополнительный "поиск" или "показ".

— Google использует термин "среднее число запросов в месяц" и по-умолчанию показывает среднее значение за последние 12 месяцев.

— Google, помимо широкого соответствия, включает в запросы близкие варианты. Например, при поиске "силовые тренажеры" на оценку частотности будет также влиять запрос "силовая скамья" или "мультистанция". [1]

— Google округляет статистику количества запросов.

— Яндекс использует термин "показов в месяц". И показывает значение за последние 30 дней. [2]

— Ahrefs в оценке частотности использует данные Keyword Planner + данные от партнеров (кликстрим), оборачивая это в некую неизвестную функцию. Отображаются средние данные за последние 12 месяцев и округляются. [3]

— Не все фильтруют ботов.

Использовать частотность в рамках одного инструмента — норм. Сравнивать частотности, полученные разными инструментами — не норм. Пытаться оценить по частотности запросов, сколько вы точно получите органического трафика — плохая затея.

[1] https://support.google.com/google-ads/answer/3022575?hl=ru
[2] https://yandex.ru/support/direct/keywords/wordstat.html
[3] https://ahrefs.com/blog/seo-metrics/

#makeseogreatagain 25/100
Пустые ссылки в коде

Каждая ссылка в коде должна иметь значение для SEO. Ссылки поисковики используют для обнаружения новых страниц, для понимания, чему они релевантны, для распределения веса/pagerank по этим страницам.

Но вебмастера не всегда используют ссылки по назначению. Например, часто тег A используется для реализации функционала кнопок, выпадашек и пр.

<a href="#" class="btn js-close-modal">Отмена</a>

Подобные ссылки усложняют работу поискового парсера, плюс плохо влияют на эффективную работу перелинковки. И чем их больше, тем серьезней проблема.

Используйте тег A по назначению! Для реализации функционала кнопок всегда можно использовать другие HTML-теги.

#makeseogreatagain 26/100
Вечный редирект

Когда вы переносите сайт с одного домена на другой, необходимо настроить постраничные 301 редиректы. Это все знают.

Но некоторые считают, что достаточно дождаться склейки доменов и редирект можно убирать. Я вас огорчу, 301 редирект должен оставаться постоянным, то есть вечным...

Удаление редиректа приведет к расклейке зеркал и потере старых сигналов, плюс иногда к возникновению дублей. Если никаких старых сигналов не было (ссылок, упоминаний, поисков по названию сайта, связанных сервисов ПС...), тогда не о чем беспокоиться. В противном случае помните, что "301" означает "постоянный".

#makeseogreatagain 27/100
Ключи в URL

Ключевое слово в URL - сейчас слабый сигнал, как и ключевое слово в названии домена.

Однако, ключи в URL это по-прежнему хорошая стратегия. Почему? Потому как если кто-то сошлется на страницу без нужного анкора, а просто разместив ссылку как есть, поисковик воспримет URL как анкор. И лучше, чтобы в этом "анкоре" было ключевое слово.

<a>https://mysupersite.com/laundry/tumble-dryers</a>

Ссылка выглядит естественно, плюс содержит ключи.

#makeseogreatagain 28/100
Конкурентное преимущество

Хороший показатель Pagespeed это не ваше конкурентное преимущество! Отсутствие битых ссылок или ошибок валидации HTML это тоже далеко не конкурентное преимущество, если вы хотите потеснить сайты в ТОПе.

Конкурентное преимущество это хороший ассортимент и цены. Это оригинальный материал, который отвечает на вопрос пользователя. Это контент, который способен вовлечь, заинтересовать, побудить к действиям, решить вопрос...

Если у вас нет конкурентного преимущества, то нет смысла вообще смотреть на показатели Pagespeed или Core Web Vitals. Они будут являться тюнингом, когда вы уже закрыли основные вопросы, достойны быть в одном ряду со своими конкурентами, но хотите еще немного облегчить жизнь своих пользователей.

#makeseogreatagain 29/100
Дата в URL

Дата в адресе сайта используется только для архивов и единичных мероприятий/подборок, которые не будут повторяться, и где дата это значимая сущность. Во всех остальных случаях дата в URL будет вам только создавать дополнительные проблемы.

— Модные мужские стрижки 2020
Хорошо: https://star.su/muzhskie-strizhki
Плохо: https://voguemoda.ru/modnyie-muzhskie-strizhki-2018

— Что модно осенью 2020
Хорошо: https://lifestylewomens.ru/modnye-trendy-osen/
Плохо: https://modabook.net/chto-modno-osenyu-2015/

— Лучшие планшеты 2020 года
Хорошо: https://f.ua/best/planshety/
Плохо: https://www.howtablet.ru/luchshij-planshet-2015-goda-top-10/

Оптимизаторы боятся трогать старые URL, так как там накоплены какие-то положительные сигналы. При создании страниц не подумали о будущем, как будто проект создавался всего на год.

— Черная пятница 2020
— [название конференции]
— Тренды [тематика]
Здесь оптимально исключать дату из адреса, чтобы использовать потенциал страницы в следующий раз, не ограничивая потенциал вечнозеленого контента.

Наличие, но несоответствие дат в URL и TITLE сбивает с толку пользователей, снижает доверие к материалу и его актуальность. Также же проблемы могут быть с поисковыми классификаторами.

— Лучшие сериалы 2019
— Где отдохнуть в ноябре
— 27 октября 2020 лунный день
А здесь уже дата необходима, так как сразу подразумевается набор страниц под существующую семантику, а не единичный вариант.

При создании страницы необходимо задать себе вопрос: является ли дата главной/неотъемлемой сущностью страницы или же вспомогательной/временной? От этого будет зависеть, добавлять дату в URL или нет.

#makeseogreatagain 30/100
Уровень вложенности

Часто наблюдаю, что новички путают понятия уровня вложенности страницы. Считают, что он считается по количеству слешей в урле (по длине урла).

Но при этом, на такой урл может стоять ссылка с главной.

Уровень вложенности страницы считается по удаленности её от главной страницы сайта. Грубо говоря, сколько минимум кликов нужно сделать, чтобы перейти на анализируемую страницу с главной. И чем дальше эта страница, тем ниже у неё приоритет (медленней сканируется, имеет меньший вес). Далее 2го уровня вложенности (считая от нуля), можно располагать лишь неприоритетные в плане seo страницы. А ближние страницы имеют больший потенциал, независимо от количества слешей в их адресе.

#makeseogreatagain 31/100
Ошибки в HTML-коде и SEO

Влияет ли наличие ошибок валидации HTML-кода на SEO?
Короткий ответ: it depends.

Поисковики не используют валидность кода каким либо образом у себя в алгоритмах.

Об этом говорил Мэтт Катс в 2013
https://youtu.be/j3KgrbiB1pc

Джон Мюллер в 2016
https://youtu.be/7Lku7mckTIg?t=3608

Джон Мюллер в 2020
https://youtu.be/0APf_IwEmZY?t=2522

Однако! Некоторые ошибки в коде могут создать сложности сканеру ПС корректно распознать ваш контент, технические теги или микроразметку. Либо иметь проблемы с рендерингом. Чаще всего это незакрытые атрибуты/теги или случайные теги, реже неверный синтаксис.

Если W3C валидатор показывает для ваших страниц много ошибок, то можно:
— Проверить корректность разметки данных с помощью инструмента Google
https://search.google.com/test/rich-results
— Проверить страницу через Search Console, что она доступна и удобна для мобильных.
— Проверить текстовую версию кеша. Все ли в него попадает и нет ли лишнего.
— Исправить ошибки. Это не так сложно, как кажется. Несмотря на то, что на SEO это может не повлиять, сайт станет более доступным для различных устройств.

#makeseogreatagain 32/100
Рейтинг популярных сайтов

Анализировать самые популярные сайты можно с помощью Cisco Umbrella Popularity List. Это список 1млн. сайтов, который обновляется ежедневно и предоставляется бесплатно.
https://s3-us-west-1.amazonaws.com/umbrella-static/index.html

— Формируется на основе 100 млрд. ежедневных запросов от 65 млн. пользователей из 165+ стран.
— Более точный, чем рейтинг Alexa и основан на DNS-запросах
— Рейтинг считается по уникальным IP, посетившим домен, по отношению к сумме всех запросов ко всем доменам
— Также содержится список популярных TLD
— Списки можно скачивать за предыдущие дни, рейтинг существует с 2016 года
— Все бесплатно

#makeseogreatagain 33/100
Грань между дублированным и малополезным контентом

1. Google говорит, что duplicate content не проблема и за него не наказывают.

Проблема будет лишь в выборе релевантной страницы и иногда, мнение гугла о важной для пользователя странице может не совпадать с вашим мнением. Плюс, может происходить мигание страниц на выдаче по одному и тому же запросу, и соответственно, мигание позиций. Об этом гугл не упоминает, но сеошники знают. Но в целом да, дублированный контент не проблема для гугла.

2. А вот thin content это проблема и за него могут наложить санкции.

К малополезному контенту относится: сгенерированный (кроме ai, где определить генерацию сложно), без добавочной ценности, скопированный с других источников.

А где же грань, между дублированным и малополезным? Ведь дублированный это и есть скопированный контент без добавочной ценности.

Разница в интенте сеошника. Дублированный контент создается неосознанно, часто по причине ограничений работы CMS. За это наказывать глупо. А малополезный создается специально для манипуляции поисковыми алгоритмами, а это уже "статья"!

Но не надейтесь, что Google всегда сможет достоверно определить сеошный интент. Так как грань очень тонкая. Которая позволяет сеошникам манипулировать, а поисковикам ошибаться и наказывать не те сайты.

С дублями важно и нужно работать, как и с малополезными страницами!

P.S. Этому вопросу у меня посвящен целый урок на Hard SEO.

#makeseogreatagain 34/100
Самая простая защита текста от копирования

Один из способов закрыть контент от копирования — использовать запрет на выделение текста в CSS.

div.content {
-webkit-user-select: none;
-moz-user-select: none;
-ms-user-select: none;
user-select: none;
}

Минусы:
— Ухудшается пользовательский опыт (иногда нужно скопировать цитату или весь текст для благих целей).
— Технически подкованные контент-менеджеры обойдут защиту.

Плюсы:
— Этот способ легко внедрить.
— Кол-во копирований текста значительно сократится.

#makeseogreatagain 35/100