Forwarded from ✨SEO Журнал PR-CY ️
Важное дело на январь 2021
Сеошникам поставить напоминалку ⏰
Начиная с января 2021 один из ведущих мировых центров сертификации Let’s Encrypt переходит на собственные корневые сертификаты. ❌ Это значит, что все смартфоны с версией Android 7.1.1 и ниже перестанут поддерживать сертификаты, выданные центром.
То есть устройства признают недействительными все серверные сертификаты Let's Encrypt, и браузер будет постоянно сообщать о недоверенном сайте.
Людей с такими версиями Android в Google Play около 33,8% — довольно много. А сайтов с бесплатными сертификатами от Let's Encrypt в зоне .RU — 78%.
👉 Что делать веб-мастерам:
1. Оценить по данным аналитики, какое количество аудитории сайта пользуется старыми версиями Android.
2. Определить, стоит ли из-за этой доли пользователей переходить на другой платный сертификат.
3. Если стоит, то запланировать покупку на январь 2021.
Что думаете делать?
Сеошникам поставить напоминалку ⏰
Начиная с января 2021 один из ведущих мировых центров сертификации Let’s Encrypt переходит на собственные корневые сертификаты. ❌ Это значит, что все смартфоны с версией Android 7.1.1 и ниже перестанут поддерживать сертификаты, выданные центром.
То есть устройства признают недействительными все серверные сертификаты Let's Encrypt, и браузер будет постоянно сообщать о недоверенном сайте.
Людей с такими версиями Android в Google Play около 33,8% — довольно много. А сайтов с бесплатными сертификатами от Let's Encrypt в зоне .RU — 78%.
👉 Что делать веб-мастерам:
1. Оценить по данным аналитики, какое количество аудитории сайта пользуется старыми версиями Android.
2. Определить, стоит ли из-за этой доли пользователей переходить на другой платный сертификат.
3. Если стоит, то запланировать покупку на январь 2021.
Что думаете делать?
Лучше 100 ссылок с так себе сайтов или 1 жирная ссылка, с трастового и тематического ресурса?
Сложный вопрос, так как иногда 100 сработают лучше, чем 1, а иногда одна лучше, чем 100. Полагаться на 1 ссылку, даже если она кажется жирной, не стоит. Лучше бюджет разделить так, чтобы получить несколько ссылок с нормальных сайтов, которые будут уместны для аудитории площадки, и которые помимо ссылочного веса дадут целевую аудиторию и, возможно, конверсии.
Вбухать весь бюджет на одну ссылку это очень рисковано.
Закупиться на все деньги шлаком - это другая рискованная крайность.
SEO это поиск оптимального решения.
Согласны?
Сложный вопрос, так как иногда 100 сработают лучше, чем 1, а иногда одна лучше, чем 100. Полагаться на 1 ссылку, даже если она кажется жирной, не стоит. Лучше бюджет разделить так, чтобы получить несколько ссылок с нормальных сайтов, которые будут уместны для аудитории площадки, и которые помимо ссылочного веса дадут целевую аудиторию и, возможно, конверсии.
Вбухать весь бюджет на одну ссылку это очень рисковано.
Закупиться на все деньги шлаком - это другая рискованная крайность.
SEO это поиск оптимального решения.
Согласны?
Forwarded from SEO.Tech (Seo.tech)
🐸 Обновление Screaming Frog SEO Spider - версия 14.0
Команда Screaming Frog сообщила об обновлении SEO Spider до версии 14.0.
Основные изменения:
📊 Экспорт данных в Google Таблицы.
Появилась возможность добавить несколько аккаунтов Google и быстро экспортировать данные о сканированиях в любой из них. Полученные результаты появятся в папке "Screaming Frog SEO Spider" на Google Диске и будут доступны через Таблицы.
🌚 Темный режим.
Путь: Config > User Interface > Theme > Dark
🗄 Извлечение и хранение HTTP-заголовков.
Это может быть полезно при анализе различных сценариев, которые не охватываются извлечением заголовков по умолчанию, таких как сведения о состоянии кеширования, set-cookie, content-language и др. Путь: Config > Spider > Extraction и выбрать «HTTP Headers»
🍪 Извлечение и хранение файлов cookie.
Для их извлечения нужно пройти через путь: Config > Spider > Extraction, а затем выбрать «Cookies». Файлы будут показаны на вкладке «Cookies».
🌳 Агрегированная структура сайта.
SEO Spider теперь отображает количество URL-адресов, обнаруженных в каждом каталоге, в дереве каталогов (к которому можно получить доступ через значок дерева рядом с кнопкой «Export» на верхних вкладках).
Это помогает лучше понимать размер и архитектуру сайта.
⚙️ Новые параметры конфигурации.
«Ignore Non-Indexable URLs for On-Page Filters» (игнорировать неиндексируемые URL-адреса для фильтров на странице) и «Ignore Paginated URLs for Duplicate Filters» (игнорировать URL-адреса с разбивкой на страницы для повторяющихся фильтров).
Основная информация 👉 https://goo-gl.su/fm5FQZn
Полная информация в блоге Screaming Frog [ENG] 👉 https://goo-gl.su/gBPo
Команда Screaming Frog сообщила об обновлении SEO Spider до версии 14.0.
Основные изменения:
📊 Экспорт данных в Google Таблицы.
Появилась возможность добавить несколько аккаунтов Google и быстро экспортировать данные о сканированиях в любой из них. Полученные результаты появятся в папке "Screaming Frog SEO Spider" на Google Диске и будут доступны через Таблицы.
🌚 Темный режим.
Путь: Config > User Interface > Theme > Dark
🗄 Извлечение и хранение HTTP-заголовков.
Это может быть полезно при анализе различных сценариев, которые не охватываются извлечением заголовков по умолчанию, таких как сведения о состоянии кеширования, set-cookie, content-language и др. Путь: Config > Spider > Extraction и выбрать «HTTP Headers»
🍪 Извлечение и хранение файлов cookie.
Для их извлечения нужно пройти через путь: Config > Spider > Extraction, а затем выбрать «Cookies». Файлы будут показаны на вкладке «Cookies».
🌳 Агрегированная структура сайта.
SEO Spider теперь отображает количество URL-адресов, обнаруженных в каждом каталоге, в дереве каталогов (к которому можно получить доступ через значок дерева рядом с кнопкой «Export» на верхних вкладках).
Это помогает лучше понимать размер и архитектуру сайта.
⚙️ Новые параметры конфигурации.
«Ignore Non-Indexable URLs for On-Page Filters» (игнорировать неиндексируемые URL-адреса для фильтров на странице) и «Ignore Paginated URLs for Duplicate Filters» (игнорировать URL-адреса с разбивкой на страницы для повторяющихся фильтров).
Основная информация 👉 https://goo-gl.su/fm5FQZn
Полная информация в блоге Screaming Frog [ENG] 👉 https://goo-gl.su/gBPo
Как узнать дату, с которой гугл ассоциирует страницу (может брать ее из разных источников).
1. Берем страницу. Например, вот эта полезная, но неясно, насколько актуальная статья, т.к. авторы не пишут дату
https://pixelplus.ru/samostoyatelno/stati/prodvizhenie-saytov/cheklist-seo-smi.html
2. Используем оператор before: в сочетании с оператором site:
Подбираем сначала нужный год, потом детализируем по месяцам и, если нужно, по дням.
site:страница before:2020 — страница в индексе
site:страница before:2019 — страница не в индексе
3. Находим, при какой дате нет результатов в выдаче
Простым способом находим, что дата статьи — 2 июля 2019
4. Профит!
UPD. В комментах более универсальный способ от подписчика.
1. Берем страницу. Например, вот эта полезная, но неясно, насколько актуальная статья, т.к. авторы не пишут дату
https://pixelplus.ru/samostoyatelno/stati/prodvizhenie-saytov/cheklist-seo-smi.html
2. Используем оператор before: в сочетании с оператором site:
Подбираем сначала нужный год, потом детализируем по месяцам и, если нужно, по дням.
site:страница before:2020 — страница в индексе
site:страница before:2019 — страница не в индексе
3. Находим, при какой дате нет результатов в выдаче
Простым способом находим, что дата статьи — 2 июля 2019
4. Профит!
UPD. В комментах более универсальный способ от подписчика.
Devaka Digest #19 — свежая подборка полезных ссылок. Все, что накопилось полезного за карантин.
📊 Google Data Studio в SEO для новичков (Иван Палий)
https://bit.ly/3o7JdL5
🛠 Использование Chrome DevTools в SEO (Деми Мурыч)
https://bit.ly/3l3qOwM
📇 Schema.org своими руками: настраиваем микроразметку без программиста
https://bit.ly/2JaVWgV
🐍 Python-скрипты для автоматизации рутинных задач SEO-специалиста
https://bit.ly/362jOff
См. полный дайджест: https://devaka.ru/articles/digest-19
via @devakatalk #digest #дайджест
📊 Google Data Studio в SEO для новичков (Иван Палий)
https://bit.ly/3o7JdL5
🛠 Использование Chrome DevTools в SEO (Деми Мурыч)
https://bit.ly/3l3qOwM
📇 Schema.org своими руками: настраиваем микроразметку без программиста
https://bit.ly/2JaVWgV
🐍 Python-скрипты для автоматизации рутинных задач SEO-специалиста
https://bit.ly/362jOff
См. полный дайджест: https://devaka.ru/articles/digest-19
via @devakatalk #digest #дайджест
Ссылка стоимостью $100
В 2007 году я продвигал один из своих проектов в бурже. С SEO тогда только начинал знакомиться, и трафик на сайт пытался получать другими разными способами.
Один из эффективных способов был — попадание в топ новостных лент.
На тот момент очень популярными web2.0 новостниками были Digg и Propeller. Можно было запостить туда свою "новость", и если она кому-то нравилась, то люди голосовали (ставили лайки) и при определенном стечении обстоятельств новость попадала на главную страницу, откуда получала все сливки. В день можно было привлечь на сайт 10-20к и более трафика. Главное, чтобы выдержал хостинг, т.к. такой трафик не распределяется равномерно на весь день.
Другой хорошей особенностью попадания в топ было — естественный перепост топ-новостей в другие издания. Мало кто знал, что лайки накручивают, поэтому топ-новости быстро распространялись по другим площадкам. За день можно было получить сотни обратных ссылок.
Говно-контент в топ, конечно же, не пускали. Если у такого контента появлялись лайки, его быстро банили, и те аккаунты, которые вносят погрешность в работу системы.
Так вот, вывести новость на главную стоило $100. Для меня это были большие деньги, так как проект приносил на тот момент не более $300 в месяц. Но я все же решился, и не пожалел. Потом заказывал подобные услуги повторно, так как затраты быстро окупались.
Мне понравились сами накрутчики, как это не странно. Так как они не берут те сайты, которые нереально накрутить, или за которые их забанят. Они консультируют, как сделать оптимально посадочную страницу, заголовок, чтобы только чуть-чуть "подбросить" сайт, а дальше сработает эффект вирусности. В то время я получил большой опыт оформления контента, понимания аудитории, а также окончательно понял, что все, что попадает в топовые новости или рекомендации в мире это результат и цель маркетинга. Топ гугла — не исключение. С того момента я стал подробней изучать SEO :)
Сейчас, из того что я вижу, оптимизаторы тратят деньги не туда. Ставят ссылки просто ради SEO и совсем не думают о пользователях и вирусности, чтобы получать качественные tier2/3-ссылки автоматом. Но если это окупается, то в целом норм.
Поделитесь в комментариях, сколько вы платите за ссылки? Это ваши кровные деньги или клиентские? Окупаются ли затраты?
В 2007 году я продвигал один из своих проектов в бурже. С SEO тогда только начинал знакомиться, и трафик на сайт пытался получать другими разными способами.
Один из эффективных способов был — попадание в топ новостных лент.
На тот момент очень популярными web2.0 новостниками были Digg и Propeller. Можно было запостить туда свою "новость", и если она кому-то нравилась, то люди голосовали (ставили лайки) и при определенном стечении обстоятельств новость попадала на главную страницу, откуда получала все сливки. В день можно было привлечь на сайт 10-20к и более трафика. Главное, чтобы выдержал хостинг, т.к. такой трафик не распределяется равномерно на весь день.
Другой хорошей особенностью попадания в топ было — естественный перепост топ-новостей в другие издания. Мало кто знал, что лайки накручивают, поэтому топ-новости быстро распространялись по другим площадкам. За день можно было получить сотни обратных ссылок.
Говно-контент в топ, конечно же, не пускали. Если у такого контента появлялись лайки, его быстро банили, и те аккаунты, которые вносят погрешность в работу системы.
Так вот, вывести новость на главную стоило $100. Для меня это были большие деньги, так как проект приносил на тот момент не более $300 в месяц. Но я все же решился, и не пожалел. Потом заказывал подобные услуги повторно, так как затраты быстро окупались.
Мне понравились сами накрутчики, как это не странно. Так как они не берут те сайты, которые нереально накрутить, или за которые их забанят. Они консультируют, как сделать оптимально посадочную страницу, заголовок, чтобы только чуть-чуть "подбросить" сайт, а дальше сработает эффект вирусности. В то время я получил большой опыт оформления контента, понимания аудитории, а также окончательно понял, что все, что попадает в топовые новости или рекомендации в мире это результат и цель маркетинга. Топ гугла — не исключение. С того момента я стал подробней изучать SEO :)
Сейчас, из того что я вижу, оптимизаторы тратят деньги не туда. Ставят ссылки просто ради SEO и совсем не думают о пользователях и вирусности, чтобы получать качественные tier2/3-ссылки автоматом. Но если это окупается, то в целом норм.
Поделитесь в комментариях, сколько вы платите за ссылки? Это ваши кровные деньги или клиентские? Окупаются ли затраты?
Куда потратить деньги на #blackfriday, если вера в магазины техники пропала. Конечно же на SEO софт и обучение!
SE Ranking
-30% на любую оплату до 2 дек.
https://seranking.ru/black-friday.html
Netpeak Spider, Checker, Owlymate
-60% на все планы до 4 дек
Промокод "Devaka-BFriday20"
https://netpeaksoftware.com/ru/buy
PR-CY
-40% на все тарифы Анализа сайта на месяц
Промокод "BLACKFRIDAY40" до 30 нояб
https://a.pr-cy.ru/promo/apply/BLACKFRIDAY40/
Wizard.Sape
Получение бонусных денег на счет
Промокод "BlackFriday_Devaka" до 15 дек
https://www.seowizard.ru/promocodes/
WebPromoExperts
-50% на все записи онлайн-семинаров и конференций до 30 нояб.
https://webpromoexperts.net/
sitechecker pro
-50% по коду blackfriday2020
https://sitechecker.pro/
Биржа eTXT
300 промобаллов на текстовые услуги
Промокод "eSPUTNIK"
https://www.etxt.ru/promo/
Megaindex
-50% скидки на всё
https://ru.megaindex.com/tarifs?utm_campaign=blackfriday2020
Depositphotos
100 изображений за $80 вместо $299 до 30 нояб.
https://ru.depositphotos.com/
eSputnik
-50% на товарные рекомендации
Промокод "esputnik friday"
https://esputnik.com/
Multisearch
Бесплатный доп. функционал для внутреннего поиска (стоимость без скидок $4150) для всех клиентов Enterprise
https://multisearch.io/blog/akciya-vse-i-srazu
Еще много скидок
Большая подборка от Андрея Буйлова
https://t.me/bez_seo/214
Скидки на зарубежные сервисы
Большая подборка от Мэтью Вудварда
https://internetmarketing.blackfriday
💡 Чего-то не хватает? Добавьте инфу о своих (или тех, которые вы знаете) скидках в комментариях.
SE Ranking
-30% на любую оплату до 2 дек.
https://seranking.ru/black-friday.html
Netpeak Spider, Checker, Owlymate
-60% на все планы до 4 дек
Промокод "Devaka-BFriday20"
https://netpeaksoftware.com/ru/buy
PR-CY
-40% на все тарифы Анализа сайта на месяц
Промокод "BLACKFRIDAY40" до 30 нояб
https://a.pr-cy.ru/promo/apply/BLACKFRIDAY40/
Wizard.Sape
Получение бонусных денег на счет
Промокод "BlackFriday_Devaka" до 15 дек
https://www.seowizard.ru/promocodes/
WebPromoExperts
-50% на все записи онлайн-семинаров и конференций до 30 нояб.
https://webpromoexperts.net/
sitechecker pro
-50% по коду blackfriday2020
https://sitechecker.pro/
Биржа eTXT
300 промобаллов на текстовые услуги
Промокод "eSPUTNIK"
https://www.etxt.ru/promo/
Megaindex
-50% скидки на всё
https://ru.megaindex.com/tarifs?utm_campaign=blackfriday2020
Depositphotos
100 изображений за $80 вместо $299 до 30 нояб.
https://ru.depositphotos.com/
eSputnik
-50% на товарные рекомендации
Промокод "esputnik friday"
https://esputnik.com/
Multisearch
Бесплатный доп. функционал для внутреннего поиска (стоимость без скидок $4150) для всех клиентов Enterprise
https://multisearch.io/blog/akciya-vse-i-srazu
Еще много скидок
Большая подборка от Андрея Буйлова
https://t.me/bez_seo/214
Скидки на зарубежные сервисы
Большая подборка от Мэтью Вудварда
https://internetmarketing.blackfriday
💡 Чего-то не хватает? Добавьте инфу о своих (или тех, которые вы знаете) скидках в комментариях.
Forwarded from Вадим Курило
В начале нулевых в США из России переехал парень, которого звали Андрей Алиметов. Тогда он увлекался изучением JavaScript и для практики создал сайт, который выводил в режиме реального времени население планеты. Просто взял цифру роста за год, разделил на число секунд, и эта информация обновлялась на странице. Ничего сложного. Зато этот сайт через 16 лет станет одним из самых посещаемых ресурсов в мире (28 место в рейтинге Алексы на апрель 2020) - https://www.worldometers.info/
Но не спешите радоваться за парня, пока не прочитаете историю до конца
Вскоре после запуска (в 2004 году) сайт заметили на Digg, что привело к скачку посещаемости. Конечно, не такому, как за последний год, но достаточному, чтобы Андрею предложили купить ресурс за 2000 долларов... И тот согласился
Новым владельцем стал парень по имени Дарио. Как позже признавался, он купил сайт только из-за его траста в глазах Google, чтобы поставить обратные ссылки (PageRank тогда был 6). Со временем Дарио решил все же взяться за проект. Появился раздел со статистикой потерь США в иракской войне.
В 2007 году на сайте появляется информация, что он находится под управлением некого Сэра Томассона, в 2009 указано было, что это часть “Real Time Statistics Project”, теперь же все старые имена удалили и во владельцах стоит компания Dadax. Фирм с таким названием есть две - шанхайская Dadax и америкаская Dadax LLC, директором второй которой когда-то был Дарио Паскалино. Человек с таким же именем выкупал ресурс за 2000 долларов.
Никаких точных владельцев сейчас никто не знает, владельцы не дают интервью и нигде себя не афишируют. Тем временем, посещаемость worldometers сейчас хотя и упала с апрельских значений, но до сих пор превышает 200 млн человек за месяц.
Из монетазиции стоит Adsense, а также продажа статистических данных. При нынешних показателях на контексте сайт заработал $150-400К за октябрь. Весной же цифры могли доходить до $1 млн за месяц с AdSense
P.S. Что касается Андрея Алиметова, то он сейчас работает менеджером в журнальном издательстве
Но не спешите радоваться за парня, пока не прочитаете историю до конца
Вскоре после запуска (в 2004 году) сайт заметили на Digg, что привело к скачку посещаемости. Конечно, не такому, как за последний год, но достаточному, чтобы Андрею предложили купить ресурс за 2000 долларов... И тот согласился
Новым владельцем стал парень по имени Дарио. Как позже признавался, он купил сайт только из-за его траста в глазах Google, чтобы поставить обратные ссылки (PageRank тогда был 6). Со временем Дарио решил все же взяться за проект. Появился раздел со статистикой потерь США в иракской войне.
В 2007 году на сайте появляется информация, что он находится под управлением некого Сэра Томассона, в 2009 указано было, что это часть “Real Time Statistics Project”, теперь же все старые имена удалили и во владельцах стоит компания Dadax. Фирм с таким названием есть две - шанхайская Dadax и америкаская Dadax LLC, директором второй которой когда-то был Дарио Паскалино. Человек с таким же именем выкупал ресурс за 2000 долларов.
Никаких точных владельцев сейчас никто не знает, владельцы не дают интервью и нигде себя не афишируют. Тем временем, посещаемость worldometers сейчас хотя и упала с апрельских значений, но до сих пор превышает 200 млн человек за месяц.
Из монетазиции стоит Adsense, а также продажа статистических данных. При нынешних показателях на контексте сайт заработал $150-400К за октябрь. Весной же цифры могли доходить до $1 млн за месяц с AdSense
P.S. Что касается Андрея Алиметова, то он сейчас работает менеджером в журнальном издательстве
Классные каналы, которые я обнаружил недавно. Возможно, и вам кто-то понравится.
@productseo — продуктовое SEO от Владислава Моргуна.
@seokorobka — канал Олеси Коробки
@gelo_seo — канал Олега Саламахи, создателя Serpstat
@shkolaseo — Школа SEO от Артема Пилипца, лучшего SEO-ютубера для новичков
@pavlutskiy — канал Александра Павлцкого
В ближайшее время всех добавлю в общий список
https://devaka.ru/articles/telegram-seo
Если будут предложения по другим каналам - пишите в комментариях.
@productseo — продуктовое SEO от Владислава Моргуна.
@seokorobka — канал Олеси Коробки
@gelo_seo — канал Олега Саламахи, создателя Serpstat
@shkolaseo — Школа SEO от Артема Пилипца, лучшего SEO-ютубера для новичков
@pavlutskiy — канал Александра Павлцкого
В ближайшее время всех добавлю в общий список
https://devaka.ru/articles/telegram-seo
Если будут предложения по другим каналам - пишите в комментариях.
Forwarded from АлаичЪ про SEO, бизнес и …
Коллеги нашли новинку от Яндекса – Объявления!
Готовят убийцу Авито?
Хотя вот есть Яндекс.Недвижимость, но это какая-то немодерируемая свалка с кучей неактуальных и ненастоящих объявлений. Авито, Циан, Домофонд тоже не идеальный и имеют достаточно проблем, но все же это намного лучше сервиса от Яндекса.
Не думаю, что им удастся подвинуть Авито, ведь тут будет недостаточно даже всего того трафика, которые можно отжимать из выдачи и перенаправлять к себе.
В любом случае посмотрим, а пока что это действительно новинка, сайт почти пустой:
https://o.yandex.ru/moskva/ - 4 страницы объявлений.
https://o.yandex.ru/krasnodar/ - вообще всего 2 товара.
Что думаете?
Готовят убийцу Авито?
Хотя вот есть Яндекс.Недвижимость, но это какая-то немодерируемая свалка с кучей неактуальных и ненастоящих объявлений. Авито, Циан, Домофонд тоже не идеальный и имеют достаточно проблем, но все же это намного лучше сервиса от Яндекса.
Не думаю, что им удастся подвинуть Авито, ведь тут будет недостаточно даже всего того трафика, которые можно отжимать из выдачи и перенаправлять к себе.
В любом случае посмотрим, а пока что это действительно новинка, сайт почти пустой:
https://o.yandex.ru/moskva/ - 4 страницы объявлений.
https://o.yandex.ru/krasnodar/ - вообще всего 2 товара.
Что думаете?
Google опубликовал в справке руководство по управлению краулинговым бюджетом
https://support.google.com/webmasters/answer/9689511?hl=ru
Краулинговый бюджет актуален для очень больших и часто обновляемых сайтов. Скажем, более 10к уникальных страниц и ежедневно меняющийся контент.
— Googlebot сканирует сайты так, чтобы не перегружать серверы. На скорость влияет в основном время ответа сервера.
— На время сканирования влияет размер сайта, его популярность, периодичность обновления контента и качество (уникальность) страниц.
— Если на сайте есть дублирующиеся урлы, то лучше закрывать их от сканирования, чтобы робот это время потратил на обнаружение более ценных страниц.
— Более посещаемые страницы сканируются чаще.
Чеклист от гугла:
• Управляйте страницами на сайте. Удаляйте ненужное, отдавайте 404 код ответа.
• Закрывайте неважное, избавьтесь от дублей и цепочек редиректов.
• Вовремя обновляйте сайтмап.
• Оптимизируйте страницы, чтобы они загружались быстрее.
• Проверяйте, как сканируется ваш сайт и думайте, что еще можно сделать.
Плюс еще много полезной информации на русском.
https://support.google.com/webmasters/answer/9689511?hl=ru
Краулинговый бюджет актуален для очень больших и часто обновляемых сайтов. Скажем, более 10к уникальных страниц и ежедневно меняющийся контент.
— Googlebot сканирует сайты так, чтобы не перегружать серверы. На скорость влияет в основном время ответа сервера.
— На время сканирования влияет размер сайта, его популярность, периодичность обновления контента и качество (уникальность) страниц.
— Если на сайте есть дублирующиеся урлы, то лучше закрывать их от сканирования, чтобы робот это время потратил на обнаружение более ценных страниц.
— Более посещаемые страницы сканируются чаще.
Чеклист от гугла:
• Управляйте страницами на сайте. Удаляйте ненужное, отдавайте 404 код ответа.
• Закрывайте неважное, избавьтесь от дублей и цепочек редиректов.
• Вовремя обновляйте сайтмап.
• Оптимизируйте страницы, чтобы они загружались быстрее.
• Проверяйте, как сканируется ваш сайт и думайте, что еще можно сделать.
Плюс еще много полезной информации на русском.
Google for Developers
Как управлять лимитом на сканирование на крупных сайтах | Центр Google Поиска | Документация | Google for Developers
Узнайте, что такое лимит на сканирование и как он помогает оптимизировать сканирование очень больших сайтов, контент на которых часто меняется.
Google опубликовал ответы на часто задаваемые вопросы по Core Web Vitals. Пока что на английском.
https://support.google.com/webmasters/thread/86521401?hl=en
— Что за метрики и почему гугл рекомендует их оптимизировать?
— Что на счет AMP страниц? Можно ли обойтись без AMP?
— Что если я использую PWA и SPA?
— Как так получается, что сайт мобилопригоден, но показатели Core Web Vitals плохие?
— Почему такая разница между показателями для мобайла и десктопа?
— Влияет ли это на ранжирование?
и др.
UPD. Уже есть перевод на сёрче:
https://searchengines.guru/ru/articles/2049630
https://support.google.com/webmasters/thread/86521401?hl=en
— Что за метрики и почему гугл рекомендует их оптимизировать?
— Что на счет AMP страниц? Можно ли обойтись без AMP?
— Что если я использую PWA и SPA?
— Как так получается, что сайт мобилопригоден, но показатели Core Web Vitals плохие?
— Почему такая разница между показателями для мобайла и десктопа?
— Влияет ли это на ранжирование?
и др.
UPD. Уже есть перевод на сёрче:
https://searchengines.guru/ru/articles/2049630
Как подготовить сайт к Yati, инструкция от Мегаиндекс
https://ru.megaindex.com/blog/yandex-yati-seo
Недавно Яндекс заявил о внедрении нейросетевой архитектуры Yet Another Transformer with Improvements для ранжирования результатов поисковой выдачи. Благодаря технологии поиск Яндекса научился лучше оценивать смысловую связь между запросами пользователей и содержанием документов. Система анализирует разные блоки текста на странице сайта. Задача заключается в анализе соответствия смысла запроса и смысла текста на странице.
Алгоритм способен:
— Анализировать как короткое содержание, так очень длинные тексты;
— Определять самые значимые фрагменты текста на странице сайта;
— Учитывать порядок слов, и учитывать контекст. Важно, например, при поиске билетов.
Что рекомендуется делать оптимизаторам?
— Заняться повышением качества текстов. Учитывать похожие поисковые запросы и стримы;
— Поделить страницу на секции, так чтобы у модели или у сегментатора было больше очевидных структурных признаков, которые можно использовать при анализе.
Технология похожа на гугловский BERT. Как и "Палех" с "Королевым", но те повлияли на поиск меньше, чем YATI.
Если выключить все тысячи факторов ранжирования, но оставить новую модель YATI, то качество ранжирования по основной офлайн-метрике упадёт лишь на 4-5%. По заявлению Яндекса.
https://ru.megaindex.com/blog/yandex-yati-seo
Недавно Яндекс заявил о внедрении нейросетевой архитектуры Yet Another Transformer with Improvements для ранжирования результатов поисковой выдачи. Благодаря технологии поиск Яндекса научился лучше оценивать смысловую связь между запросами пользователей и содержанием документов. Система анализирует разные блоки текста на странице сайта. Задача заключается в анализе соответствия смысла запроса и смысла текста на странице.
Алгоритм способен:
— Анализировать как короткое содержание, так очень длинные тексты;
— Определять самые значимые фрагменты текста на странице сайта;
— Учитывать порядок слов, и учитывать контекст. Важно, например, при поиске билетов.
Что рекомендуется делать оптимизаторам?
— Заняться повышением качества текстов. Учитывать похожие поисковые запросы и стримы;
— Поделить страницу на секции, так чтобы у модели или у сегментатора было больше очевидных структурных признаков, которые можно использовать при анализе.
Технология похожа на гугловский BERT. Как и "Палех" с "Королевым", но те повлияли на поиск меньше, чем YATI.
Если выключить все тысячи факторов ранжирования, но оставить новую модель YATI, то качество ранжирования по основной офлайн-метрике упадёт лишь на 4-5%. По заявлению Яндекса.
Megaindex
Яндекс YATI: Yandex существенно изменяет систему ранжирования. Как подготовить сайт к SEO?
Яндекс заявил о внедрении нейросетевой архитектуры для ранжирования страниц. В компании называют изменение наиболее значимым событием в поиске за последние 10 лет. Что меняется? Как работает алгоритм? Как подготовить сайт к изменениям?
История бывшего сеошника, Джахангира Латыпова
https://fb.com/jonick9414/posts/4125981287487882
"Как я продал сайт за $4200 почти 7 лет назад
Тогда я занимался SEO — продвижением в поисковых системах Google & Yandex
В те времена социальные сети не имели такого веса и трафика, как сейчас. Чтобы вы понимали — тогда люди не хотели выставлять свои фото в интернете. Это казалось чем-то диким, но а сейчас это уже норма и скорее странно — если у тебя в профиле нет живых фото.
Так вот, тогда интернет возглавляли поисковые системы. Потому что весь трафик шёл на сайты только через них. Хочешь, чтобы твой сайт посещали люди? Будь добр, угоди поисковым системам и изучи их алгоритмы, дабы пробиться в топы по трафик-запросам.
В те времена я продвинул свой первый трафиковый проект под Россию, живя в Узбекистане. Назывался он allmakiyazh.ru - Сайт о макияже.
Думаете, я разбирался в макияже? Нифига 😂 Я просто понимал алгоритмы поисковых систем и делал так, чтобы они мой сайт любили. А люди, которые туда заходят, получали полезную информацию. Спустя полгода я продал этот проект, который не имел ещё дохода, за 163.000 рублей. Напомню, что 1$ был равен 28 рублям. Это примерно $4200 на то время.
Я бы не продал, просто деньги были нужны.
Сейчас этот сайт не работает, единственное доказательство — это сделка на бирже, которая выступала гарантом при продаже.
К чему это я?
На смену поисковым системам пришли социальные сети. Основной трафик людей сейчас в них, и для того, чтобы с ним работать - так же нужно уметь работать с искусственным интеллектом, а искусственный интеллект строится на алгоритмах. А алгоритмы социальных сетей взяты из поисковых систем. Они почти похожие. Вы думаете, такой алгоритм как «Средняя длительность просмотра зрителя» изобрёл YOUTUBE? Не-а, он уже работал в поисковых алгоритмах Google 7 лет назад.
Все меняется в этой жизни. Вчера владельцем основного трафика были поисковые агрегаторы, а сегодня — социальные сети. В любой момент может произойти тектонический сдвиг и все может поменяться.
Я переехал в Москву
Ну и рубль в три раза подешевел 😂"
https://fb.com/jonick9414/posts/4125981287487882
"Как я продал сайт за $4200 почти 7 лет назад
Тогда я занимался SEO — продвижением в поисковых системах Google & Yandex
В те времена социальные сети не имели такого веса и трафика, как сейчас. Чтобы вы понимали — тогда люди не хотели выставлять свои фото в интернете. Это казалось чем-то диким, но а сейчас это уже норма и скорее странно — если у тебя в профиле нет живых фото.
Так вот, тогда интернет возглавляли поисковые системы. Потому что весь трафик шёл на сайты только через них. Хочешь, чтобы твой сайт посещали люди? Будь добр, угоди поисковым системам и изучи их алгоритмы, дабы пробиться в топы по трафик-запросам.
В те времена я продвинул свой первый трафиковый проект под Россию, живя в Узбекистане. Назывался он allmakiyazh.ru - Сайт о макияже.
Думаете, я разбирался в макияже? Нифига 😂 Я просто понимал алгоритмы поисковых систем и делал так, чтобы они мой сайт любили. А люди, которые туда заходят, получали полезную информацию. Спустя полгода я продал этот проект, который не имел ещё дохода, за 163.000 рублей. Напомню, что 1$ был равен 28 рублям. Это примерно $4200 на то время.
Я бы не продал, просто деньги были нужны.
Сейчас этот сайт не работает, единственное доказательство — это сделка на бирже, которая выступала гарантом при продаже.
К чему это я?
На смену поисковым системам пришли социальные сети. Основной трафик людей сейчас в них, и для того, чтобы с ним работать - так же нужно уметь работать с искусственным интеллектом, а искусственный интеллект строится на алгоритмах. А алгоритмы социальных сетей взяты из поисковых систем. Они почти похожие. Вы думаете, такой алгоритм как «Средняя длительность просмотра зрителя» изобрёл YOUTUBE? Не-а, он уже работал в поисковых алгоритмах Google 7 лет назад.
Все меняется в этой жизни. Вчера владельцем основного трафика были поисковые агрегаторы, а сегодня — социальные сети. В любой момент может произойти тектонический сдвиг и все может поменяться.
Я переехал в Москву
Ну и рубль в три раза подешевел 😂"
С момента внедрения закона DMCA прошло больше 20 лет и с того времени многое изменилось. Сенат США обсуждает возможные обновления. Не расслабляйтесь!
https://searchengines.guru/ru/news/2049658
https://searchengines.guru/ru/news/2049658
searchengines.guru
В Сенате США обсуждают внесение изменений в DMCA - Новости
Internet Archive выступил против обновления
Forwarded from Заметки Ленара
В последние недели в вебмастерких чатах активно обсуждается тема нагона ботов на сайты.
Новость на Серче: https://searchengines.guru/ru/articles/2049534
Проблема была поднята мной еще весной (https://www.facebook.com/amirhanov/posts/10223270839186378), но только в октябре-ноябре она стала действительно массовой, затронув почти всех.
Если вы давно не заглядывали в Метрику своего сайта, то сейчас самое время. Скорее всего, этой осенью у вас тоже произошел резкий всплеск якобы переходов из социальных сетей и прямых переходов. Лично у наших проектов проблема наблюдается везде, где была более-менее нормальная посещаемость.
Яндекс.Метрика с трудом распознает ботов, если судить по отчету "Роботы" (https://yandex.ru/support/metrica/reports/robots.html).
Есть сообщения от вебмастеров о снижении посещаемости. Но лично я пока к таким новостям отношусь скептически, т.к. те источники, что мне встречались, вызывали вопросы. Явных примеров я пока не видел. А снижение сейчас происходит у большинства вебмастерских сайтов и проблема вовсе не в ботах, а, например, в агрессивном продвижении Яндексом собственных продуктов (Дзен, Кью и т.д.).
Но в то же время есть вполне подтвержденные данные о бане сайтов вебмастеров за некачественный трафик на РСЯ (https://vc.ru/claim/183117-yandeks-zablokiroval-akkaunt-rsya-i-prisvoil-sebe-dengi-za-11-2020-951tys-rubley). Проблема в том, что эмулируя поведение обычных пользователей, боты периодически кликают на рекламу, не совершая на сайте-рекламодателе конверсий. И судя по всему, пока Яндекс в данной ситуации принимает позицию "я ничего не хочу знать", утверждая, что решение по бану аккаунтов вебмастеров в РСЯ пересмотру не подлежит.
Фактически это означает следующее: если вы зарабатываете в РСЯ, то присутствует повышенная вероятность бана аккаунта в ближайшие недели/месяцы. Судя по первым сообщениям от коллег: чем больше показов привлекаете в РСЯ - тем выше вероятность бана.
Что делать с рекламой из РСЯ?
Пока самое эффективное решение - отображать рекламные блоки только пользователям из поисковых систем. Некоторые известные плагины для вывода рекламы на сайтах имеют соответствующие настройки.
А что с рекламой Adsense?
Пока все спокойно. Кажется, Google эффективнее фильтрует ботовый трафик в Адсенсе. Доход за недействительные клики просто списывает с баланса. Но подозреваю, что все равно изрядная доля ботовых кликов засчитывается.
Что это за боты такие?
Сейчас почти все, кто мониторит ситуацию, уверены, что речь идет о так называемом "нагуле профилей". Боты создают себе легенду настоящего пользователя, периодически эмулируя, что посещают различные сайты, кликают по внутренним ссылкам, вводят случайные поисковые запросы. Таким образом идет "прогрев" ботовых аккаунтов с целью дальнейшего их использования для накрутки определенных сайтов через поведенческие факторы. И именно по причине такой маскировки (а также использованию мобильных прокси и, вероятно, других ухищрений) поисковые системы испытывают трудности в выявлении ботового трафика.
Новость на Серче: https://searchengines.guru/ru/articles/2049534
Проблема была поднята мной еще весной (https://www.facebook.com/amirhanov/posts/10223270839186378), но только в октябре-ноябре она стала действительно массовой, затронув почти всех.
Если вы давно не заглядывали в Метрику своего сайта, то сейчас самое время. Скорее всего, этой осенью у вас тоже произошел резкий всплеск якобы переходов из социальных сетей и прямых переходов. Лично у наших проектов проблема наблюдается везде, где была более-менее нормальная посещаемость.
Яндекс.Метрика с трудом распознает ботов, если судить по отчету "Роботы" (https://yandex.ru/support/metrica/reports/robots.html).
Есть сообщения от вебмастеров о снижении посещаемости. Но лично я пока к таким новостям отношусь скептически, т.к. те источники, что мне встречались, вызывали вопросы. Явных примеров я пока не видел. А снижение сейчас происходит у большинства вебмастерских сайтов и проблема вовсе не в ботах, а, например, в агрессивном продвижении Яндексом собственных продуктов (Дзен, Кью и т.д.).
Но в то же время есть вполне подтвержденные данные о бане сайтов вебмастеров за некачественный трафик на РСЯ (https://vc.ru/claim/183117-yandeks-zablokiroval-akkaunt-rsya-i-prisvoil-sebe-dengi-za-11-2020-951tys-rubley). Проблема в том, что эмулируя поведение обычных пользователей, боты периодически кликают на рекламу, не совершая на сайте-рекламодателе конверсий. И судя по всему, пока Яндекс в данной ситуации принимает позицию "я ничего не хочу знать", утверждая, что решение по бану аккаунтов вебмастеров в РСЯ пересмотру не подлежит.
Фактически это означает следующее: если вы зарабатываете в РСЯ, то присутствует повышенная вероятность бана аккаунта в ближайшие недели/месяцы. Судя по первым сообщениям от коллег: чем больше показов привлекаете в РСЯ - тем выше вероятность бана.
Что делать с рекламой из РСЯ?
Пока самое эффективное решение - отображать рекламные блоки только пользователям из поисковых систем. Некоторые известные плагины для вывода рекламы на сайтах имеют соответствующие настройки.
А что с рекламой Adsense?
Пока все спокойно. Кажется, Google эффективнее фильтрует ботовый трафик в Адсенсе. Доход за недействительные клики просто списывает с баланса. Но подозреваю, что все равно изрядная доля ботовых кликов засчитывается.
Что это за боты такие?
Сейчас почти все, кто мониторит ситуацию, уверены, что речь идет о так называемом "нагуле профилей". Боты создают себе легенду настоящего пользователя, периодически эмулируя, что посещают различные сайты, кликают по внутренним ссылкам, вводят случайные поисковые запросы. Таким образом идет "прогрев" ботовых аккаунтов с целью дальнейшего их использования для накрутки определенных сайтов через поведенческие факторы. И именно по причине такой маскировки (а также использованию мобильных прокси и, вероятно, других ухищрений) поисковые системы испытывают трудности в выявлении ботового трафика.
Необычно наблюдать, когда Google тестирует то, что давно использует Яндекс. Обычно наоборот. Но подождите делать выводы, пока не дочитаете до конца.
Пользователи заметили в мобильной выдаче у некоторых сайтов бейджи, похожие на значки AMP, но со звездой посредине.
https://www.seroundtable.com/google-page-experience-indicator-30546.html
Google прокомментировал, что это тест, но такие бейджи будут раздаваться всем быстрым сайтам после майского апдейта 2021, которые показывают хорошие Core Web Vitals.
https://twitter.com/friendsaround50/status/1335297186670780421
Напомню, что Яндекс тоже использует бейджи
https://yandex.ru/support/webmaster/search-results/tags.html
Правда бейдж "Популярный сайт" и "Выбор пользователей" вы уже не увидите на выдаче. Вместо них сейчас появился бейдж с рейтингом магазина из Яндекс.Маркета. На все иконки места не хватает, а цели меняются.
Внедрение бейджей это своего рода геймификация. Каждый хочет получить отметку "лучший + [направление измерения]". И меняя "направление измерения" поисковики влияют на вебмастеров, намекая, в каком направлении надо работать вместо покупки ссылок и накрутки других сигналов. Когда Яндекс заменил тИЦ на ИКС, то бейджи "выбор пользователей" намекали на "создавайте сайты для людей" (не скажем, как именно, но продолжайте развивать, думайте о пользователе). Сейчас Яндекс намекает, что магазинам обязательно нужно использовать Маркет. А Google говорит — займитесь оптимизацией производительности своего сайта.
И эти правила игры мы не можем не принять, так как выделиться в ТОПе все же хочется. Но чтобы попасть в ТОП, Core Web Vitals или наличие сайта в Маркете все же не помогут.
Вообще, весь поиск это своего рода игра, так как рейтинг является одним из элементов геймификации :) и тут каждый мухлюет как может.
https://4brain.ru/gamification/igrovye-jelementy.php
А что касается бейджей, они всегда будут меняться. Лучше зарабатывайте ссылки и упоминания.
Пользователи заметили в мобильной выдаче у некоторых сайтов бейджи, похожие на значки AMP, но со звездой посредине.
https://www.seroundtable.com/google-page-experience-indicator-30546.html
Google прокомментировал, что это тест, но такие бейджи будут раздаваться всем быстрым сайтам после майского апдейта 2021, которые показывают хорошие Core Web Vitals.
https://twitter.com/friendsaround50/status/1335297186670780421
Напомню, что Яндекс тоже использует бейджи
https://yandex.ru/support/webmaster/search-results/tags.html
Правда бейдж "Популярный сайт" и "Выбор пользователей" вы уже не увидите на выдаче. Вместо них сейчас появился бейдж с рейтингом магазина из Яндекс.Маркета. На все иконки места не хватает, а цели меняются.
Внедрение бейджей это своего рода геймификация. Каждый хочет получить отметку "лучший + [направление измерения]". И меняя "направление измерения" поисковики влияют на вебмастеров, намекая, в каком направлении надо работать вместо покупки ссылок и накрутки других сигналов. Когда Яндекс заменил тИЦ на ИКС, то бейджи "выбор пользователей" намекали на "создавайте сайты для людей" (не скажем, как именно, но продолжайте развивать, думайте о пользователе). Сейчас Яндекс намекает, что магазинам обязательно нужно использовать Маркет. А Google говорит — займитесь оптимизацией производительности своего сайта.
И эти правила игры мы не можем не принять, так как выделиться в ТОПе все же хочется. Но чтобы попасть в ТОП, Core Web Vitals или наличие сайта в Маркете все же не помогут.
Вообще, весь поиск это своего рода игра, так как рейтинг является одним из элементов геймификации :) и тут каждый мухлюет как может.
https://4brain.ru/gamification/igrovye-jelementy.php
А что касается бейджей, они всегда будут меняться. Лучше зарабатывайте ссылки и упоминания.
Search Engine Roundtable
Google Page Experience & Core Web Vitals Icon In Search Results
Remember Google said they would soon begin testing a visual indicator in the search results for the upcoming Google Page Experience Update? Well, we may be seeing Google testing this visual indicator