Якщо коротко, в гуглі багато багів. Це не тільки проблема в Gemini.
Пошук це велика система, яка програмувалась багатьма людьми, де купа строк коду.. І цим складно керувати. Хто має власний онлайн-сервіс, той розуміє. Завжди щось вспливає, або падає.
Штучний інтелект, хелпфул контент апдейт, адаптивний краулер, рендерінг javascript, це все красні слова, за якими купа багів. І якщо у вас великий сайт, складний код чи структура, двозначні сигнали, ще якісь багі на вашому боці, то ви частіше будете зустрічатись та боротись з багами гугла.
Пошук це велика система, яка програмувалась багатьма людьми, де купа строк коду.. І цим складно керувати. Хто має власний онлайн-сервіс, той розуміє. Завжди щось вспливає, або падає.
Штучний інтелект, хелпфул контент апдейт, адаптивний краулер, рендерінг javascript, це все красні слова, за якими купа багів. І якщо у вас великий сайт, складний код чи структура, двозначні сигнали, ще якісь багі на вашому боці, то ви частіше будете зустрічатись та боротись з багами гугла.
Розкажу вам про проблеми і цікаві кейси, з якими зіштовхнувся при аудиті сайтів клієнтів.
Один з сайтів був повністю на javascript. TITLE та текстовий опис сторінок віддавався одразу (начебто для SEO), але весь DOM документа формувався скриптами. Google щось рендерить, але все погано.
Такі сайти складно аналізувати:
— Кеш не дає інформації, бо показує (в текстової версії та вихідному коді) те ж саме, що ти можеш подивитись самостійно в браузері. Не те, що насправді у індексі гугла.
— Screaming Frog не сканує сайт навіть в режимі рендерингу. Аналізатори тут безкорисні.
Основне джерело інформації: search console та серверні логи.
Було знайдено багато технічних помилок, але в цих випадках потрібно спочатку виправляти рендеринг, а потім повторно аналізувати сайт. Основна проблема у js-сайтів по SEO в тому, що вони js.
Якщо такі історії цікаві, розкажу ще інші. Останнім часом зробив багато аудитів.
Один з сайтів був повністю на javascript. TITLE та текстовий опис сторінок віддавався одразу (начебто для SEO), але весь DOM документа формувався скриптами. Google щось рендерить, але все погано.
Такі сайти складно аналізувати:
— Кеш не дає інформації, бо показує (в текстової версії та вихідному коді) те ж саме, що ти можеш подивитись самостійно в браузері. Не те, що насправді у індексі гугла.
— Screaming Frog не сканує сайт навіть в режимі рендерингу. Аналізатори тут безкорисні.
Основне джерело інформації: search console та серверні логи.
Було знайдено багато технічних помилок, але в цих випадках потрібно спочатку виправляти рендеринг, а потім повторно аналізувати сайт. Основна проблема у js-сайтів по SEO в тому, що вони js.
Якщо такі історії цікаві, розкажу ще інші. Останнім часом зробив багато аудитів.
Вже через 15 хвилин зустрічаємось в ефірі разом з Максом Гапчуком. Поговоримо про те, що потрібно знати SEOвцю про GA4
Лайк, шер і вперед в ефір: webinars.collaborator.pro
Про що саме піде мова:
● де дивитись основні метрики, як налаштувати конверсії та будувати звіти
● як відстежувати джерела трафіку, переглядати сесії та унікальних юзерів
● які можливості Google Analytics для e-commerce
● що таке багатоканальні послідовності та як з ними працювати для оптимізації маркетингових кампаній
Після основної частини буде QA-сесія. Тож готуйте питання для спікера та беріть активну участь в обговоренні
До зустрічі у ефірі
Please open Telegram to view this post
VIEW IN TELEGRAM
SimilarWeb вирішив зробити конкурента Ahrefs з новим тулом "Backlinks Analytics"
https://www.similarweb.com/corp/marketing/features/backlinks-analysis/
База:
360 трлн. посилань (35 трлн. у Ahrefs)
260 млн. доменів (206 млн. у Ahrefs)
дані оновлюються кожен день
Тул безкоштовний для клієнтів Similarweb (account-managed customers).
Серед можливостей:
- Загальна інфа по доменам та посиланням
- Нові та зникнувши лінки
- Якість лінок (ще одна пузомірка - Domain Trust)
- Фільтри, декілька типів линок
Поки що виглядає не дуже круто, але заявочка норм! Що думаєте? Буде що сьогодні обговорити на стрімі.
https://www.similarweb.com/corp/marketing/features/backlinks-analysis/
База:
360 трлн. посилань (35 трлн. у Ahrefs)
260 млн. доменів (206 млн. у Ahrefs)
дані оновлюються кожен день
Тул безкоштовний для клієнтів Similarweb (account-managed customers).
Серед можливостей:
- Загальна інфа по доменам та посиланням
- Нові та зникнувши лінки
- Якість лінок (ще одна пузомірка - Domain Trust)
- Фільтри, декілька типів линок
Поки що виглядає не дуже круто, але заявочка норм! Що думаєте? Буде що сьогодні обговорити на стрімі.
О 17:00 стрім з новинами по SEO, приходьте до нас у гості:
https://www.youtube.com/watch?v=-QxhJ1MZCso
https://www.youtube.com/watch?v=-QxhJ1MZCso
YouTube
SEO Подкаст #86 | SEO новини 21-27 лютого 2024
Щовівторка о 17-00 обговорюємо ВСІ SEO новини за тиждень!
Робимо SEO для стартапів https://rankup.ua/
https://www.facebook.com/ihorshulezhko
Робимо SEO аудити сайтів http://devaka.info/
t.me/devaka
Підписуйтесь на наші ресурси:
Канал про просування…
Робимо SEO для стартапів https://rankup.ua/
https://www.facebook.com/ihorshulezhko
Робимо SEO аудити сайтів http://devaka.info/
t.me/devaka
Підписуйтесь на наші ресурси:
Канал про просування…
Продовжую історію з аудитами. Один з сайтів мав проблеми через те, що купляв трафік у іншого. Це було важко знайти, бо ти аналізуєш свій сайт і те що щось там з кимось в партнерських відносинах - здається не важливим при аудиті. Але ні.
Як знайшли? В консолі були знайдені дивні неіснуючі урли, які редиректили на існуючі. Ніде на сайті джерело некоректних урлів знайдено не було. Виявилось, що редиректить зовнішній сайт, і начебто юзер попадає на коректний урл, але через ланцюжок редиректів.
Проблема не в тому, що були редиректи, а в тому, що був html-редирект, який гугл вважає за 302, а на сторінці-донорі майже дубль контенту сайта, який індексувався та був вище джерела контента по заголовкам та шматкам тексту. По суті, сайт перекупляє свій же трафік у іншого. Та ще й має через це проблеми по SEO.
Буває і таке. Я в перше з подібним зіткнувся. При аудиті майте на увазі, що проблема може бути не обов'язково на вашому сайті.
Як знайшли? В консолі були знайдені дивні неіснуючі урли, які редиректили на існуючі. Ніде на сайті джерело некоректних урлів знайдено не було. Виявилось, що редиректить зовнішній сайт, і начебто юзер попадає на коректний урл, але через ланцюжок редиректів.
Проблема не в тому, що були редиректи, а в тому, що був html-редирект, який гугл вважає за 302, а на сторінці-донорі майже дубль контенту сайта, який індексувався та був вище джерела контента по заголовкам та шматкам тексту. По суті, сайт перекупляє свій же трафік у іншого. Та ще й має через це проблеми по SEO.
Буває і таке. Я в перше з подібним зіткнувся. При аудиті майте на увазі, що проблема може бути не обов'язково на вашому сайті.
Serpstat запрошує відсвяткувати свій День народження, де планує дарувати подарунки 🎁
Serpstat – платформа для досягнення цілей пошукового маркетингу – святкує 11 років🥳
Експерти Serpstat створили ексклюзивний тариф Birthday, який включає вдвічі більше лімітів за меншою ціною – $111 на місяць.
Всі користувачі Serpstat, можуть перейти на даний тариф. Ви маєте вдвічі більше можливостей покращити свою Digital маркетинг гру!
Встигніть на Serpstat Birthday party до 29 лютого, всі деталі на сайті.
#промо
Serpstat – платформа для досягнення цілей пошукового маркетингу – святкує 11 років🥳
Експерти Serpstat створили ексклюзивний тариф Birthday, який включає вдвічі більше лімітів за меншою ціною – $111 на місяць.
Всі користувачі Serpstat, можуть перейти на даний тариф. Ви маєте вдвічі більше можливостей покращити свою Digital маркетинг гру!
Встигніть на Serpstat Birthday party до 29 лютого, всі деталі на сайті.
#промо
View Rendered Source — крутий плагін для Chrome
https://chromewebstore.google.com/detail/view-rendered-source/ejgngohbdedoabanmclafpkoogegdpob
Простий та зручний. Дозволяє бачити для сторінок сирий HTML код та відрендерений, порівнювати та шукати в обох кодах потрібні речі. Можна залишати лише одну з версій, якщо інша не потрібна.
Нещодавно додав собі у тули для аналізу сайтів.
https://chromewebstore.google.com/detail/view-rendered-source/ejgngohbdedoabanmclafpkoogegdpob
Простий та зручний. Дозволяє бачити для сторінок сирий HTML код та відрендерений, порівнювати та шукати в обох кодах потрібні речі. Можна залишати лише одну з версій, якщо інша не потрібна.
Нещодавно додав собі у тули для аналізу сайтів.
Бачу, що ще багато хто використовує директиву Host: в robots.txt. Поясню на всяк випадок.
1. Host не на що не впливає
2. Цю директиву придумав і використовував лише Яндекс для керування дзеркалами
3. Потім вони від неї відмовились (ще 6 років тому), змінивши логіку роботи з дзеркалами
4. Host ніким не використовується з пошукових систем і сервисів
Можете сміливо видаляти!
А також корисно буде почитати специфікацію, як Google обробляє robots.txt:
https://developers.google.com/search/docs/crawling-indexing/robots/robots_txt
1. Host не на що не впливає
2. Цю директиву придумав і використовував лише Яндекс для керування дзеркалами
3. Потім вони від неї відмовились (ще 6 років тому), змінивши логіку роботи з дзеркалами
4. Host ніким не використовується з пошукових систем і сервисів
Можете сміливо видаляти!
А також корисно буде почитати специфікацію, як Google обробляє robots.txt:
https://developers.google.com/search/docs/crawling-indexing/robots/robots_txt