Devaka Talk
11K subscribers
1.2K photos
37 videos
27 files
3.14K links
Канал по просуванню та оптимізації сайтів під Google. Hard SEO.

Зв'язок зі мною: @devaka
(Сергій Кокшаров)

Реклама: @dv_adv
Для донатів: @dv_donate

Навчаю у групах.
https://webpromoexperts.net/courses/seo-pro-online/
Download Telegram
Forwarded from by @shmeo
Коли навіть Нетфликс офігіває від Gemini
Якщо коротко, в гуглі багато багів. Це не тільки проблема в Gemini.

Пошук це велика система, яка програмувалась багатьма людьми, де купа строк коду.. І цим складно керувати. Хто має власний онлайн-сервіс, той розуміє. Завжди щось вспливає, або падає.

Штучний інтелект, хелпфул контент апдейт, адаптивний краулер, рендерінг javascript, це все красні слова, за якими купа багів. І якщо у вас великий сайт, складний код чи структура, двозначні сигнали, ще якісь багі на вашому боці, то ви частіше будете зустрічатись та боротись з багами гугла.
Розкажу вам про проблеми і цікаві кейси, з якими зіштовхнувся при аудиті сайтів клієнтів.

Один з сайтів був повністю на javascript. TITLE та текстовий опис сторінок віддавався одразу (начебто для SEO), але весь DOM документа формувався скриптами. Google щось рендерить, але все погано.

Такі сайти складно аналізувати:
— Кеш не дає інформації, бо показує (в текстової версії та вихідному коді) те ж саме, що ти можеш подивитись самостійно в браузері. Не те, що насправді у індексі гугла.
— Screaming Frog не сканує сайт навіть в режимі рендерингу. Аналізатори тут безкорисні.

Основне джерело інформації: search console та серверні логи.

Було знайдено багато технічних помилок, але в цих випадках потрібно спочатку виправляти рендеринг, а потім повторно аналізувати сайт. Основна проблема у js-сайтів по SEO в тому, що вони js.

Якщо такі історії цікаві, розкажу ще інші. Останнім часом зробив багато аудитів.
😁🤪😀😇😉🥰🤩

Вже через 15 хвилин зустрічаємось в ефірі разом з Максом Гапчуком. Поговоримо про те, що потрібно знати SEOвцю про GA4

Лайк, шер і вперед в ефір: webinars.collaborator.pro

Про що саме піде мова:
● де дивитись основні метрики, як налаштувати конверсії та будувати звіти
● як відстежувати джерела трафіку, переглядати сесії та унікальних юзерів
● які можливості Google Analytics для e-commerce
● що таке багатоканальні послідовності та як з ними працювати для оптимізації маркетингових кампаній

Після основної частини буде QA-сесія. Тож готуйте питання для спікера та беріть активну участь в обговоренні

До зустрічі у ефірі😉
Please open Telegram to view this post
VIEW IN TELEGRAM
SimilarWeb вирішив зробити конкурента Ahrefs з новим тулом "Backlinks Analytics"
https://www.similarweb.com/corp/marketing/features/backlinks-analysis/

База:
360 трлн. посилань (35 трлн. у Ahrefs)
260 млн. доменів (206 млн. у Ahrefs)
дані оновлюються кожен день

Тул безкоштовний для клієнтів Similarweb (account-managed customers).

Серед можливостей:
- Загальна інфа по доменам та посиланням
- Нові та зникнувши лінки
- Якість лінок (ще одна пузомірка - Domain Trust)
- Фільтри, декілька типів линок

Поки що виглядає не дуже круто, але заявочка норм! Що думаєте? Буде що сьогодні обговорити на стрімі.
Продовжую історію з аудитами. Один з сайтів мав проблеми через те, що купляв трафік у іншого. Це було важко знайти, бо ти аналізуєш свій сайт і те що щось там з кимось в партнерських відносинах - здається не важливим при аудиті. Але ні.

Як знайшли? В консолі були знайдені дивні неіснуючі урли, які редиректили на існуючі. Ніде на сайті джерело некоректних урлів знайдено не було. Виявилось, що редиректить зовнішній сайт, і начебто юзер попадає на коректний урл, але через ланцюжок редиректів.

Проблема не в тому, що були редиректи, а в тому, що був html-редирект, який гугл вважає за 302, а на сторінці-донорі майже дубль контенту сайта, який індексувався та був вище джерела контента по заголовкам та шматкам тексту. По суті, сайт перекупляє свій же трафік у іншого. Та ще й має через це проблеми по SEO.

Буває і таке. Я в перше з подібним зіткнувся. При аудиті майте на увазі, що проблема може бути не обов'язково на вашому сайті.
Serpstat запрошує відсвяткувати свій День народження, де планує дарувати подарунки 🎁

Serpstat – платформа для досягнення цілей пошукового маркетингу – святкує 11 років🥳

Експерти Serpstat створили ексклюзивний тариф Birthday, який включає вдвічі більше лімітів за меншою ціною – $111 на місяць.

Всі користувачі Serpstat, можуть перейти на даний тариф. Ви маєте вдвічі більше можливостей покращити свою Digital маркетинг гру!

Встигніть на Serpstat Birthday party до 29 лютого, всі деталі на сайті.

#промо
View Rendered Source — крутий плагін для Chrome
https://chromewebstore.google.com/detail/view-rendered-source/ejgngohbdedoabanmclafpkoogegdpob

Простий та зручний. Дозволяє бачити для сторінок сирий HTML код та відрендерений, порівнювати та шукати в обох кодах потрібні речі. Можна залишати лише одну з версій, якщо інша не потрібна.

Нещодавно додав собі у тули для аналізу сайтів.
Бачу, що ще багато хто використовує директиву Host: в robots.txt. Поясню на всяк випадок.

1. Host не на що не впливає
2. Цю директиву придумав і використовував лише Яндекс для керування дзеркалами
3. Потім вони від неї відмовились (ще 6 років тому), змінивши логіку роботи з дзеркалами
4. Host ніким не використовується з пошукових систем і сервисів

Можете сміливо видаляти!
А також корисно буде почитати специфікацію, як Google обробляє robots.txt:
https://developers.google.com/search/docs/crawling-indexing/robots/robots_txt