Devaka Talk
11K subscribers
1.22K photos
37 videos
27 files
3.17K links
Канал по просуванню та оптимізації сайтів під Google. Hard SEO.

Зв'язок зі мною: @devaka
(Сергій Кокшаров)

Реклама: @dv_adv
Для донатів: @dv_donate

Навчаю у групах.
https://webpromoexperts.net/courses/seo-pro-online/
Download Telegram
Останнім часом бачу такий шаблон постів від (деяких закордонних) сеошників в тренді:

Більшість сеошників
- не мають бізнес
- застрягли з поганими проектами
- не вміють готувати
- не розуміють як працює гугл
- не заробляють гроші
- читають статті і нічого не роблять

І далі йде протиставлення більшості сеошників з вумними. Де автор самий унікальний, сміється над ком'юніті і поучає.

Не ведіться на цей психологичний прийом. Відписуйтесь від цих сеошників. Заводьте контакти з нормальними людьми.
Привіт-привіт усім! 👋
Netpeak Agency розширює команду та шукає SERM Specialist! 🚀

Якщо ти в захваті від аналізу даних, вмієш залишати після себе “чисте поле” в пошуковій видачі та розумієш, як перетворити негатив на можливість для зростання, — приєднуйся до нас!

Що робить цю позицію особливою:
🔹Робота з відомими брендами: Synevo, Dom.ria, OLX, Intertop, Eva, Prom.ua, Privatbank, Планета Кіно.
🔹Worldwide проєкти в абсолютно різних нішах
🔹Наш SERM Department пропонує унікальні, комплексні послуги та пакети, які відкривають можливості для професійного розвитку та реалізації.
🔹Можливий розвиток до Team Lead, побудова та навчання до своєї команди за допомогою досвідчених спеціалістів.

Що ми очікуємо від тебе?
🔹 Досвід роботи на позиції SEO / SERM спеціаліста або Linkbuilder-а від 1 року, в агенціях або in-house з напрямком SERM.
🔹 Розуміння алгоритмів пошукових систем та факторів ранжування, знання методів SERM оптимізації та вміння знаходити точки росту для проєкта.
🔹 Володіння англійською мовою на рівні Intermediate (B1).

Буде плюсом:
🔹 Володіння AI-інструментами для роботи.
🔹 Досвід написання PR-матеріалів, копірайтингу текстів.

Більше деталей за посиланням: https://career.netpeak.group/ua/vacancy/a75009/

Якщо відчуваєш, що готовий приєднатися до нашої команди?
Надсилай резюме:
1. На пошту - doral@netpeak.net
2. В телеграм - @doral_anastasiia

А якщо в тебе є рекомендація, то ми теж будемо дуже вдячні та не тільки скажемо "спасибі", а ще й сплатимо бонус у разі успішного найму 😉

#вакансія #текстнадісланий
Як збирати логи, щоб не плутатись в статистиці

Серверні логи — дуже потужний інструмент технічного SEO. Але через великі об'єми аналізувати їх важко. Для великих проектів логи за тиждень можуть складати декілька гігабайт даних. Не кажучі про логи за місяць або рік.

Дехто оптимізує цей процес за допомогою ротації логів і зберігання за короткий строк. Дехто вивантажує логи на зовнішний CDN або окремий сервер. Зараз розкажу, як краще зробити, щоб полегшити собі життя.

Перше, потрібно розуміти, що взагалі потрапляє в логи. За замовченням, туди потрапляють всі запити до серверу:

— Відвідувач відкрив сторінку
— Завантажились ресурси сторінки (якщо не з локального кешу), такі як зображення, скріпти тощо
— Пошукові боти сканують сайт
— LLM боти сканують сайт
— Інші корисні і некорисні боти, які сканують, аналізують або атакують сервер
— Різні вебхуки

Далі, вам потрібно себе запитати, "Яка саме інформація для мене важлива? Що я хочу дізнатися в логах через декілька місяців збору даних?" Частіше всього логи аналізують або для того, щоб виявити атаки (хоча для цього є інші інструменти), або для розуміння процессу сканування сайту пошуковими ботами. Юзерів через логи майже не аналізують, для цього є веб-аналітика.

Наприклад, ви для себе вирішуєте, що вам логи потрібні для:

- Аналізу поведінки Google, що він сканує і як часто, з якими помилками стикається
- Пошуку битих ресурсів і інших помилок віддачи даних
- Аналізу LLM ботів і, можливо, якихось інших відомих вам ботів

Тепер, коли ви знаєте, що саме вам потрібно, фільтруйте логи (налаштовуйте для фільтрації) і зберігайте лише важливу інформацію.

Зробіть окремий лог для Googlebot, окремий для помилок (error_log), окремий для інших важливих для вас ботів. Відключайте в логах ті статичні ресурси, які ви не будете аналізувати (наприклад, сканування зображень, скриптів, стилів, шрифтів тощо). Зробіть формат лога таким, щоб туди не потрапляла зайва інформація, наприклад, для окремого логу для гуглбота можна не включати в логи user_agent.

В Nginx це можна зробити таким чином:

Робите користувацьку змінну $is_googlebot за допомогою map. Якщо потрібен bing чи щось інше, це можна також додати.

map $http_user_agent $is_googlebot {
default 0;
~*googlebot 1;
}

map $http_user_agent $is_bingbot {
default 0;
~*bingbot 1;
}

map $http_user_agent $is_llmbot {
default 0;
~*chatgpt 1;
~*gptbot 1;
~*claudebot 1;
~*perplexitybot 1;
~*google-extended 1;
~*anthropic-ai 1;
}


В блоці server вимикаєте загальні логи і вмикаєте тільки для гуглбота.

access_log off;
access_log /var/log/nginx/googlebot.log combined if=$is_googlebot;
access_log /var/log/nginx/bingbot.log combined if=$is_bingbot;
access_log /var/log/nginx/llmbot.log combined if=$is_llmbot;


Перезапускаєте nginx і у вас зберігаються дуже красиві і легкі для аналізу логи.
Продовжуючи скучну, але важливу тему логів, розкажу як я налаштував їх для відслідковування статистики використання свого букмарклету. Тобто, використання логів для дуже вузької задачи.

Для мене важливо розуміти, наскільки Devaka Tools популярний серед користувачів. Як часто його використовують на добу, на місяць, скільки різних користувачів, з яких країн... Аналізувати всі логи сайту devakatalk.com це буде невірно, бо багато зайвої інформації. Плюс серверні логи ротуються і зберігаються місяць для заощадження місця, а для Devaka Tools мені потрібно мінімум рік для розуміння місячного зрісту.

Веб-аналітика тут не підходе, бо вона знизить продуктивніть інструменту, плюс на деяких сайтах просто не буде працювати через політику CORS. Тому потрібні саме серверні логи, але відфільтровані.

Задача ускладнюється через використання CloudFlare. Якщо я просто налаштую логи у себе на сервері, то не отримаю більшість запитів користувачів, тому що CoudFlare дані буде видавати зі своїх кешів.

Вирішення:

1. Налаштування воркера в CloudFlare.
Воркер це по типу плагіну, який додає логіку роботи серверу. Саме мій воркер при завантаженні урла букмарклету викликає вебхук на моєму сервері і передає дані в форматі json.

2. Налаштування вебхука на сервері
Вебхук приймає json і додає строку в місячний лог. Таким чином, логи групуються помісячно, збирають лише виклик букмарклета і зберігають дані в зручному json-форматі. І тут не потрібно налаштовувати GeoIP чи щось подібне, бо CloudFlare вже передає інформацію о гео.

3. Аналіз логів
Аналіз дуже простий, за допомогою команд cat, grep, awk, jq. Один файл логу займає < 1 Мб даних. При зрісті популярності в 10 разів об'єм логів за рік буде лише ~100 Мб.

На скріні приклад запису в лозі і статистика по гео за березень, яка виводиться однією командою.

cat bookmarklet-logs | jq | grep '"c"' | sort | uniq -c | sort -rn | head 


Не знаю, навіщо вам ця інформація, але може комусь буде корисною =) І ви знайдете ідеї для налаштування власних логів.
Programmatic SEO: використання даних для покращення видимості в пошуку

Зустрічаємось 1 квітня о 10:00

Поговоримо про наступне:
▶️Що таке Programmatic SEO і чому дані є його ключовим елементом
▶️Вибір стратегій, їх аналіз та оцінка ефективності
▶️Масштабування процесів
▶️Нюанси локалізацій та адаптацій

З доповіддю виступить Владислав Моргун — SEO-спеціаліст у ЛУН та Flatfy

🔗Реєстрацію відкрито

Не пропустіть: корисні інсайти, практичні поради та QA-сесія після доповіді

А обговорити ключові моменти після вебінару можна у SEO-ком’юніті Collaborator в Telegram

До зустрічі на вебінарі🤘
Please open Telegram to view this post
VIEW IN TELEGRAM
Найкращий спосіб отримати лінк - дати ексклюзивну новину. Або першим розказати про якусь подію, або проаналізувати її детально і зробити огляд.

Зараз цей спосіб використовують закордонні спеціалісти. Наприклад, Core Update це ексклюзивна новина, але всі посилаються на Google і якщо ти про апдейт розкажеш, це нікому не цікаво (окрім підписників в соцмережах, які поставлять лайк за шейр). Але, якщо написати огляд - хто просів, хто виріс, або потестити AI Mode, який тільки з'явився — це вже буде більше працювати як лінк-магнит.

Іноді в ніші новин недостатньо. Тоді можна обіграти світові події. Мені сподобався кейс, коли вийшов фільм Barbie, всі його обговорювали, створювали меми. А кмітливі магазини одягу написали в ЗМІ експертний контент, яка барбірувати свій гардероб, що привело до вірусного ефекту шейра контента по іншим ЗМІ і ресурсам.

Нещодавно мені вдалося отримати лінк з розсилки Mark Williams-Cook. Тому що про зникнення class="g" в HTML коді гугла майже ніхто не написав (тільки Pete Meyers згадав в BlueSky, задавши питання гуглу).

Думаю, що лінки на екслюзивні новини мають таку ж саму цінність, як і лінки на екслюзівні дослідження. Важко масштабувати і делегувати, але варто подумати в цьому напрямку! 🤓
Результати Ukrainian SEO Awards 2024
https://www.youtube.com/watch?v=PBk8mNu8tC8

Дуже справідливі, як на мене.

1. Кращий SEO кейс
$100К за місяць, 1 сторінка, гео Бразилія. TraffBand
https://blog.seo-pub.com/case-1-100k-za-mesyac

2. Кращий виступ на конференції
Лiнкбайт контент. Як отримувати топовi посилання органiчно. Дмитро Сохач (НаЗахід 25)
https://www.youtube.com/watch?v=rkUvpWA5h7M

3. Кращий SEO роботодавець
Boosta: https://boosta.biz/

4. Краще SEO ком'юніті
SEO чат collaborator: https://t.me/collaborator_conf

5. Краща SEO конференція:
НаЗахід https://www.youtube.com/watch?v=1R4T10IVMeY

6. ТОП SEO інфлюенсер 2024:
Iгор Шулежко: https://t.me/by_seoshmeo

Вітаю всіх! 🎉👍🏻
Тексти для сайту англійською, українською, польською — це контент-студія @WordFactory .

✍️ Українська, англійська, польська, німецька й інші мови.

Ми — офіційна компанія з ТОВ в Україні та Європі. Надаємо всі потрібні для бухгалтерії документи.

Спеціалізуємося на тематиках від digital, медицини, фінтеху до e-commerce.

Як ми працюємо:

👌 Якісно
Кожен текст перевіряє редактор.

⚡️ Швидко
До 10 тис. символів — за добу, 1 млн знаків на місяць.

☑️ Відповідно до TЗ
Контроль унікальності, наявності ключів, невикористання штучного інтелекту.

♾️ Багато
До 30 фултайм-авторів в одному проєкті, до 500 тисячознаків на день.

Щоб познайомитися з WordFactory ближче, пишіть:

tg: @WordFactory
mail: info@wordfactory.ua
https://bit.ly/4hPYWcW

🎁 Ваш промокод на знижку 25% на 1 перший текст: DevakaTalk26.03

#реклама
Forwarded from by @shmeo
SEO стрім о 18:00
Сьогодні буде багато цікавих новин.
Готуйте питання по SEO і не тільки.
Будемо обговорювати SEO новини, ділитися інсайтами, допомогати зі складними питаннями.
Приходьте на ламповий стрім по SEO
https://www.youtube.com/watch?v=sXEC5mUZsrk
Google запустив AI Overviews в Европі. Вже офіційно
https://blog.google/feed/were-bringing-the-helpfulness-of-ai-overviews-to-more-countries-in-europe/

Країни та мови, де зараз це працює:
— Austria (German & English)
— Belgium (English)
— Germany (German & English)
— Ireland (English)
— Italy (Italian & English)
— Poland (Polish & English)
— Portugal (Portuguese & English)
— Spain (Spanish & English)
— Switzerland (French, German & Italian, plus English)

Чекайте скоро і в Україні. Готуйтесь до падіння трафіку.
Шукаєш нове зі світу PBN та SEO?

На PBN.LINK:

- Унікальні гайди та стратегії
- Рекомендації експертів у сфері SEO
- Приклади успішного застосування PBN
- Актуальна інформація та новини
- Інструменти та сервіси

А ще тут можна замовити послугу з розміщення посилань на PBN!

Ціни на пакетні розміщення:

1. Розваги - 10 сайтів = 450$ 300$ (30$ за 1)
2. IT - 14 сайтів = 630$ 420$ (30$ за 1)
3. Бізнес - 9 сайтів = 405$ 270$ (30$ за 1)
4. Медицина - 36 сайтів = 1620$ 1080$ (30$ за 1)
5. Освіта - 32 сайтів = 1440$ 960$ (30$ за 1)
6. Нерухомість - 6 сайтів = 270$ 180$ (30$ за 1)
7. Загальне 1 - 25 сайтів = 1125$ 625$ (25$ за 1)
8. Загальне 2 - 23 сайтів = 1035$ 575$ (25$ за 1)
9. Екологія - 9 сайтів = 405$ 270$ (30$ за 1)
10. Туризм - 9 сайтів = 405$ 270$ (30$ за 1)
11. Жіноче - 11 сайтів = 495$ 330$ (30$ за 1)

Мережа по крипті. Пакетне розміщення:

Преміум:
5 шт - 800$/рік (1 лінк = 160$)
10 шт - 1500$/рік (1 лінк = 150$)

Оптимальний:
5 шт - 600$/рік (1 лінк = 120$)
10 шт - 1000$/рік (1 лінк = 100$)

Стандарт:
5 шт - 300$/рік (1 лінк = 60$)
10 шт - 500$/рік (1 лінк = 50$)

Звертайся з приводу розміщень:
Telegram: @sales_pbn_link
Email: sales@pbn.link

Та підпишись на PBN.LINK, щоб не загубити!

#реклама
Core Update завершився.
https://status.search.google.com/incidents/zpmwuSwifjDjfrVdaZUx

Можна вже аналізувати. Як там ваші сайти?
Google: Щоб ранжуватись, робіть корисний контент.

Але, якщо ви будете намагатись ранжуватись, то ми будемо намагатись вважати це спамом.

Якщо ви ранжуєтесь і це не спам, ми це вкрадемо.

А якщо не ранжуєтесь і це спам, то ми будемо ранжувати тільки якщо це покладете на Reddit або LinkedIn. Але в такому випадку ми це також вкрадемо.

Якщо не ранжуєтесь і це не спам, то це корисний контент! Робіть його.

#трендипошуку
Forwarded from SEObox (Olesia Korobka)
За 15 хвилин починається 3я міні-конфа SEO for Paws англійською мовою.

З того, що може бути цікаво українській аудиторії:

19:00 - 19:30 - Martin Splitt - Debugging JavaScript websites
20:00 - 20:30 - Roxana Stingu - The role of embeddings in modern SEO
21:00 - 21:30 - Mark Williams-Cook - Google exploit
21:30 - 22:00 - Kristine Schachinger - Which Update Was It

Запис буде, але якщо ви хочете задати питання, то приходьте до чату у ЮТ.

Мета події — зібрати кошти у англомовної SEO-аудиторії на маленькі притулки для котів і собак в Україні. Зазвичай це робиться за рахунок спонсорів події, але ще щось збирається донатами.

Я ретельно відбираю актуальні теми, спікерів і вичитую усі презентації, тому вважаю інфу на цій події дуже корисною. Якщо розшарити інформацію про неї, то прийде більше людей 🤗
Нещодавно CloudFlare анонсував AI Labyrinth
https://blog.cloudflare.com/ai-labyrinth/

Це технологія ускладнення життя ботам, які не підтримуються правил robots.txt. А саме, витрата ресурсів AI крулерів за допомогою динамічної генерації AI сторінок/контенту для них.

AI Labyrinth працює не для всіх сайтів на CLoudFlare, а тільки тих, які увімкнули цю функцію. Доступно також на безоплатному тарифі.

Коли краулери ходять по лабиринту, вони не отримують ваш цінний контент, а беруть нерелевантний, згенерований, витрачаючи свої ресурси.

Ідея цікава. Тобто, вона в тому, щоб LLM не отримували і не навчались на корисному контенті, який для них закритий. Але поки що боюсь уявити, що деякі системи будуть навчатись на згенерованному контенті. А інши системи будуть навчатись вже на другорядному контенті. І так далі, по ланцюжку. Таке в нас майбутньє.
Унікальні SEO-тексти усіма мовами!

Ми в ContentAdore спеціалізуємось на текстах, які ефективно ранжуються в пошукових системах, приносять трафік і конверсії.

Чому ми?
📍 Грамотне інтегрування ключових слів
📍 Унікальність і природність тексту
📍 Оптимізація під алгоритми Google
📍 Працюємо з великими обсягами
📍 Робимо термінові тексти «на вчора»
📍 В команді – філологи і маркетологи з багаторічним досвідом

ContentAdore – це агенція, яку радять.

TG @Content_Adore

#реклама
Кажуть, Reddit став більш жадібним. Нагенерував собі сторінок під запити "best + [product]" в папці https://www.reddit.com/klp/

Дійсно, за останній місясь трафік на розділ значно виріс. Самі сторінки виглядають, як маніпуляція пошуковими алгоритмами )

Але трафіку там 30к. Щось на це ніхто не звернув уваги. Reddit навіть це не відчуває з його майже 1млрд. трафіку на місяць.

Хоча, колись, це відгукнеться ) Або в сильний плюс, або в сильний мінус. Поки що можна повивчати їх стратегію Programmatic SEO: https://www.reddit.com/klp/best-air-mattress-for-guests/