Forwarded from Ihor Rudnyk (igor-rudnyk)
Эпл запускает свою поисковую систему 8 июня🙄
У Олеси Коробка увидел, что Apple планирует запускать свою поисковую систему. Наконец-то)
И как по мне это прям отличная новость для SEO-мира
А вы как думаете?
У Олеси Коробка увидел, что Apple планирует запускать свою поисковую систему. Наконец-то)
И как по мне это прям отличная новость для SEO-мира
А вы как думаете?
Devaka Talk
Намечается крутой проект — SEO подкасты. Ждите на выходных анонса.
Media is too big
VIEW IN TELEGRAM
Академия интернет-маркетинга WebPromoExperts опубликовала видео-записи с февральской конференции SEO Day. Держите мой доклад про тренды seo (да, его пока рано хоронить):
https://www.youtube.com/watch?v=E8oRK4joBzM
К слову, если вам понравился доклад, но хотите больше изучить тему, приходите ко мне на курс, который я провожу на базе WebPromoExperts. Стартует уже в этот четверг, с обновленной программой:
https://webpromoexperts.net/courses/seo-pro-online/
Инвестиции в образование всегда окупаются. 🧑🎓
https://www.youtube.com/watch?v=E8oRK4joBzM
К слову, если вам понравился доклад, но хотите больше изучить тему, приходите ко мне на курс, который я провожу на базе WebPromoExperts. Стартует уже в этот четверг, с обновленной программой:
https://webpromoexperts.net/courses/seo-pro-online/
Инвестиции в образование всегда окупаются. 🧑🎓
YouTube
Умерло ли SEO?
-------------------------------------------
Подписывайте на канал WebPromoExperts и нажимайте колокольчик! - http://bit.ly/YouTube_WPE
-------------------------------------------
Хотите держать руку на пульсе и быть в курсе всех новинок интернет-маркетинга?…
Подписывайте на канал WebPromoExperts и нажимайте колокольчик! - http://bit.ly/YouTube_WPE
-------------------------------------------
Хотите держать руку на пульсе и быть в курсе всех новинок интернет-маркетинга?…
https://crawler-test.com - сайт для теста вашего краулера или его настроек перед реальным краулингом большого проекта.
Нашел на днях у Чарли Вагнера. Но как оказалось, Борминцев постил еще год назад. Крутая штука, можно использовать не только для настроек, но и как чеклист.
Нашел на днях у Чарли Вагнера. Но как оказалось, Борминцев постил еще год назад. Крутая штука, можно использовать не только для настроек, но и как чеклист.
Google активно развивает свой алгоритм MUM, тесно связанный с семантическим поиском, распознаванием изображений, аудио/видео, разнообразием на выдаче и сокращением среднего числа запросов пользователя для поиска ответа на вопрос.
Апдейты ядра, прежде всего, включают в себя как раз обновления в алгоритме MUM. Одна из новых фишек, которая появилась недавно — это колдунщик по запросу "fun fact" (забавный факт). Пока только на англ.
По запросу "fun fact" Google выбирает интересный вопрос и генерирует под него ответ, снабжая ссылкой на подробности. Но по ссылке не будет прямых вхождений ни вопроса, ни ответа, а это просто расширение темы.
Сами вопросы генерятся, скорей всего, на основе данных, собранных с вопросных сайтов типа Reddit, Quora, а также некоторых форумов. Ответы генерируются с помощью AI. То есть, вы не встретите полный ответ ни на одном из сайтов, разве что частично.
Можно попробовать напарсить этих вопросов-ответов и сгенерить отдельный сайт. Думаю, взлетит!
💵 Поддержать канал: @dv_donate
Апдейты ядра, прежде всего, включают в себя как раз обновления в алгоритме MUM. Одна из новых фишек, которая появилась недавно — это колдунщик по запросу "fun fact" (забавный факт). Пока только на англ.
По запросу "fun fact" Google выбирает интересный вопрос и генерирует под него ответ, снабжая ссылкой на подробности. Но по ссылке не будет прямых вхождений ни вопроса, ни ответа, а это просто расширение темы.
Сами вопросы генерятся, скорей всего, на основе данных, собранных с вопросных сайтов типа Reddit, Quora, а также некоторых форумов. Ответы генерируются с помощью AI. То есть, вы не встретите полный ответ ни на одном из сайтов, разве что частично.
Можно попробовать напарсить этих вопросов-ответов и сгенерить отдельный сайт. Думаю, взлетит!
💵 Поддержать канал: @dv_donate
10 ошибок в SEO от Ahrefs
https://ahrefs.com/blog/seo-mistakes/
1. Отсутствие анализа ключевых слов
2. Не соответствие страниц/контента поисковому интенту
3. Продвижение сильно конкурентных/сложных запросов
4. Отсутствие линкбилдинга
5. Нарушение правил гугла при линкбилдинге
6. Игнорирование возможностей внутренних ссылок
7. Блокировка краулинга
8. Блокировка индексации вашего контента
9. Создание слишком медленного сайта
10. Отношение к SEO, как к одноразовому инструменту
https://ahrefs.com/blog/seo-mistakes/
1. Отсутствие анализа ключевых слов
2. Не соответствие страниц/контента поисковому интенту
3. Продвижение сильно конкурентных/сложных запросов
4. Отсутствие линкбилдинга
5. Нарушение правил гугла при линкбилдинге
6. Игнорирование возможностей внутренних ссылок
7. Блокировка краулинга
8. Блокировка индексации вашего контента
9. Создание слишком медленного сайта
10. Отношение к SEO, как к одноразовому инструменту
SEO Blog by Ahrefs
15 Common SEO Mistakes (And How to Fix Them)
Don’t make these mistakes.
Забавный тест, насколько вы можете определить, была ли картинка сгенерена роботом или создана человеком:
https://thisimagedoesnotexist.com
P.S. Я тест провалил, 12/30. Картинки специфические. Надо учить AI генерить продуктовые фото или иллюстрации для статей. А роботы пока какой-то арт генерят. Где его применяют - неясно. Разве что в тестах :)
https://thisimagedoesnotexist.com
P.S. Я тест провалил, 12/30. Картинки специфические. Надо учить AI генерить продуктовые фото или иллюстрации для статей. А роботы пока какой-то арт генерят. Где его применяют - неясно. Разве что в тестах :)
Thisimagedoesnotexist
This Image Does Not Exist
Test your ability to tell if an image is human or computer generated.
Только на прошлом подкасте обсудили с Игорем новые поисковые системы, вышла новость про Yep.com, которая стала самой трендовой на зарубежных новостниках.
Yep, this is Ahrefs Search Engine! Google killer.
https://techcrunch.com/2022/06/03/yep-search-engine/
Ahrefs инвестировал $60 млн. в создание поисковика.
— собственный индекс
— имя еще короче, чем у Bing
— 90% прибыли с рекламы будет распределяться создателям контента (площадкам)
Кстати, есть возможность присоединиться к ним в команду. На данный момент ребята ищут:
— Разработчиков удаленно или в Сингапуре (ReasonML, C++, OCaml)
— Девопса
— Аналитика данных в Сингапуре (для задач поиска и анализа изображений)
Такие новости. Обсудим поисковик Yep во вторник на очередном стриме SEO подкастов. Приходите!
Yep, this is Ahrefs Search Engine! Google killer.
https://techcrunch.com/2022/06/03/yep-search-engine/
Ahrefs инвестировал $60 млн. в создание поисковика.
— собственный индекс
— имя еще короче, чем у Bing
— 90% прибыли с рекламы будет распределяться создателям контента (площадкам)
Кстати, есть возможность присоединиться к ним в команду. На данный момент ребята ищут:
— Разработчиков удаленно или в Сингапуре (ReasonML, C++, OCaml)
— Девопса
— Аналитика данных в Сингапуре (для задач поиска и анализа изображений)
Такие новости. Обсудим поисковик Yep во вторник на очередном стриме SEO подкастов. Приходите!
Броди Кларк составил гайд о картинках в органике, откуда и по какому принципу они берутся и как помогают SEO:
https://brodieclark.com/google-image-thumbnails/
— Для показа картинки на выдаче не обязательно использовать структурированные данные.
— Картинки всегда подтягиваются из кода (не из внешних источников)
— Карусель картинок в сниппете может отображаться одновременно с разметкой FAQPage
Чеклист, что нужно проверить, если вы хотите несколько картинок на серпе:
— Протестируйте страницу с отключенным яваскриптом, отображаются ли нужные картинки?
— Являются ли картинки релевантными запросу?
— Используется ли ALT?
— Имеется ли больше 8 релевантных изображений? Формат изображений (портретный/альбомный) также играет роль, т.к. гугл умещает их в ширину сниппета.
— Последовательность изображений. Наиболее релевантные выше или ниже в контенте?
— Прозрачный фон гугл меняет на черный в случае с одним тамбнейлом, и на белый в случае с несколькими.
Более подробно по ссылке.
https://brodieclark.com/google-image-thumbnails/
— Для показа картинки на выдаче не обязательно использовать структурированные данные.
— Картинки всегда подтягиваются из кода (не из внешних источников)
— Карусель картинок в сниппете может отображаться одновременно с разметкой FAQPage
Чеклист, что нужно проверить, если вы хотите несколько картинок на серпе:
— Протестируйте страницу с отключенным яваскриптом, отображаются ли нужные картинки?
— Являются ли картинки релевантными запросу?
— Используется ли ALT?
— Имеется ли больше 8 релевантных изображений? Формат изображений (портретный/альбомный) также играет роль, т.к. гугл умещает их в ширину сниппета.
— Последовательность изображений. Наиболее релевантные выше или ниже в контенте?
— Прозрачный фон гугл меняет на черный в случае с одним тамбнейлом, и на белый в случае с несколькими.
Более подробно по ссылке.
Brodie Clark Consulting
Google Image Thumbnails for Organic Results: What They Are, How They Work & Will SEO Help?
Image thumbnails can appear in Google's organic search results, but have a lot of confusion around them. Read this guide for more information.
2й выпуск seo-подкаста уже через 5 минут. Обсудим вместе с Игорем Шулежко новости рынка за неделю. Присоединяйтесь:
https://www.youtube.com/watch?v=m_IohNBoYr0
https://www.youtube.com/watch?v=m_IohNBoYr0
YouTube
SEO Подкаст #2 — Поисковик Ahrefs, украинский рынок, новые SEO гайды
Спонсор SEO подкаста - https://pbn.energy/ -
Решение № 1 для по линкбилдингу в запрещенных Гуглом нишах
Связаться с нами:
https://www.facebook.com/igorshulezhko
https://t.me/devaka
00:00 Вступление
02:09 Про поисковик от Ахрефс
13:52 Как повлиял Google…
Решение № 1 для по линкбилдингу в запрещенных Гуглом нишах
Связаться с нами:
https://www.facebook.com/igorshulezhko
https://t.me/devaka
00:00 Вступление
02:09 Про поисковик от Ахрефс
13:52 Как повлиял Google…
Forwarded from Mike Blazer (Mike Blazer)
Исследование: исходящие ссылки - это сигнал ранжирования
Ребята приобрели 10 совершенно новых доменов и включили в них 6 упоминаний основного термина, по которому мы пытались ранжироваться [Phylandocic]. В каждой статье они упомянули 2 очень авторитетных, связанных с ней сайта. На 5 сайтах упоминания были в виде обычного текста, а на других 5 сайтах - в виде гиперссылок.
Все 10 доменов были зарегистрированы в одно и то же время, чтобы исключить влияние возраста домена. Все домены содержали 10 случайных, но произносимых символов, и все домены были с 0 волюмом поиска в Google. Все сайты были размещены на одном хосте, чтобы свести к минимуму любое смещение, связанное с хостингом.
РЕЗУЛЬТАТ:
Исходящие релевантные ссылки на авторитетные сайты учитываются в алгоритмах и действительно оказывают положительное влияние на ранжирование.
Более того, они опровергли старый миф о удержании Pagerank, поскольку веб-мастера пытаются удержать "ссылочный сок" внутри себя, медленно разрушая строительные блоки интернета.
Статья
@MikeBlazerX
Ребята приобрели 10 совершенно новых доменов и включили в них 6 упоминаний основного термина, по которому мы пытались ранжироваться [Phylandocic]. В каждой статье они упомянули 2 очень авторитетных, связанных с ней сайта. На 5 сайтах упоминания были в виде обычного текста, а на других 5 сайтах - в виде гиперссылок.
Все 10 доменов были зарегистрированы в одно и то же время, чтобы исключить влияние возраста домена. Все домены содержали 10 случайных, но произносимых символов, и все домены были с 0 волюмом поиска в Google. Все сайты были размещены на одном хосте, чтобы свести к минимуму любое смещение, связанное с хостингом.
РЕЗУЛЬТАТ:
Исходящие релевантные ссылки на авторитетные сайты учитываются в алгоритмах и действительно оказывают положительное влияние на ранжирование.
Более того, они опровергли старый миф о удержании Pagerank, поскольку веб-мастера пытаются удержать "ссылочный сок" внутри себя, медленно разрушая строительные блоки интернета.
Статья
@MikeBlazerX
Тренд на web3.0! Полезное видео, как веб3 соцсети изменят нашу жизнь:
https://youtu.be/DHX80wgHb1E
Соцсети Веб 1.0 (интернет людей) — простые и примитивные, типа LiveJournal.
Соцсети Веб 2.0 (интернет сервисов) — предоставляют разные сервисы, типа Facebook.
Соцсети Веб 3.0 (интернет данных) — данные будут главной ценностью.
Главная ценность соцсетей веб 2.0 это кол-во лайков, просмотров, фоловеров. Поэтому все стремятся увеличивать эти параметры. Что приводит к ботоводству, массфоловингу и накруткам. И это обесценивает все веб 2.0.
Веб 2.0 это действие в централизованной сети, где не надо оплачивать транзакции владельцу этой сети. Это дает возможность создавать ботов, иммитирующих действия пользователей и увеличивающих кол-во транзакций. Эти транзакции ничего не стоят.
Любое действие в Веб 3.0 это транзакция в блокчейне, которая что-то стоит. И это не дает возможность создавать фиктивную активность. Также здесь будут новые ценности. Пользователи будут получать что-то за просмотры видео. Теперь не пользователи будут ставить лайки создателям контента, а создатели контента будут раздавать NFT своим фолловерам.
Веб 2.0 соцсети зарабатывали на пользователях, желающих увидеть контент от создателей. Веб 3.0 будет являться распределенной собственностью как создателей контента, так и пользователей. Соцсети будут принадлежать всем тем, кто участвует в них. В веб 2.0 соцсетях создатель контента не обладает своим контентом, платформа распоряжается им. В веб 3.0 соцсетях сам создатель будет решать, как поступить ему со своим контентом.
Тренд серьезный. В теме надо разбираться уже сейчас. Поисковики тоже постепенно перейдут из интернета-сервиса в интернет-данных с децентрализацией, монетизацией и минимизацией манипуляций.
https://youtu.be/DHX80wgHb1E
Соцсети Веб 1.0 (интернет людей) — простые и примитивные, типа LiveJournal.
Соцсети Веб 2.0 (интернет сервисов) — предоставляют разные сервисы, типа Facebook.
Соцсети Веб 3.0 (интернет данных) — данные будут главной ценностью.
Главная ценность соцсетей веб 2.0 это кол-во лайков, просмотров, фоловеров. Поэтому все стремятся увеличивать эти параметры. Что приводит к ботоводству, массфоловингу и накруткам. И это обесценивает все веб 2.0.
Веб 2.0 это действие в централизованной сети, где не надо оплачивать транзакции владельцу этой сети. Это дает возможность создавать ботов, иммитирующих действия пользователей и увеличивающих кол-во транзакций. Эти транзакции ничего не стоят.
Любое действие в Веб 3.0 это транзакция в блокчейне, которая что-то стоит. И это не дает возможность создавать фиктивную активность. Также здесь будут новые ценности. Пользователи будут получать что-то за просмотры видео. Теперь не пользователи будут ставить лайки создателям контента, а создатели контента будут раздавать NFT своим фолловерам.
Веб 2.0 соцсети зарабатывали на пользователях, желающих увидеть контент от создателей. Веб 3.0 будет являться распределенной собственностью как создателей контента, так и пользователей. Соцсети будут принадлежать всем тем, кто участвует в них. В веб 2.0 соцсетях создатель контента не обладает своим контентом, платформа распоряжается им. В веб 3.0 соцсетях сам создатель будет решать, как поступить ему со своим контентом.
Тренд серьезный. В теме надо разбираться уже сейчас. Поисковики тоже постепенно перейдут из интернета-сервиса в интернет-данных с децентрализацией, монетизацией и минимизацией манипуляций.
В последнее время в SEO слабая активность. Мало чего происходит, обычно банальные (на мой взгляд) вещи. А каждый день хотелось бы видеть прорывные технологии, методы, инструменты. Или хотя бы активность комьюнити, которого в ру/юа-нете особо нет.
Если вы что-то новое создаете, что может двигать рынок, напишите мне. Инструменты, мероприятия, "убийственные" статьи, образовательные программы и пр. Поделюсь об этом на канале.
А пока предлагаю обсудить в комментариях, что интересного/запоминающегося в SEO для вас произошло в этом году?
Если вы что-то новое создаете, что может двигать рынок, напишите мне. Инструменты, мероприятия, "убийственные" статьи, образовательные программы и пр. Поделюсь об этом на канале.
А пока предлагаю обсудить в комментариях, что интересного/запоминающегося в SEO для вас произошло в этом году?
В 17:00 супер стрим в SEO подкасте Devaka-Shmeo.
Что изменилось в Google Business Profile (в прошлом Google Мой Бизнес) с 24 февраля 2022 года.
Будем обсуждать с Олег Костюкевич
https://www.facebook.com/oleg.kostyukevich
Факты про Олега:
— Входит в топ 10 мира Top Contributor форума Google Карты и Google Business Profile.
— Входит топ 10 картографов в Google Map Maker.
Затронем изменения в Украине и в мире.
Пишите вопросы к этому посту или готовьте на стрим.
Что изменилось в Google Business Profile (в прошлом Google Мой Бизнес) с 24 февраля 2022 года.
Будем обсуждать с Олег Костюкевич
https://www.facebook.com/oleg.kostyukevich
Факты про Олега:
— Входит в топ 10 мира Top Contributor форума Google Карты и Google Business Profile.
— Входит топ 10 картографов в Google Map Maker.
Затронем изменения в Украине и в мире.
Пишите вопросы к этому посту или готовьте на стрим.
10 классных инструментов, которые я часто использую в своей работе
1. Screaming Frog SEO Spider
Многофункциональный парсер, которым решаю большинство задач анализа сайтов.
2. Ahrefs
Лучший сервис для анализа ссылочных профилей. Другие его инструменты использую редко.
3. Google Search Console
Без него сложно обойтись. Дает прямые данные, часть которых, кстати, можно тянуть в Screaming Frog по API.
4. Serpstat
Анализирую здесь конкурентов и семантику, особенно когда надо это сделать по украинскому региону. Другие их инструменты использую редко.
5. Гугловские сервисы
Тут понятно, без них никак.
— Google Analytics, Google Ads Keyword Planner
— https://validator.schema.org
— https://pagespeed.web.dev
и некоторые другие
6. Web Page Test
Лучший сервис для анализа скорости/производительности сайта.
7. Answer The Public
Удобно искать вопросные запросы и составлять контент-план.
8. Keyword IO
Крутой инструмент для анализа ключевых слов. Своего рода дополнение к keywordtool.io
9. Siteliner
Ищет частичные дубли на сайте. Удобно, когда надо быстро проверить небольшой проект на дубли.
10. Sitechecker
Норм чекер для быстрого анализа.
Если нужно больше инструментов, читайте подборки
— Постоянно обновляющийся список у Бэклинко: https://backlinko.com/seo-tools
— На сайте Livepage: https://livepage.pro/blog/optimization/seo-services.html
1. Screaming Frog SEO Spider
Многофункциональный парсер, которым решаю большинство задач анализа сайтов.
2. Ahrefs
Лучший сервис для анализа ссылочных профилей. Другие его инструменты использую редко.
3. Google Search Console
Без него сложно обойтись. Дает прямые данные, часть которых, кстати, можно тянуть в Screaming Frog по API.
4. Serpstat
Анализирую здесь конкурентов и семантику, особенно когда надо это сделать по украинскому региону. Другие их инструменты использую редко.
5. Гугловские сервисы
Тут понятно, без них никак.
— Google Analytics, Google Ads Keyword Planner
— https://validator.schema.org
— https://pagespeed.web.dev
и некоторые другие
6. Web Page Test
Лучший сервис для анализа скорости/производительности сайта.
7. Answer The Public
Удобно искать вопросные запросы и составлять контент-план.
8. Keyword IO
Крутой инструмент для анализа ключевых слов. Своего рода дополнение к keywordtool.io
9. Siteliner
Ищет частичные дубли на сайте. Удобно, когда надо быстро проверить небольшой проект на дубли.
10. Sitechecker
Норм чекер для быстрого анализа.
Если нужно больше инструментов, читайте подборки
— Постоянно обновляющийся список у Бэклинко: https://backlinko.com/seo-tools
— На сайте Livepage: https://livepage.pro/blog/optimization/seo-services.html
Forwarded from Mike Blazer (Mike Blazer)
Mack провернул небольшое SEO "ограбление" с помощью GPT-3, создав 1800 статей на главных страницах бренда-конкурента путем скрейпинга их sitemap. Вот как это происходило (от первого лица):
1) Найдите конкурента, который продвигается по всем терминам, по которым вы хотите продвигаться, и просмотрите его карту сайта. Вам нужно, чтобы их URL-адреса в общих чертах описывали содержание URL-адреса.
2) Например, "/t/1043423" не является описательным, тогда как "/how-to-bake-banana-bread.html" является идеальным. Найдите карту сайта с большим количеством URL-адресов, похожих на последний.
3) Экспортируйте карту сайта в формат csv, пройдитесь по каждому URL и попросите GPT-3 написать заголовок статьи на основе этого URL. Например, '/how-to-bake-banana-bread.html' можно перевести как "Руководство для начинающих по выпечке бананового хлеба".
4) Получив это, просто попросите GPT-3 написать "очень длинный, подробный ответ" на заголовок статьи, и вот у вас уже есть статья.
5) Раньше я тратил целую вечность на написание кода для форматирования вывода GPT-3 в HTML, но оказалось, что вы можете добавить к подсказке суффикс "Использовать форматирование HTML", и это работает как шарм.
6) Я только что сделал это для 1,800 страниц конкурентов бренда. Программирование заняло около 30 минут. Фактическая генерация текста заняла несколько часов, но это ничто по сравнению с годами, которые потребовались бы, чтобы написать все это вручную.
7) Инстинктивно это кажется неэтичным, но я думаю, что трудно возразить, почему. Карта сайта и URL/заголовки статей находятся в открытом доступе, и это не было бы неэтичным, если бы делалось вручную, так что трудно утверждать, почему выполнение этого через GPT-3 меняет этические нормы.
@MikeBlazerX
1) Найдите конкурента, который продвигается по всем терминам, по которым вы хотите продвигаться, и просмотрите его карту сайта. Вам нужно, чтобы их URL-адреса в общих чертах описывали содержание URL-адреса.
2) Например, "/t/1043423" не является описательным, тогда как "/how-to-bake-banana-bread.html" является идеальным. Найдите карту сайта с большим количеством URL-адресов, похожих на последний.
3) Экспортируйте карту сайта в формат csv, пройдитесь по каждому URL и попросите GPT-3 написать заголовок статьи на основе этого URL. Например, '/how-to-bake-banana-bread.html' можно перевести как "Руководство для начинающих по выпечке бананового хлеба".
4) Получив это, просто попросите GPT-3 написать "очень длинный, подробный ответ" на заголовок статьи, и вот у вас уже есть статья.
5) Раньше я тратил целую вечность на написание кода для форматирования вывода GPT-3 в HTML, но оказалось, что вы можете добавить к подсказке суффикс "Использовать форматирование HTML", и это работает как шарм.
6) Я только что сделал это для 1,800 страниц конкурентов бренда. Программирование заняло около 30 минут. Фактическая генерация текста заняла несколько часов, но это ничто по сравнению с годами, которые потребовались бы, чтобы написать все это вручную.
7) Инстинктивно это кажется неэтичным, но я думаю, что трудно возразить, почему. Карта сайта и URL/заголовки статей находятся в открытом доступе, и это не было бы неэтичным, если бы делалось вручную, так что трудно утверждать, почему выполнение этого через GPT-3 меняет этические нормы.
@MikeBlazerX
"Периодически страницы сайта выдают 403 код статуса, я вижу это через Ahrefs, и иногда через Screaming Frog. Насколько это может мешать? Какой специалист должен заниматься этим вопросом?"
/ Татьяна /
403 код статуса в HTTP-заголовках страницы обозначает запрет доступа. Конечно же, в таком случае Google не сможет получить доступ к контенту страницы и, соответственно, проиндексировать или переиндексировать ее, а существующие страницы будут постепенно выпадать из индекса.
Однако, тут надо разобраться! Видит ли Google эти 403 статусы, или только вы? Это очень важно понять перед принятием дальнейшего решения. Ну и, конечно же, нужно разобраться, кто вообще управляет кодом статуса и может запрещать доступ.
Как узнать, какой код статуса отдается гуглу при сканировании им страниц? Для этого необходимо проанализировать серверные логи сайта. Если есть такой опыт, то можно делать это самостоятельно, в противном случае попросить сисадмина.
1. Качаем access_log сайта.
Это название текстового файла специального формата, где веб-сервер хранит всю информация по запросам к сайту. Иногда не хранит, это зависит от настроек веб-сервера. А доступ к файлу будет зависеть от используемого хостинга. Проще всего попросить у хостера предоставить серверные логи или указать, где их можно скачать (многие хостеры позволяют это сделать в панели управления). Либо попросить у сисадмина, если у него есть рутовый доступ к серверу.
2. Находим в файле строки, где к серверу обращался Google.
Тут надо изучить формат файла, чтобы понять, где там что. Анализировать логи можно через любой текстовый редактор (если файл небольшой), либо через сторонний сервис (лог анализаторы), но самый простой вариант — анализировать файл через консоль.
3. Анализируем коды статусов
Теперь ищем 403 коды, как часто они встречаются по сравнению с 200.
4. Тут уже будет понятно, что к чему
Если в логах гуглу отдаются только 200 коды статусов, то 403 видите только вы и, возможно, некоторые программы-анализаторы. Можно в логах сразу искать строки 403, отданные гуглу:
И вот теперь нужно разобраться, откуда эти 403 возникают.
— Доступ к сайту может блокировать CMS. Тут надо покопаться в CMS и плагинах, чтобы это понять и найти. Достаточно сложная задача.
— Доступ к сайту может блокировать хостер при высоких нагрузках. Тут надо проанализировать нагрузку на сервер, в том числе когда вы сайт парсите фрогом. Возможно, просто слабый сервер и нужно выбрать что-то помощнее.
— Доступ к сайту может блокировать файерволл. Например, блокируются запросы из определенных стран, или приходящих с определенной частотой. Чаще это файерволл хостера/CDN, используется для блокировки подозрительного трафика. Нужно разобраться, где он настраивается, и настраивается ли вообще.
— Доступ к сайту может блокировать провайдер. Например, по запросу руководства страны. Проверить это несложно, прочекав сайт из разных локаций/стран.
Как видите, задача непростая, если раньше не сталкивались с логами и консолью, но вполне решаемая техническими специалистами.
Успехов с поиском проблемы!
/ Татьяна /
403 код статуса в HTTP-заголовках страницы обозначает запрет доступа. Конечно же, в таком случае Google не сможет получить доступ к контенту страницы и, соответственно, проиндексировать или переиндексировать ее, а существующие страницы будут постепенно выпадать из индекса.
Однако, тут надо разобраться! Видит ли Google эти 403 статусы, или только вы? Это очень важно понять перед принятием дальнейшего решения. Ну и, конечно же, нужно разобраться, кто вообще управляет кодом статуса и может запрещать доступ.
Как узнать, какой код статуса отдается гуглу при сканировании им страниц? Для этого необходимо проанализировать серверные логи сайта. Если есть такой опыт, то можно делать это самостоятельно, в противном случае попросить сисадмина.
1. Качаем access_log сайта.
Это название текстового файла специального формата, где веб-сервер хранит всю информация по запросам к сайту. Иногда не хранит, это зависит от настроек веб-сервера. А доступ к файлу будет зависеть от используемого хостинга. Проще всего попросить у хостера предоставить серверные логи или указать, где их можно скачать (многие хостеры позволяют это сделать в панели управления). Либо попросить у сисадмина, если у него есть рутовый доступ к серверу.
2. Находим в файле строки, где к серверу обращался Google.
Тут надо изучить формат файла, чтобы понять, где там что. Анализировать логи можно через любой текстовый редактор (если файл небольшой), либо через сторонний сервис (лог анализаторы), но самый простой вариант — анализировать файл через консоль.
cat access_log | grep Googlebot | tail -n 100Команда выведет 100 последних строк, где встречается "Googlebot"
3. Анализируем коды статусов
Теперь ищем 403 коды, как часто они встречаются по сравнению с 200.
4. Тут уже будет понятно, что к чему
Если в логах гуглу отдаются только 200 коды статусов, то 403 видите только вы и, возможно, некоторые программы-анализаторы. Можно в логах сразу искать строки 403, отданные гуглу:
cat access_log | grep Googlebot | grep 403Если в логах есть 403 ошибки для гугла, нужно узнать, как часто они отдаются. Отдаются всегда - это самый простой вариант. Отдаются периодически - тут все сложно, и нужен глубокий анализ проблемы.
И вот теперь нужно разобраться, откуда эти 403 возникают.
— Доступ к сайту может блокировать CMS. Тут надо покопаться в CMS и плагинах, чтобы это понять и найти. Достаточно сложная задача.
— Доступ к сайту может блокировать хостер при высоких нагрузках. Тут надо проанализировать нагрузку на сервер, в том числе когда вы сайт парсите фрогом. Возможно, просто слабый сервер и нужно выбрать что-то помощнее.
— Доступ к сайту может блокировать файерволл. Например, блокируются запросы из определенных стран, или приходящих с определенной частотой. Чаще это файерволл хостера/CDN, используется для блокировки подозрительного трафика. Нужно разобраться, где он настраивается, и настраивается ли вообще.
— Доступ к сайту может блокировать провайдер. Например, по запросу руководства страны. Проверить это несложно, прочекав сайт из разных локаций/стран.
Как видите, задача непростая, если раньше не сталкивались с логами и консолью, но вполне решаемая техническими специалистами.
Успехов с поиском проблемы!
Все оптимизаторы делятся на два типа. Одни считают, что главная страница имеет первый уровень вложенности, а вторые — что нулевой. К какому типу относитесь вы?
Anonymous Poll
46%
0. Главная — это нулевой УВ
34%
1. Главная — это 1й уровень вложенности
19%
2. Не знаю, подскажите