Останні новини свідчать, що OpenAI почав активно сканувати файли LLMs.txt на вебсайтах.
https://www.seroundtable.com/openai-crawling-llms-txt-files-39811.html
Деякі власники сайтів вже помітили, що OpenAI перевіряє LLMs.txt кожні 15 хвилин для оновлення інформації. Водночас представник Google Гарі Ілш заявив, що Google не підтримує LLMs.txt і не планує цього робити. Інші компанії, такі як Anthropic, ElevenLabs і PineCone, вже мають документацію щодо використання LLMs.txt. Це означає, що стандарт поступово впроваджується, але велика частина пошукових систем поки що його ігнорує.
https://www.seroundtable.com/openai-crawling-llms-txt-files-39811.html
Деякі власники сайтів вже помітили, що OpenAI перевіряє LLMs.txt кожні 15 хвилин для оновлення інформації. Водночас представник Google Гарі Ілш заявив, що Google не підтримує LLMs.txt і не планує цього робити. Інші компанії, такі як Anthropic, ElevenLabs і PineCone, вже мають документацію щодо використання LLMs.txt. Це означає, що стандарт поступово впроваджується, але велика частина пошукових систем поки що його ігнорує.
Search Engine Roundtable
OpenAI Crawling LLMs.txt Files? Google Says It Won't.
Recently, Google said that no AI system is currently using the LLMS.txt file. But maybe some are starting to? OpenAI may be starting to discover and crawl LLMS.txt files on websites. While Google's Gary Illyes said they won't be doing that.
👍16🤔1
Кейс з поверненням сайту після того, як він був деіндексований гуглом за программатік SEO
https://www.searchenginejournal.com/why-website-deindexed-by-google-for-programmatic-seo-bounced-back/552179/
Один із засновників компанії поділився досвідом, як їхній сайт був деіндексований Google через використання Programmatic SEO та масове створення AI-контенту. Було згенеровано близько 50 000 сторінок, націлених на довгі низькочастотні запити. Спочатку це дало сотні кліків і мільйони показів, але згодом Google зняв сторінки з індексу через низьку якість і дублювання контенту.
Команда усвідомила, що причиною проблем став неякісний AI-контент (а не сам факт використання AI). Вони вирішили зробити ребрендинг — змінили домен, перенаправили старий домен на новий, і повністю переглянули підхід до контенту. Кількість сторінок значно зменшили, акцентуючи увагу на якості та релевантності матеріалів для користувачів, а не на масовості. Основний фокус — “менше сторінок, але більше якості”.
Після змін Google знову почав індексувати їх сайт (правда нічого не сказано про трафік). Швидкі “лайфхаки” вже не працюють як раніше.
https://www.searchenginejournal.com/why-website-deindexed-by-google-for-programmatic-seo-bounced-back/552179/
Один із засновників компанії поділився досвідом, як їхній сайт був деіндексований Google через використання Programmatic SEO та масове створення AI-контенту. Було згенеровано близько 50 000 сторінок, націлених на довгі низькочастотні запити. Спочатку це дало сотні кліків і мільйони показів, але згодом Google зняв сторінки з індексу через низьку якість і дублювання контенту.
Команда усвідомила, що причиною проблем став неякісний AI-контент (а не сам факт використання AI). Вони вирішили зробити ребрендинг — змінили домен, перенаправили старий домен на новий, і повністю переглянули підхід до контенту. Кількість сторінок значно зменшили, акцентуючи увагу на якості та релевантності матеріалів для користувачів, а не на масовості. Основний фокус — “менше сторінок, але більше якості”.
Після змін Google знову почав індексувати їх сайт (правда нічого не сказано про трафік). Швидкі “лайфхаки” вже не працюють як раніше.
👍9