❌ Почему Disallow в robots.txt не удаляет страницу из индекса
Файл robots.txt — один из самых часто неправильно используемых инструментов в SEO. Особенно это касается директивы Disallow, которую многие считают способом «удалить страницу из поиска».
На практике это приводит к обратному эффекту: страница остаётся в индексе, но теряет позиции, снижается трафик и появляются «висящие» URL в Яндекс и Google.
В этой статье разберём, почему Disallow не удаляет страницы, как он работает на самом деле и что нужно использовать вместо него.
🧩 Что такое Disallow в robots.txt
Disallow — это директива файла robots.txt, которая запрещает поисковым роботам сканировать URL, но не управляет индексацией напрямую.
User-agent: * Disallow: /private/
То есть робот:
- ❌ не заходит на страницу;
- ❌ не читает контент;
- ❌ не видит meta-теги;
- ❌ не может обнаружить noindex внутри страницы.
🔍 Почему страница остаётся в индексе
Поисковые системы могут добавить страницу в индекс без её сканирования, если:
- на неё есть внешние ссылки;
- она указана в sitemap.xml;
- на неё ссылаются другие страницы сайта;
- URL уже был проиндексирован ранее.
В этом случае поисковик знает о существовании страницы, но не может проверить её содержимое — и оставляет в индексе «как есть».
⚠ Что происходит при Disallow уже проиндексированной страницы
Это самый опасный сценарий:
- страница остаётся в индексе;
- поисковик не может обновить контент;
- снижается релевантность;
- URL может выпадать из ТОПа;
- появляются «пустые» сниппеты.
❗ В итоге — трафик падает, а страница формально существует в поиске.
❌ Частые ошибки при использовании Disallow
❌ 1. Закрытие страницы вместо noindex
Disallow: /page/
Ошибка: поисковик не может увидеть noindex, потому что не заходит на страницу.
❌ 2. Disallow + sitemap.xml
URL закрыт в robots.txt, но при этом:
Sitemap: https://site.ru/sitemap.xml
и страница есть в карте сайта — поисковик получает противоречивые сигналы.
❌ 3. Закрытие фильтров и параметров без Clean-param
Для Яндекса правильнее использовать:
Clean-param: sort&price /catalog/
А не массовый Disallow.
💡 Что использовать вместо Disallow для удаления страницы
✔ Meta-тег noindex
<meta name="robots" content="noindex, follow">
Работает только если страница доступна для сканирования.
✔ X-Robots-Tag (HTTP-заголовок)
X-Robots-Tag: noindex
Идеально для PDF, файлов и системных URL.
✔ Редирект 301
Если страница больше не нужна:
Redirect 301 /old-page/ /new-page/
✔ Код ответа 410
Для полностью удалённых страниц:
HTTP/1.1 410 Gone
Самый быстрый способ убрать URL из индекса.
🧠 Как правильно использовать Disallow
- закрывать служебные разделы (admin, cart, login);
- ограничивать обход фильтров;
- защищать дубли без SEO-ценности;
- не использовать для удаления страниц из поиска.
🎯 Заключение
Disallow — это инструмент управления обходом, а не индексацией. Он не удаляет страницы из поиска и при неправильном использовании может навредить SEO.
Если нужно убрать страницу из индекса — используйте noindex, 301 или 410. А Disallow оставляйте для того, для чего он действительно предназначен.
⚡ SEO-Pulse
Telegram: https://t.me/seo_puls
Сайт: https://seo-pulse.ru