Disallow в robots.txt — что это и как правильно использовать

Файл robots.txt — один из ключевых элементов технического SEO.
Одна неверная директива может привести к тому, что важные страницы исчезнут из поиска.
Самая частая ошибка — неправильное использование Disallow.

В этой статье разберём, что означает директива Disallow, как она работает,
когда её можно использовать, а когда — категорически нельзя.

🧩 Что такое Disallow в robots.txt

Disallow — это директива файла robots.txt, которая запрещает
поисковым роботам сканировать указанные страницы или разделы сайта.

Важно понимать: Disallow не удаляет страницу из индекса,
он лишь запрещает роботу её обход.

User-agent: *
Disallow: /admin/

В этом примере роботам запрещено сканировать раздел /admin/.

🔍 Как работает директива Disallow

Алгоритм работы простой:

  • Поисковый робот заходит на сайт
  • Первым делом читает robots.txt
  • Сравнивает URL с правилами Disallow
  • Если путь запрещён — сканирование не происходит

⚠️ Если страница уже была в индексе ранее, она может
остаться в поиске, но без обновления контента.

🧩 Основные варианты использования Disallow

📁 Закрытие служебных разделов

Disallow: /wp-admin/
Disallow: /login/
Disallow: /cart/

Обязательный минимум для большинства сайтов.

🔎 Закрытие поиска и фильтров

Disallow: /search/
Disallow: /*?filter=

Помогает избежать дублей и мусорных страниц.

📄 Закрытие тестовых страниц

Disallow: /test-page/
Disallow: /dev/

⚠ Частые ошибки при использовании Disallow

❌ Закрыт весь сайт

Disallow: /

Самая критическая ошибка — сайт полностью выпадает из поиска.

❌ Закрытие коммерческих страниц

  • каталоги
  • карточки услуг
  • страницы товаров

Такой Disallow убивает SEO-трафик.

❌ Использование Disallow вместо noindex

Disallow не заменяет noindex.
Если страницу нужно убрать из индекса — используйте meta robots или HTTP-заголовки.

💡 SEO-рекомендации по работе с Disallow

  • Используйте Disallow только для технических страниц
  • Не закрывайте CSS и JS
  • Всегда проверяйте файл в Яндекс.Вебмастер и GSC
  • Не используйте Disallow для скрытия данных
  • После правок проверяйте индексацию

🎯 Заключение

Disallow — мощный инструмент технического SEO, который помогает
управлять сканированием сайта и избегать дублей.

Но любая ошибка в robots.txt может привести к потере трафика,
поэтому использовать Disallow нужно осознанно и аккуратно.


SEO-Pulse
Telegram: https://t.me/seo_puls
Сайт: https://seo-pulse.ru

Хотите заказать сбор семантического ядра для SEO, пишите, все сделаем.

Избранные услуги

Услуга - Search Engine Optimization

SEO-продвижение сайтов в Москве под ключ

SEO-продвижение сайтов — это системная работа по улучшению видимости сайта в поисковых системах Яндекс и Google для стабильного роста органического трафика и заявок.

Услуга - Ведение яндекс директ

Ведение рекламы в Яндекс Директ под ключ

Ведение рекламы в Яндекс Директ — это регулярная оптимизация и контроль рекламных кампаний для стабильного потока заявок и снижения стоимости лида.

Услуга - Яндекс директ

Настройка Яндекс Директ под ключ

Мы настраиваем и запускаем контекстную рекламу в Яндекс Директ с нуля и сопровождаем кампании в течение первого месяца. Основная цель — получение качественных заявок и обращений по оптимальной цене.

Готовы обсудить ваш проект?

Закажите расчет стоимости прямо сейчас и получите скидку 10% от компании SEO-Pulse!

Последние статьи на блоге

Наше портфолио

Закажите обратный звонок

Оставьте заявку и мы свяжемся с Вами в течение 10 минут

Отправляя свои данные, вы даете свое согласие с политики конфиденциальности веб-сайта.