Файл robots.txt - это текстовый документ, разработанный для обмена информацией между веб-пауками (поисковыми системами, роботами и аналогичными сущностями) и вашим веб-сайтом. В этой текстовой конфигурации содержатся инструкции для веб-пауков, определяющие, какие страницы подлежат индексации, а какие должны быть исключены из процесса обхода.