Делайте бизнес как умные люди! Действуйте как профи! Зарабатывайте через систему будущего!      Узнать подробности
Неработа | Тренинг-центр    Неработа | Тренинг-центр



Home » Трафик и реклама » Нередкие ошибки в robots.txt, которые есть на 80% веб-сайтов

Нередкие ошибки в robots.txt, которые есть на 80% веб-сайтов


Частые ошибки в robots.txt

Здесь нужно вставить ваш рекламный код с рекламной площадки. Рекомендуемая ширена 728 пикселей

файл robots.txt управляет индексацией веб-сайта, указывает поисковым системам какие части веб-сайта должны быть в поиске, а какие нет. Благодаря этому из поиска исключаются дубли страничек, и технические части веб-сайта, и остаётся лишь нужный контент.

Если в robots.txt совершенна ошибка, то веб-сайт будет индексироваться некорректно. Естественно, это приведёт к нехороший посещаемости, в наилучшем случае. В худшем – веб-сайт может просто стопроцентно быть удалён их поиска.

В данной статье мы поведаем о том, какие бывают нередкие ошибки в robots.txt. Проверьте, нет ли таковых ошибок на вашем веб-сайте.

Нередкие ошибки в robots.txt

Итак, довольно нередко в robots.txt употребляется некорректные, спутанные значении директив.

Неверный вариант:

User-agent: /page

Disallow: Гугл

Директива User-agent обязана демонстрировать имя поискового бота, а Disallow (либо Allow) – указывает часть веб-сайта, к которой применяется правило.

Верный вариант:

User-agent: Гугл

Disallow: /page

Иная ошибка в robots.txt заключается в использовании нескольких частей веб-сайта в одной директиве.

Неверный вариант:

Disallow: /wp-admin/ /wp-content/ wp-config.php

Некие ещё добавляют меж частями веб-сайта запятые, да и это тоже некорректно. В правильном варианте, любая часть веб-сайта обязана быть в отдельной директиве, даже если к ним промаются однообразное, запрещающее либо разрешающее правила.

Верный вариант:

Disallow: /wp-admin/

Здесь нужно вставить ваш рекламный код с рекламной площадки. Рекомендуемая ширена 728 пикселей

Disallow: /wp-content/

Disallow: wp-config.php

Последующая частая ошибка, которая в особенности нередко случается у новичков – это неверное имя файла robots.txt. Даже если снутри будет всё изготовлено правильно, неверное имя не дозволит поисковикам прочитать файл.

Правильное имя файла – robots.txt. Конкретно так, и никак по другому, и лишь с расширением .txt.

Прогуливаются споры о том, как верно заполнять директиву головного зеркала hosts – указывать там протокол http (либо https) либо нет.

Не верный вариант:

Host: https://example.ru

И, всё-таки, с указанием протокола это не верно. Не критично, но поисковики советуют без него.

Не верный вариант:

Host: example.ru

Если вы желаете заблокировать для индексации все странички, которые находятся в одной папке, то, наверное для вас придёт в голову таковой вариант:

Неверный вариант:

Disallow: /Page/1

Disallow: /page/2

Disallow: /page/3

Недозволено сказать, что это некорректно, но это не правильно, лучше будет создать так, как ниже.

Верный вариант:

Disallow: /Page/

Чтоб не повторять нередкие ошибки в robots.txt опосля его сотворения инспектируйте файл в кабинетах веб-мастера Yandex’а и Гугл.

Тут мы рассказываем о том, как создать robots.txt для WordPres.

Здесь нужно вставить ваш рекламный код с рекламной площадки. Рекомендуемая ширена 728 пикселей


Неработа | Тренинг-центр    Неработа | Тренинг-центр


Top