.htaccess для WordPress
9 750 просмотровЧто такое файл .htacess, для чего он служит и его влияние на seo-продвижение. 301 редирект и его роль при определении основного зеркала сайта. Продвигаясь в освоении тонкостей и секретов оптимизации, продвижения и раскрутки сайтов бесплатными методами, мы с Вами в этой статье разберем такой технический момент как настройка файла .htaccess для определения основного домена сайта именно на движке WordPress. Иными словами мы с Вами должны указать поисковым системам основной домен сайта:
— с WWW — www.sait.ru
или
— без WWW — sait.ru
В интернете лет десять-пятнадцать назад производительность интернет-серверов была небольшой и они разносились по разным машинам. На одной был веб-сервер, на другой почтовый сервер, на третьей ftp-сервер. На данный момент производительность серверов значительно возросла и эта проблема отпала.
А приставка WWW осталась и является атавизмом, как кобчик у человека. И болтается эта приставка, создавая дополнительные трудности веб-дизайнерам и сео-оптимизаторам. Ведь поисковые системы могут воспринять один и тот же сайт как два разных. Какие неприятности это может принести? Выделю две основных:
— При внешнем продвижении сайта ссылками(платными или бесплатными), статьями и тому подобное, ваши ссылки могут не сработать, так как формально ссылаются на совсем другой сайт.
— Поисковые системы могут расценить ваши статьи как неуникальные и дублированные, что может повлечь за собой понижение позиций, а худшем случае и попадание под фильтры.
Правда эту проблему можно решить и другими способами, используя директиву Host файла robots.txt. Также основной домен сайта можно указать в сервисах основных поисковиков для Рунета Яндекс.Вебмастер и Google.Webmasters. Но так как никто точно не знает, что там на уме у поисковых роботов, то желательно им указывать эти параметры во всех источниках.
Ведь Seo-продвижение это такая вещь, которая состоит из множества, казалась бы независимых друг от друга действий. Это внутренняя оптимизация, заполнение основных тегов, расположение ключевых слов, использование графики, валидность HTML-кода, другие технические моменты. Не забываем и об использовании человеко-понятных урлов.
И только выполняя все рекомендации комплексно мы можем получить желанный результат, получая благосклонность поисковых систем и высокие позиции в ТОПе. И настройка файла .hnaccess является одним из этих самых технических моментов.
Но ближе к делу, хочу поделиться какие проблемы я встретил при настройке этого файла. Поскольку у меня сайт молодой, то мне использовать присловутую приставку ни к чему. Я настраиваю файл .htaccess на домен без WWW, а конкретнее – inetmkt.ru. По рекомендациям мой файл должен был выгдядеть следующим образом.
RewriteEngine On
RewriteCond %{HTTP_HOST} ^www.inetmkt.ru$ [NC]
RewriteRule ^(.*)$ https://inetmkt.ru/$1 [R=301,L]
Но зайдя на свой сайт я обнаружил, что WordPress уже создал файл htacess и он содержит следующие операторы:
# BEGIN WordPress
<IfModule mod_rewrite.c>
RewriteEngine On
RewriteBase /
RewriteRule ^index\.php$ — [L]
RewriteCond %{REQUEST_FILENAME} !-f
RewriteCond %{REQUEST_FILENAME} !-d
RewriteRule . /index.php [L]
</IfModule>
# END WordPress
Я его, конечно скопировал, затем перенес рекомендуемый в корневую директорию моего сайта. Проверяю работу сайта и обнаруживаю, что кроме главной страницы у меня ничего больше не открывается. Неприятно, но копировал ведь не зря, возвращаю старый вариант, проверяю, все нормально работает. Немного подумав соединяю эти два файла в один. Файл приобретает вот такой вид:
# BEGIN WordPress
<IfModule mod_rewrite.c>
RewriteEngine On
RewriteBase /
RewriteRule ^index\.php$ — [L]
RewriteCond %{REQUEST_FILENAME} !-f
RewriteCond %{REQUEST_FILENAME} !-d
RewriteRule . /index.php [L]
</IfModule>
RewriteEngine On
RewriteCond %{HTTP_HOST} ^www.inetmkt.ru$ [NC]
RewriteRule ^(.*)$ https://inetmkt.ru/$1 [R=301,L]
# END WordPress
Переношу его в корневую директорию сайта, проверяю работоспособность, все работает нормально. На этом останавливаюсь. Честно признаться, до конца не уверен в правильности проделанной работы, так как слабо знаком с директивами настройки серверов, которые используются в этом файле. Ведь файл .htaccess( с точкой вначале и без расширения) это обычный текстовый файл, содержащий директивы, на основании которых веб-сервера Apache и ему подобные, выполняют соответствующие действия со страницами файла. Этот файл может размещен в любом каталоге и его директивы будут действовать на все файлы в этом каталоге и в подчиненных ему подкаталогах.
На самом деле функции этого файла гораздо шире, вот некоторые из них:
— запреты на доступ
— установка паролей
— различные перенаправления
— повышение безопасности…..
Подробнее с настройкой и директивами этого полезного файла можно ознакомиться на сайте www.htaccess.net.ru. Надеюсь, что эта информация будет Вам полезна, спасибо за внимание, здоровья и успехов Вам.
Спасибо за содержательную и познавательную статью. Буду рад если Вы зайдёте в гости и дадите свои комментарии.
Не знал, что существуют такие заморочки.
Мне тоже пришлось повозиться с этим файлом, когда меняла доменное имя. Зато досконально разобралась. 🙂
Я Вам завидую. Мне придется сделать мозговой штурм и тоже разобраться. Спасибо Юрий, что делитесь с нами своими знаниями.
Хорошая информация. Нужно разобраться по подробней.
Спасибо.
И я первый раз сталкиваюсь с этой информацией. Надо изучить по подробней.
Очень интересно
Спасибо за информацию, нужно будет заняться этим вопросом.
Очень нужная информация, благодарю Вас за статью
Не знал…Благодарю, буду заходить на Ваш сайт.
Юрий, привет!
Я по делу:
странно, но файл robots.txt вашего блога содержит ошибку в повторяющихся директивах Sitemap: (вы их дважды повторили…)
====
Ещё на вашем блоге живут и куют ошибки страницы с одинаковыми Title — таких 61
Если не сможете прокомментировать,
прошу ознакомиться на моём блоге с этой темой, и затем прокомментировать мой вопрос
====
Единственное, что мне понравилось как вы хорошо закрыли архивы от индексации, исправлю также у себя на блоге.
====
ЕЩЁ ВОПРОС
прокомментируйте директивы /*?replytocom и /*?replytocom*
Здравствуйте Сергей, Вы напомнили мне об одной технической проблеме, которую я до сих пор не решил. Все эти мои манипуляции с robots.txt связаны с дублями на страницах блога. При попытке убрать их из индексации начал эксперименты да так и не закончил.
Теперь отвечаю на вопросы.
1) Sitemap убрал.
2) Title одинаковых у меня быть не может, это видимо все те же дубли сказываются.
3) Директивы закрытия replytocom из той же оперы о дублях, где-то прочитал, что они являются источниками дубликатов, даже примеры приводили.
Спасибо, Сергей, за ваши вопросы. Надо возвращаться к теме дубликатов.