Техническая оптимизация сайта: Внутренняя оптимизация сайта по шагам: технические доработки – Техническая оптимизация сайта | Параметры технической SEO-оптимизации

Содержание

Техническая оптимизация сайта! ТЗ или основные требования к сайту!

Как сделать сайт, готовый к продвижению? Основные технические критерии для успешной seo-оптимизации! Если у Вас уже есть сайт, то никогда не поздно проверить, найти ошибки и их исправить!

html

Структура сайта

Реализация логичной системы вложенности на сайте. Необходима реализация с учётом работы бизнеса. Это один из самых важных этапов, в котором закладывается фундамент. Переделывать – сложно и дорого.

Пример реализации

    1. Главная страница сайта
    2. Категория товара в интернет-магазине или раздел информационного сайта:domen.com/games/
      domen.com/sport/
    3. Подкатегории или подразделы:domen.com/games/tablehockey/
      domen.com/sport/football/
    4. Карточка товара или статья:Если есть уверенность, что выбранный раздел правильный и меняться не будет, то красиво организовать структуру и вложенность в ЧПУ согласно категориям \ разделам.

      domen.com/games/tablehockey/stiga-play-off/
      domen.com/sport/football/arshavin-pereshel-v-kuban/

      Если категории будут меняться, то вполне возможно лучше организовать структуру сайта так, чтобы конечные элементы (карточки товаров, статьи и т.д.) имели независимый адрес, тогда перемещение не будет за собой тянуть никаких сложностей.

      domen.com/stiga-play-off/
      domen.com/arshavin-pereshel-v-kuban/

    5. Теговые страницы, страницы брендов или вспомогательные и параллельные разделы.Обычно сайт должен иметь несколько параллельных веток.
      domen.com/brand/stiga/
      domen.com/tag/arshavin/

      Важно, чтобы эти категории, не плодили дублей, т.е. товары, страницы, которые бы выводились в этих разделах, не меняли свой адрес.

Такая структура подразумевает, что каждая страница будет релевантна группе запросов, например:

      • игры
      • игры в спб
      • купить игры
      • купить игры в спб
      • игры цены
      • спорт
      • новости спорта
      • новости спорта в россии
      • футбол
      • новости футбола
      • новости футбола в россии
      • стига плей-офф
      • настольный хоккей стига плей-офф
      • купить настольный хоккей стига плей-офф
      • аршавин
      • новости о аршавине
      • стига
      • стига настольные игры
      • купить стига
      • стига цены

И т.д.
Но это уже отдельная тема, группировки и составления семантического ядра сайта.

ЧПУ

ЧПУ нужно использовать либо полностью название «категории», «бренда», либо общепринятые обозначения. Важно, чтобы ЧПУ были все в нижнем регистре. Пробелы заменять «-» (тире). Не надо в ЧПУ использовать коммерческие слова «купить», «цена» и т.д. Не надо, чтобы в ЧПУ повторялись слова в разных уровнях вложенности. Если это ЧПУ товаров или статей, то необязательно использовать все название, можно сделать несколько ключевых слов (но помнить про уникальность). Лучше использовать транслит или перевод (не кириллические обозначения).

О ЧПУ через htaccess можно прочитать – тут.

Ответы сервера

      1. Существующая страница должна отдавать ответ сервера – 200 ОК
        .
      2. Необходимо, чтобы несуществующие страницы отдавали – 404 ошибку.
      3. Настроить редиректы, страницы без слеша должны отдавать ответ 301 на страницы со слешем на конце.
      4. Настроить переезд сайта с http на https.
      5. Настроить 301 редирект с www на «без www» или наоборот. Зависит от того, как больше нравится позиционировать сайт: www.domen.ru или domen.ru.
      6. Параметр Last-Modify должен или отсутствовать, или содержать реальное изменение информации на странице (обычно по тексту, содержанию).
      7. link-canonical – инструмент для того, чтобы сообщить поисковым сетям, что данная страница скорее носит “вспомогательный характер”, а есть основная, каноническая. Вес всех вспомогательных суммируется и передается основной. Хорошо использовать для пагинации, сортировок и т.д.

Карта сайта

Все страницы сайта должны быть собраны в sitemap.xml (если страниц много и ссылки не помещаются в один файл, то можно разбить на несколько файлов по смыслу).

Страница сайта

Каждая страница должна иметь возможность для размещения и редактирования:

      1. Текст
      2. Заголовок h2
      3. Title
      4. Keywords
      5. Description
      6. Название для вывода в меню сайта
      7. ЧПУ (уникальный)
      8. Картинки

Должна быть сделана генерация мета-данных (данные по умолчанию), которая бы легко генерировалась. Например, чтобы у всех страниц было что-то типа:

Title: Грузоперевозки {по стране} {из региона} в {регион} {транспортная компания}
Keywords: грузоперевозки {по стране} {из региона} в {регион} {транспортная компания}
Description: Грузоперевозки {по стране} {из региона} в {регион} {транспортная компания}. Domen.ru – лучший сервис доставки грузов!

Генерация – это мета-теги по умолчанию, для каждой страницы введенные уникальные данные должны иметь приоритет.

Код сайта

      1. html код сайта не должен содержать стили и js-код (по возможности), все должно быть подключено через файлы, таблицы стилей. Вообще, чем короче, проще и валиднее код – тем лучше.
      2. Разметка заголовками h2-h6 должна быть только внутри зоны содержания текста, в остальном сайте должны использоваться обычные блочные элементы.
      3. Использовать schema.org и hcard – микроразметка поможет поисковым сетям хорошо понимать содержание Вашего сайта. Основное: контакты, хлебные крошки, фотографии. Если сайт подходит под тематику, то отзывы, рецепты и т.д.

Пагинация

Простой и удобный для пользователя способ разделить большой объем информации по страницам. Современные сайты часто используют подгрузку содержания по средствам AJAX, данный способ бывает удобен для пользователя, но затрудняет индексирование ресурса. Поэтому предпочтительнее использовать пагинацию, она может положительно сказаться и на поведенческие факторы (глубину просмотра). На страницах пагинации хорошо использовать мета-тег link-canonical.

Хлебные крошки

Необходима реализация хлебных крошек:

Главная >> Россия >> Финляндия
Главная >> Россия Санкт-Петербург >> Россия Москва
Главная >> Россия Санкт-Петербург >> Россия Москва >> 40DC Контейнер

Хлебные крошки должны использовать микроразметку – прочитать подробнее.

Перелинковка сайта

Реализовать перелинковку сайта (страниц, разделов). Т.е. реализовать что-то типа блока «Похожие направления», «Вам может быть интересно» и т.д. Цель – на каждую страницу должно вести (3-4 ссылки). Например, реализовать по принципу «кольца», когда страницы на одном уровне вложенности ссылаются на несколько соседних (по алфавиту или id).

Подробнее – тут.

Фавикон

Сайт должен иметь favicon (скорее всего уменьшенный логотип или его часть).

robots.txt

Сайт должен иметь robots.txt.

hreflang

Настроить метатег hreflang для мультиязычного сайта

Итоги

Это основные пункты, есть ещё миллион мелочей для каждого конкретного случая, но если Вам кажется, что это список без этого неполный, то буду рад любым комментариям!

Общий план оптимизации сайта я уже публиковал – тут.

Продвижение сайта своими руками! Инструкция по применению!

Автор

mm

Андрей Воскобойников

Техническая оптимизация сайта. Что это?

Мы уже рассматривали такие важные параметры подготовки к продвижению сайта, как оптимизация изображений и текстовая оптимизация. Однако есть еще один существенный момент, с которого следует начинать работу, – это техническая оптимизация сайта.

Можно сказать, что это первый и наиболее важный этап. В основном подобная  операция проводится один раз перед началом продвижения ресурса, а в дальнейшем она лишь корректируется и подправляется. Иными словами, это комплекс действий, которые направлены на корректировку технических нюансов сайта для улучшения взаимодействия его с поисковым роботом.

Главная задача технической оптимизации – обеспечивать максимальную индексацию страниц сайта. Если же упустить из виду какие-либо технические моменты, то это станет значительной преградой на вашем пути к ТОПу в выдаче, а, возможно, и сделает продвижение невозможным.

Безусловно, все технические доработки должны выполняться специалистами-разработчиками сайта. Пользователю или даже владельцу ресурса не стоит «лезть» в HTML-код, так как это может привести к непоправимым последствиям, а в большинстве случаев компании не несут ответственность за нарушения по вине иных лиц.

Рассмотрим основные технические проблемы и пути их решения. Однако еще раз напомним:  любые изменения должны вносить специалисты. 

При правильной технической оптимизации у поискового робота нет никаких претензий к отображению страниц и сайта в целом, ресурс не выдаёт ошибки и сбои, а – следовательно - индексируется быстро и хорошо.

Пять основных моментов технической оптимизации

Этот текстовый файл должен быть в корневой категории вашего сайта. Он содержит определенные инструкции для поискового робота, который обращается к нему в первую очередь. В этом файле можно указать те страницы, которые нельзя индексировать (допустим, системные или дублированные). Также в нём указывается адрес зеркала сайта, адрес карты сайта, а также иная информация для правильной индексации, предназначенная для поисковых роботов.

  • Адреса всех страниц ресурса

Все адреса должны формироваться по следующей схеме (проверьте это):

  • использование слешей.

Например, http://mysite.ru/katalog/ и http://mysite.ru/cost/ - правильно.
http://mysite.ru/katalog и http://mysite.ru/cost/ - неправильно;

  • все адреса должны быть написаны латинскими буквами, не смешивайте русский язык и латиницу в одном адресе. Этот пункт особенно касается сайтов доменной зоны .рф.  

Например, http://mysite.ru/katalog/dress/ - правильно,
http://mysite.ru/katalog/платья/ - неправильно;

  • не советуем использовать в адресах различные символы, они могут некорректно обрабатываться и отображаться. Речь идёт о «?», «@», «#» и т.д.

Для проверки адресов будет удобно воспользоваться картой сайта.

  • Sitemap или карта сайта

Помимо того, что картой сайта пользуются роботы, она полезна и удобна для пользователей.  С её помощью легко искать информацию на сайте. Для робота на карте видна структура, а посетителю удобно ориентироваться на сайте. В файле Sitemap  вы также можете прописать инструкции для Яндекса, какие страницы следует индексировать в первую очередь, как часто вы делаете обновления на сайте. Не забывайте, что карта может содержать не более 50000 страниц, иначе вам необходимо создавать второй экземпляр.

В тот момент, когда пользователь открывает страницу или робот начинает её проверку,  сервер с расположения сайта даёт ответ, то есть информацию о состоянии вашего ресурса и необходимой страницы.

Основные коды таковы:

  • 200 – со страницей все в порядке,
  • 404 –страница не существует,
  • 503 – сервер временно недоступен.

Правда, иногда даётся и неверный код. Предположим, страница может быть рабочая, а код ошибки 404 (либо другие комбинации). Этот момент нужно заранее проверить и отследить, чтобы сделать правильную настройку кодов в файле .htaccess.

Пристальное внимание уделите настройке ошибки 404. Если какая-то страница существует, а сервер сообщает код 404, то индексироваться она не будет. Сделать проверку кодов статусов можно при помощи известного вам Яндекс.Вебмастера.

  • Настройка редиректа

Наиболее часто встречающаяся ошибка – не настроен редирект с домена www на домен без www (или же обратная ситуация). Выберите, какое доменное имя будет главным и укажите это в файле .htaccess для поисковых систем. Иначе один и тот же сайт будет восприниматься как дубль, что приведёт к проблемам в ранжировании. Это касается и иных редиректов с других зеркал – страницы вида «index.htm», «index.html» и т.д.

  • Теги Title и Description также относятся частично к технической оптимизации. Они должны быть уникальны на каждой странице, отображать её суть и содержимое.
  • Проверьте время загрузки сайта. Рекомендованные показатели таковы:  до 0.7 сек (700 мс) должно уходить на скачку исходного кода документа и до 0.2 сек (200 мс) для получения ответа сервера.
  • На каждой странице должно быть не более одного заголовка уровня h2. Проверьте также, чтобы заголовки всех уровней от h2 до H6 не использовались в оформлении страниц.
  • Иконка favicon. Мелочь, на которую тоже стоит обратить внимание.
  • Обязательно протестируйте отображение вашего сайта в основных браузерах – Сhrome, Android Browser, FireFox, Mobile Safari, Opera. Особое внимание уделите различным заполняемым формам (если такие есть на сайте).
  • Закройте от индексации страницу доступа в административную панель CMS - /wp-login, /administrator, /bitrix, /admin.
  • Необходимо проверить вёрстку на наличие незакрытых парных тегов. Если тег Td открыт, он должен быть обязательно закрыт /Td.
  • В файле Robots также следует закрыть от индексации служебные папки (cache, wp-includes) и документы разрешения .pdf и .doc, если они не несут никакой информации.
  • Если у вас интернет-магазин, то вам следует закрыть страницы авторизации, фильтрации, поиска, страницу оформления заказа и логина пользователя.

Альтернативой файлу robots.txt считается мета-тег name=“robots” со значениями полей «content=“noindex, follow“». Он требует немного более сложной настройки, но при этом более внимательно соблюдается поисковыми системами.

Даже после окончательного формирования списка страниц, закрытых от индексации, всё равно стоит периодически проводить мониторинг сайта на момент возможного появления дублей каких-либо страниц.

Любая ошибка в технической оптимизации, которая будет пропущена изначально, так или иначе будет вам вредить и мешать на пути к ТОПу в выдаче. Постарайтесь убрать каждую из них. В нашем списке мы собрали наиболее распространённые ошибки, которые допускаются создателями сайтов или просто упускаются из вида. 

предыдущие записи

  • Анализ неявных предпочтений пользователей.

    Анализ неявных предпочтений пользователей.

    17:31 10/03/2015

    Анализ неявных предпочтений пользователей — важнейший фактор в ранжировании документов в результатах поиска или, например, показе рекламы и рекомендации новостей.

  • Landing Page по ремонту квартир

    Landing Page по ремонту квартир

    00:58 27/11/2014

    Хотите сделать Landing Page по ремонту квартир? Мы подобрали для Вас примеры лучших лендингов, которые нашли в поисковых системах.

  • Как проверить скорость сайта

    Как проверить скорость сайта

    23:25 30/03/2015

    Скорость загрузки сайта - это, конечно, прежде всего показатель, который заметен пользователю сайта. Но в результате он влияет и на позицию Вашего сайта

  • Landing Page для услуги наращивания волос

    Landing Page для услуги наращивания волос

    20:07 06/05/2015

    Хотите сделать Landing Page для услуги наращивания волос? Мы подобрали для Вас примеры лучших лендингов, которые нашли в поисковых системах.

Техническая оптимизация сайта

Техническая оптимизация сайта для поисковых систем Google и Yandex.

Техническая оптимизация сайта для поисковых систем Google и Yandex.

Техническая оптимизация сайта — залог успешного продвижения в PS.

Техническая оптимизация — раздел содержит материалы касающиеся только технической части сайта. Это полноценный комплекс мер по корректированию и исправлению большинства технических аспектов сайта. Тем самым, способствуя успешной индексации и улучшенному взаимодействию сайта с поисковыми ботами. Данные рекомендации помогут Вам, значительно повысить позиции сайта в выдаче.

Что такое техническое Seo? Подробное руководство для начинающих

Основы технической seo оптимизации сайтаОсновы технической seo оптимизации сайта
Техническое SEO касается всех видов деятельности SEO, кроме оптимизации контента и построения ссылок. Эти требования постоянно меняются и становятся все более сложными. Сайт не должен отставать от поисковых систем, которые с каждым днем ​​становятся все сложнее.

ТОП 9 способов оптимизировать CSS для ускорения сайта

Оптимизация css - 9 способов значительно ускорить сайтОптимизация css - 9 способов значительно ускорить сайт
Оптимизация или сжатие css-стилей ускорит загрузку страницы сайта, ускорит выполнение синтаксического анализа и уменьшит объем передаваемых данных в браузер. Давайте я расскажу  вам, о 9 -ти лучших способах, которые помогут Вам значительно оптимизировать CSS.

Как оптимизировать изображения для интернет сайта WP

Как оптимизировать изображения для сайта самостоятельноКак оптимизировать изображения для сайта самостоятельно
Сжатие изображений необходимо для  повышения производительности сайта. Но очень часто, изменения снижают качество изображения. Это, в свою очередь, может повлиять на поведенческие факторы. Давайте я расскажу, о правильной оптимизации изображений.

Настройка кэширования страниц сайта с помощью .htaccess — примеры

Настройка кэширования страниц с помощью файла htaccess 2021-2020-2019Настройка кэширования страниц с помощью файла htaccess 2021-2020-2019
В этой статье мы поговорим обо всех аспектах кэширования. Чем он важен для сайта и его применение. Я опишу примеры, которые Вы сможете применить на практике. Плюс к этому, будет небольшой обзор некоторых, достаточно хороших кэш плагинов для WordPress.

Gzip сжатие js/css/html для ускорения сайта — как включить в .htaccess

Gzip сжатие js/css/html/text/xml application/xml application/xhtml+xml application/xml-dtd.Gzip сжатие js/css/html/text/xml application/xml application/xhtml+xml application/xml-dtd.
В этом руководстве мы поговорим про Gzip сжатие js/css/html, для ускорения загрузки сайта. О том, как включить его с помощью файла .htaccess. О необходимости включения Gzip сжатия на сайте и конечно примеры кода для вставки в файл .htaccess.

Как сделать 301—редирект в файле .htaccess подробные примеры

Редирект 301 Permanent Redirect - как настроить в файле .htaccess.Редирект 301 Permanent Redirect - как настроить в файле .htaccess.
В этой статье мы рассмотрим правила переадресации распространенные на файл .htaccess. Редирект 301 Permanent Redirect — это одно из основных правил, которые нужно прописывать в .htaccess. Задача 301 Redirecta, переадресация пользователя.

Оптимизация JS и CSS кода сайта онлайн — подробное руководство

Оптимизация javascript / CSS / HTML - самостоятельно и онлайн.Оптимизация javascript / CSS / HTML - самостоятельно и онлайн.
JS и CSS — сами по себе имеют достаточно большой весомый код, имеющий много лишнего. Браузеру сложно прочесть в долю секунду огромное полотно из кодов.  Оптимизация этих файлов направлена на уменьшение размера кода.

Оптимизация HTML кода сайта — чистка, сжатие, исправление ошибок

Особенности оптимизации html-кода для продвижения сайтов 2018-2019-2020Особенности оптимизации html-кода для продвижения сайтов 2018-2019-2020
Редактирование исходного кода сайта и корректировка его структуры. Субъективной целью которого, является значительное улучшение состава кода. Достаточно большой объем страницы, может усложнить процесс ее сканирования поисковыми ботами.

Техническая оптимизация и доработка сайта — вывод сайта в ТОП-10 PS

Оптимизация кода сайта и его скорости загрузки, настройка редиректов и ответов сервера.Оптимизация кода сайта и его скорости загрузки, настройка редиректов и ответов сервера.
Эффективности SEO может помешать всего лишь одна небольшая ошибка в технической оптимизации сайта. Давайте рассмотрим все основы, этого важного аспекта для успешного продвижения Вашего проекта в поисковых системах Google и Yandex.

Техническая оптимизация сайта — структура, код, html, css, js, php

Техническая seo оптимизация сайта, перелинковка, хлебные крошки, юзабилити.Техническая seo оптимизация сайта, перелинковка, хлебные крошки, юзабилити.
Правильная техническая оптимизация, залог успешного продвижения сайта в поисковых системах. Давайте рассмотрим основные примеры технической оптимизации сайта. Которые являются самыми важными и обязательными в качественном продвижении сайта.

Как создать файл robots.txt для сайта — правильный robots.txt инструкция

Robots.txt для сайта - создание, редактирование, примеры для большинства cms.Robots.txt для сайта - создание, редактирование, примеры для большинства cms.
Robots.txt — является одним из важнейших факторов успешной оптимизации сайта. Благодаря правильно созданному файлу Robots.txt, Вы значительно улучшите позиции сайта в поисковых системах Google и Yandex.

Как создать файл .htaccess — подробная инструкция для новичков

htaccess файл - создание и настройка файла самостоятельно для новичков.htaccess файл - создание и настройка файла самостоятельно для новичков.
Инструкция о том, как создать файл .htaccess самостоятельно. Htaccess позволяет задать перенаправления (301 редирект) на сайт. Включить сжатие gzip, хеширование на стороне сервера и обеспечить дополнительную защиту сайта.

Как создать карту сайта XML и HTML — создание карты сайта на WordPress

Как создать карту сайта с помощью плагинов для WordPress. SiteMap XML HTMLКак создать карту сайта с помощью плагинов для WordPress. SiteMap XML HTML
Подробные инструкции, о том как создать карту сайта XML и HTML. Рассмотрены различия между обоими форматами карты сайта (XML HTML), их влияние на техническую и Seo оптимизацию.  Примеры создания карты сайта с помощью плагинов на WordPress.

Как добавить карту сайта XML Sitemap в Google Webmaster — Yandex Вебмастер

Добавить файл Sitemap ссылку файла (например, https://www.mysite.ru/sitemap.xml).Добавить файл Sitemap ссылку файла (например, https://www.mysite.ru/sitemap.xml).
В этом руководстве рассмотрены все основные способы, добавления Sitemap XML в Console Google и Yandex Вебмастер. А также, анализ Sitemap с помощью Search Console Google и инструментами Yandex webmaster. Описаны примеры переобхода страниц карты сайта.

Как использовать файл .htaccess — безопасность сайта (новичкам)

Безопасность сайта с помощью файла htaccess. Защита сайта актуально 2019-2020-2021Безопасность сайта с помощью файла htaccess. Защита сайта актуально 2019-2020-2021
Сегодня я собираюсь рассказать Вам, что такое файл .htaccess и как использовать его для защиты и ускорения вашего сайта. Это краткая форма Hypertext Access. Файл конфигурации, используемый на веб-сервере Apache для управления функциями на веб-сервере.

Техническая оптимизация сайта

Правильно настроенный сайт с технической стороны, является фундаментов его продвижения в поисковых системах.

Перед вами список из нескольких пунктов, на которые необходимо обратить особое внимание при технической оптимизации сайта.

Содержание:

  1. Правильно настроенный файл robots.txt
  2. Наличие карты сайта
  3. Нет технических дублей
  4. Сайт быстро грузится
  5. Есть микроразметка OpenGraph & Schema.org
  6. Нет битых ссылок
  7. Настроена страница 404
  8. Нет сквозных внешних ссылок
  9. Наличие SSL сертификата
Правильно настроенный файл robots.txt

Файл robots.txt должен находиться в корне сайта. В данном файле прописываются правила индексирования для поисковых систем. Например, если требуется закрыть от индексации определенные страницы или разделы, то достаточно прописать несколько команд в файле, и поисковики не будет индексировать данные страницы.

Обязательными правилами в файле являются: Host, Sitemap.

Host – команда которая прописывает главное зеркало сайта. Поисковики считают, что www.site.ru и site.ru это совершенно разные сайты, но с одинаковыми контентом (технические дубли), и чтобы предотвратить конфликта, прописывается правило host.

Например:

Host: site.ru

Sitemap – команда, которая указывает ссылку на карту сайта. О карте сайта мы поговорим чуть позже в этой статье. А в файле robots.txt прописывается ссылка на карту, которая показывает поисковикам, где находится та самая карта сайта.

Например:

Sitemap: site.ru/sitemap.xml
Sitemap: site.ru/sitemap.xml.tag
Наличие карты сайта

Сама по себе, карта сайта, это список всех ссылок сайта, которые имеются на сайте, а так же открыты к индексации поисковых систем. Наличие карты сайта, облегчает поисковикам обходить страницы сайта, что улучшает скорость индексирования сайта со стороны яндекса и гугла. Обычно используется формат xml.

Существует большое количество бесплатный сервисов, позволяющих сгенерировать карту вашего сайта.

Нет технических дублей

Как говорилось выше, site.ru и www.site.ru это технические дубли. Так же могут быть техническими дублями: site.ru и site.ru/index.php. Поисковик видит все эти страницы, и считает их разными (так как адреса разные), и поэтому возникают конфликты.

По правилам продвижения сайта, у вас не может быть на сайте копий страниц. А это значит, что каждая страница должна быть уникальной не только по отношению к другим сайтам рунета, но и по отношению к другим страницам этого же сайта. Технические дубли, это как раз тот момент, когда появляются копии тех или иных страниц.

Лучше всего настраивать 301 редиректы, например в файле .htaccess, который находится в корне сайта.

Сайт быстро грузится

Пользователи – люди нетерпеливые, и им нужно как можно быстрее получить информацию о ваших услугах, продуктах и тд. Но когда ваш сайт долго грузится, пользователи, не дожидаясь загрузки страницы, просто закрывают сайт, и вот вы потеряли посетителя. На скорость сайта влияет несколько факторов: мощность сервера, размер изображений, размер кода (html, css, js и др), наличие кэширования, наличие сжатия. Скорость сайта можно проверить с помощью сервиса: Google page speed

Есть микроразметка OpenGraph & Schema.org

Микроразметка, размечает вашу страницу на несколько составляющих. Данная разметка страницы, позволяет легче определять содержимое страницы со стороны поисковых систем и социальных сетей. Подробная инструкция внедрения описана тут: Yandex Support Schema.org и тут Yandex Support Opengraph

Нет битых ссылок

Наличие битых ссылок, очень плохо влияет на позиции сайта в поисковых системах. Битая ссылка, это такая ссылка, при переходе на которую, открывается страница 404, или вовсе пустой экран. У вас на сайте не должно быть битых ссылок. Проверить их можно с помощью программы Xenu.

Настроена страница 404

И все же, по чистой случайности, на вашем сайте оказалась битая ссылка, и пользователь перешел по ней, ему должна отобразиться страница с ошибкой, мол материал не найден. Это называется страница 404. А называется она так, потому что, ответ этой страницы должен возвращаться 404. Если ответ возвращается другой, то это плохо. Для продвижения сайта, страница с ошибкой, должна возвращать ответ 404. Проверить свой сайт можно тут: Yandex Tools Server Response , введите адрес несуществующей страницы вашего сайта, и если ответ 404, то у вас все хорошо.

Нет сквозных внешних ссылок

Плохо когда на вашем сайта, есть ссылки на другой сайт. Мы сейчас говорим о тех ссылках, которые находятся на каждой странице. Например если вы опубликовали статью, и в ней есть ссылка на другой сайт, то это ничего страшного. Но когда на вашем сайта, например внизу в футере, указана ссылка на разработчика, и она не закрыта от индексации, это очень плохо. Дело в том, что каждая ссылка на сайте, передает определенный вес (рейтинг) другой странице или сайту в ущерб себе. А чем ниже такой рейтинг, тем ниже находится сайт в поисковых системах.

Наличие SSL сертификата

Всего несколько лет назад, поисковики стали обращать внимание на наличие SSL Сертификата на сайте. Сам сертификат SSL позволяет пользователям безопасно пользоваться вашим сайтом, шифруя данные перед отправкой и получением. Поисковики борятся за безопасность использования, а это значит, что SSL Сертификат необходим, чтобы сайт, в глазах поисковых систем, был достоин того, чтобы находиться выше других сайтов конкурентов.

Недорого SSL Сертификат можно купить тут: REG.RU

Подробнее о работе SSL сертификата мы писали в этой статье: http://kaspor.ru/blog/ssl-certificate

Понравилась статья? Поделись с друзьями:

Так же из блога:

советы / маркетинг

Техническая оптимизация (доработки) сайта

Энциклопедия поискового продвижения Ingate

        Ваш запрос успешно отправлен

Ваш запрос не отправлен

Выполнение технических доработок – самый первый и наиболее важный этап поисковой оптимизации сайта. Обычно эта процедура проводится только один раз, перед стартом продвижения. В дальнейшем возможна корректировка некоторых технических составляющих сайта.

Техническая оптимизация сайта (технические доработки) – это комплекс мер, направленных на корректировку технических аспектов сайта, с целью улучшить его взаимодействие с роботами поисковых систем.

Основная задача технической оптимизации – обеспечить максимально полную и быструю индексацию страниц сайта. Без проведения технических доработок эффективное продвижение сайта значительно усложняется или вовсе становится невозможным.

Обратите внимание, что в «Энциклопедии поискового продвижения» мы не даем инструкций по технической доработке сайта, а рассказываем о наиболее распространенных проблемах и способах их решения. Эта информация поможет вам правильно поставить задачу веб-разработчикам. Вносить технические изменения в сайт должны специалисты, обладающие необходимыми знаниями и умениями. Неквалифицированное вмешательство в код сайта способно привести к его полной неработоспособности.


Здесь и далее мы рассматриваем решения для сайтов, которые обслуживаются HTTP-сервером Apache, поскольку, по данным исследовательской компании Netcraft, этим типом сервера обслуживается более 60% всех сайтов в мире.

Технические доработки сайта делятся на следующие группы:

  • Устранение проблем хостинга и оптимизация кода. Чем ненадежнее хостинг и чем больше мусора в коде, тем дольше грузится страница. Это отрицательно влияет на поведенческие факторы. Именно по этой причине следует оптимизировать код и устранить проблемы с хостингом, дополнительно исправив ошибки, возникающие в разных браузерах.
  • Настройка редиректов и статус-кодов. Данные процедуры следует провести для настройки зеркал, склейки дублей страниц, настройки корректной обработки 404 ошибки. В случае стандартного PHP-хостинга перенаправления (редиректы) настраиваются в файле .htaccess. Обработка 404 ошибки поможет избежать дублей на сайте.
  • Сопутствующие настройки сайта. Корректно составленный файл robots.txt поможет запретить или разрешить индексацию страниц, дублей и разделов сайта, указать основное зеркало. Файл sitemap.xml поможет поисковику проиндексировать все страницы быстро и качественно.
  • Внутренние корректировки страниц сайта. Если навигация сайта или страницы целиком построена на технологии Flash, это значительно усложнит индексацию содержимого сайта или даже сделает её невозможной. Внутренние корректировки страниц сайта направлены на то, чтобы продублировать Flash, Frame, JavaScript элементы на HTML.
  • Настройка URL страниц. Из двух видов адресов страниц, псевдостатических и динамических, оптимальными в поисковой оптимизации считаются псевдостатические адреса. Их настройка производится в файле .htaccess. При этом очень важным моментом является корректная настройка редиректов со старых URL на новые.
  • Устранение дублей страниц и аффилиатов. Этот процесс требует особого внимания, так как наличие копий на сайте, как внутренних, так и внешних, может привести к наложению санкций со стороны поисковых систем. Работа с аффилиатами – это долгий и трудоемкий процесс, особенно если продвигаемый сайт уступает аффилиату.
  • Прочие технические доработки. Помимо перечисленного и в зависимости от сайта также приходится работать с удалением входной неинформативной страницы, устранением страниц с идентификаторами сессий, исправлением битых ссылок и другими техническими доработками.

Пренебрежительное отношение к технической оптимизации не дает многим хорошим сайтам достичь ТОПа.

Правильное и полное выполнение всех необходимых технических доработок является залогом корректной и быстрой индексации страниц сайта популярными поисковыми системами.

Вернуться назад: Этапы оптимизации Читать далее: Устранение проблем с хостингом и оптимизация кода сайта

 

 

 

как перечеркнуть все старания на пути к ТОПу? — Devaka SEO Блог

Все работы по кропотливой оптимизации сайта могут быть перечеркнуты досадными техническими ошибками, которые помешают:

  • Проекту — быть полноценно проиндексированным.
  • Поисковому роботу — понимать структуру сайта.
  • Пользователям — быстро найти нужную информацию.
  • А алгоритму — правильно ранжировать документы.

На борьбу с многочисленными техническими ошибками и направленна данная обзорная статья.

Дмитрий Севальнев о технической оптимизации сайта

Основные требования к сайтам всех типов

К основным требованиям для сайтов всех типов и размеров относятся приведенные ниже рекомендации, которые отсортированы в порядке их важности и относительной встречаемости в интернете:

1. Настройка 301-редиректа с неглавного зеркала сайта с «www» (или без «www») на главное.

Две статьи руководства по теме:
http://www.pixelplus.ru/studio/stat/kak-sdelat-301-redirekt/,
https://devaka.ru/articles/redirect-301.

Проверить код ответа сервера любого документа в сети можно с помощью сервиса: http://bertal.ru/ (пригодится и в дальнейшей работе).

2. Установка 301-редиректов с прочих неглавных зеркал сайта на основное (скажем, с доменного имени «www.pxpl.ru» на «www.pixelplus.ru»).

Особое внимание следует уделить тестовым доменам, выделяем на хостинге для настройки вида «http://domain.nichost.ru/», «http://domain.1gb.ru» и аналогичным.

3. Создание и настройка файла robots.txt. Рекомендуется разделить правила для Яндекса и других поисковых систем из-за обработки различных директив (скажем, директиву «Host:» поддерживает только Яндекс, а для Google она является некорректной).

Анализ корректности файла и доступности страниц по ссылке: https://webmaster.yandex.ru/robots.xml.

4. Каждой странице на сайте установлен уникальный тег Title и meta-тег Description отражающие её содержимое.

Проверка уникальности тега Title и meta-тега Description может быть автоматизирована. Здесь мы не затрагиваем вопросы того, как корректно заполнять данные зоны документа, а лишь рассматриваем технический аспект.

Данное требование также относится к страницам постраничной навигации.

5. Настройка ЧПУ для продвигаемых страниц сайта. Оптимально — настроенное ЧПУ для всех страниц сайта.

Проверка качества созданного ЧПУ: предоставляем только URL-адрес странице коллеге и просим его описать, чему посвящена страница?

6. Создать и проверить корректность работы 404-ошибки. Код ответа данной страницы должен быть «404 Not Found».

404-ошибка должна выводиться для ошибочных URL-адресов во всех разделах сайта. Оформить страницу необходимо в дизайне сайта. Также — не производить переадресацию при попадании на несуществующий URL и помочь пользователю быстро найти нужную страницу на сайте (вывести основные ссылки, форму поиска).

7. Проверить коды ответов сервера всех страниц на сайте посредством сканирования проекта. Все страницы доступные по ссылкам должны отдавать код ответа «200 OK».

Помогут программы:

— Page Weight
— Netpeak Spider
— И аналоги

Соответственно, в случае изменения адреса страницы и простановки 301-редиректа, требуется также скорректировать URL для внутренних ссылок на сайте, чтобы они сразу вели на конечную цель.

8. Проверить время загрузки сайта и размер страницы в КБ. Рекомендованные показатели: до 0.7 сек (700 мс) для времени скачки исходного кода документа, до 0.2 сек (200 мс) для времени ответа сервера и до 120 КБ для размера исходного кода.

Помогут сервисы:

— http://pr-cy.ru/speed_test/
— https://developers.google.com/speed/pagespeed/insights/
— И другие…

9. Проверить наличие на всех страницах и единственность тега главного текстового заголовка h2.

Содержимое тега — должно ёмко отражать суть текста.

10. Проверить, что теги h2-h6 не используются как элементы дизайна или оформления сайта.

Негативные примеры, h2: Телефон.
Сквозной h2-h4: Новости, Акции.

11. Проверить аптайм сервера по отчетам средств статистики. Нормальный показатель: от 99,85% и выше.

12. Создать уникальный и привлекающий внимание favicon.ico и загрузить его в корень сайта.

13. На страницы закрытые от индексации в файле robots.txt требуется скрыть ссылки (посредством AJAX) для корректного распределения статического веса внутри сайта. Так, чтобы в исходном коде документов отсутствовали фрагменты вида «a href=“…» для ссылок на данные страницы.

Сам скрипт также требуется закрыть от индексации.

14. Требуется вынести большие фрагменты JS и CSS в отдельные подключаемые файлы соответствующего типа. Удалить временные комментарии. Это ускорит скачку и интерпретацию кода паукам и браузерами.

К «большим» относятся JS и CSS фрагменты в 8-10 строк и более и комментарии более 3-5 строк.

15. Проверить вёрстку на отсутствие незакрытых парных тегов. Это минимальное требование валидности кода (если строка таблицы «tr» открывается, то она должна закрываться «/tr» и т.д.).

16. Убедиться в корректности отображения основных страниц сайта во всех популярных браузерах. Особое внимание уделить (в порядке доли браузеров): Google Chrome, Android Browser, Mobile Safari, Firefox, Яндекс.Браузер, Opera (Blink).

17. Настройка 301-редиректов со страниц вида «index.php», «index.html», «default.html», на страницы без них (в корень папки, скажем, с «/dir/index.php» на «/dir/»).

18. Настройка 301-редиректа со страниц без слеша на конце «/», на страницы со слешем «/» на конце URL (или, наоборот, в зависимости от настроек CMS и сервера).

19. Настройка 301-редиректа с версии с «https» на основную версию сайта с «http» (или наоборот) в случае её доступности и дублирования.

На текущий момент, поисковые системы стали по умолчанию проверять доступность для индексации версии с «https», что может приводить к дублям контента по разным хостам.

20. Закрытие от индексации страниц входа в CMS-систему вида «/bitrix», «/login», «/admin», «/administrator», «/wp-admin» в файле robots.txt.

Помогает директива Disallow вида:

Disallow: /bitrix
Disallow: /login
Disallow: /admin
Disallow: /administrator
Disallow: /wp-admin

21. Скрыть от индексации страницы с индикаторов «PHPSESSID=», «session_id=» сессий в файле robots.txt.

Важно учесть, что указания в файле robots.txt являются регистрозависимыми. Помогут директивы:

Disallow: *PHPSESSID=
Disallow: *session_id=

Актуальность проблемы подтверждается приличным числом подобных страниц в индексе поисковой системы Яндекс:

Дубли PHPSESSID в индексе Яндекса

22. Создаем карту сайта sitemap.xml с указанием всех страниц сайта и проверяем её на валидность (https://webmaster.yandex.ru/sitemaptest.xml). Если число страниц превышает 50 000, то потребуется создать несколько карт.

Саму карту рекомендуется загрузить непосредственно в панели Вебмастера Яндекса и Google и не указывать в файле robots.txt.

23. Всем внешним ссылкам прописываем открытие в новой вкладке с помощью target=”_blank”. Если требуется не допустить передачу статического веса по ряду ссылок, то скрываем их от сканирующего робота с помощью AJAX.

24. Открыть и проверить корректность сохраненной копии ряда ключевых страниц сайта. Обратить внимание на кодировку, дату сохраненной копии, полноту кода.

25. Требуется произвести закрытие от индексации служебных папок вида «cgi-bin», «wp-icnludes», «cache», «backup» в файле robots.txt.

26. Неинформативные файлы (вида *.swf) или пустые *.doc и *.pdf файлы требуется закрыть от индексации в файле robots.txt.

Если файлы *.doc и *.pdf являются полезными и несут ценную информацию — их не скрывают от индексации.

Дополнительные требования: для интернет-магазинов, сайтов с поиском, авторизацией

Для более сложных с технической точки зрения проектов с авторизацией, внутренним поиском сортировками товаров и т.д. появляется целый ряд дополнительных требований для корректной индексации:

27. Рекомендуется настроить rel=“canonical” для устранения дубликатов страниц и корректного учёта всех поведенческих и ссылочных метрик документов.

Данная рекомендация оправдана и для небольших/простых сайтов, но из-за определенных трудностей её реализации она часто остаётся лишь рекомендацией.

Вспомогательный материал: http://www.pixelplus.ru/samostoyatelno/otvety-na-voprosy/vnutrennyaya-optimizaciya/291384.html

28. Для улучшения индексации и уменьшения объема передаваемого «холостого» трафика необходимо настроить корректную работу сервера и возвращать 304 код ответа при запросе с If-Modified-Since, если документ не был изменен с последнего захода пользователя (поискового робота).

Внедрение данной рекомендации позволяет повысить полноту индексации сайта за счёт экономии времени краулера и отсутствия необходимости скачивать неизмененный документ повторно.

Необходимо также выдавать корректную дату модификации документа в заголовке Last-Modified совместно с 304 кодом ответа сервера на запрос с If-Modified-Since, если документ не менялся с указанной даты.

29. Требуется скрыть от индексации страницы различных сортировок, фильтраций, если на них не настроена оптимизация и ЧПУ для привлечения трафика по НЧ-запросам. Сами ссылки скрыть посредство AJAX.

30. Страницы авторизации, смены пароля, оформления заказа и т.д. требуется закрыть от индексации в файле robots.txt: «?basket&step=», «register=», «change_password=», «logout=».

31. Результаты поиска «search», «poisk» требуется закрыть от индексации в файле robots.txt.

32. Версию для печати вида: «_print», «version=print» и аналогичные, требуется закрыть от индексации в файле robots.txt.

33. Страницы совершения действия вида «?action=ADD2BASKET», «?action=BUY» требуется закрыть от индексации в файле robots.txt.

34. Разделы с дублированным контентом, скажем, RSS-фиды требуется закрыть от индексации в файле robots.txt: «feed», «rss», «wp-feed».

Важные замечания

А. В качестве альтернативы файла robots.txt можно использовать meta-тег name=“robots” со значениями полей «content=“noindex, follow“». Данное указание соблюдается поисковыми системами более чётко, но требует чуть более сложной настройки.

Б. Корректно настроенный атрибут rel=“canonical” для тега <link> помогает:

Существенно упросить настройку индексации сайта.
Корректно учитывать и склеивать поведенческие и прочие метрики на дублирующих страницах, скажем, страницах с UTM-метками. Особенно, при проведении рекламных кампаний.

Данные преимущества позволяют рекомендовать его к использованию на сайтах.

(!) В поисковой системе Яндекс rel=“canonical” до сих пор не всегда отрабатывает корректно, что приводит к отсутствию «склейки» ряда поведенческих и ссылочных фактов для двух страниц. В данном случае надежней оказывается использование 301-редиректа.

В. Обратите внимание, что скрытие ряда разделов через файл robots.txt без скрытия ссылок на них, может приводить к некорректному распределению статического веса на сайте.

Г. Даже после детальной настройки индексации, рекомендуется производить регулярный мониторинг попадания дублей контента в индекс поисковых систем с использованием операторов цитатного поиска (кавычки) и оператора «site:».

Часто, полезным также оказывается оператор «title:» для поиска документов с одинаковыми тегами. Пример запроса приведен ниже (для случайного сайта):

Поиск точного вхождения длинной фразы в тег TITLE

Д. Довольно элегантным решением проблемы дублей с GET-параметрами в URL является использование только документов с ЧПУ на всём сайте, совместно с директивой «Disallow: *?*» в файле robots.txt.

Данная директива не допускает к индексации страницы с любыми GET-параметрами. Однако её использование можно рекомендовать только в случае отсутствия трафика на страницах с UTM-метками. Если же на вашем сайте имеется приличный объем трафика на страницах с UTM-метками или прочими необходимыми GET-параметрами, то рекомендуется настроить атрибут rel=“canonical” для тега <link>, а сами страницы открыть для индексации.

Выводы

Ошибки, допущенные при проведении технической оптимизации сайта, попадание дублей страниц в индекс, как и выпадение нужных страниц из базы поисковых систем — перечеркивает все усилия по пути к ТОПу.

Мы постарались собрать воедино большое число «мелких», но чрезвычайно значимых работ. Данный список SEO-специалист может использовать в своей повседневной работе как чек-лист, ведь грамотная техническая оптимизация сайта — является фундаментом продвижения.

Удачи в настройке проектов и продвижению сайтов на лидирующие позиции!

Техническая оптимизация и доработка сайта

Техническая оптимизация сайта или доработки для быстрой индексации сайта.

Техническая оптимизация сайта или доработки для быстрой индексации сайта.

Техническая оптимизация сайта — полный перечень технических доработок. Вывод сайта в ТОП-10 PS Google and Yandex. Корректировка и исправление существующих ошибок, которые могут повлиять на продвижение сайта в поисковых системах. Без проведения грамотной технической оптимизации и доработок, эффективность направленных на продвижение действий сводиться к нулю. Давайте рассмотрим все необходимые действия, которые необходимо учесть.

Содержание статьи:

Техническая оптимизация и доработка сайта

Комплекс мер, направленных на корректную доработку важных технических аспектов сайта. Основной целью которых является:

  1. Полноценное индексирование в поисковых системах.
  2. Правильное ранжирование документов.
  3. Простая эффективная структура! Которая позволит поисковому боту, быстро достичь нового документа и понять его.
  4. Грамотная структура — удобство переходов между страницами.
  5. Навигация для лучшего взаимодействия пользователей с необходимой информацией. Позволит посетителю быстро найти нужный документ.

Правильно проведенная работа над ошибками, позволит значительно улучшить показатели сайта. Поспособствует:

  • Быстрой индексации страниц сайта;
  • Значительному улучшению позиций большинства страниц;
  • Уменьшению показателя отказов;
  • Приросту аудитории;
  • Равномерному распределению веса между документами;
  • Уменьшению времени отклика и прочих немало важных аспектов. Влияние которых зависит от технической оптимизации сайта.

Техническая оптимизация сайта: полный чек — лист

Это самый первый и наиболее важный этап поисковой оптимизации сайта.

Это самый первый и наиболее важный этап поисковой оптимизации сайта.

Важно понимать, что все ваши действия должны начинаться именно с начала.  Двигаясь только в перед до конечных вариантов ошибок. Которые не оказывают серьезного влияния на сайт. Некорректное внесение исправлений в код или прочие элементы сайта, может привести к фатальным ошибкам. Обдумайте и проверьте все доработки несколько раз, прежде, чем внести изменения на работающем сайте.

Оптимизация работы хостинга и сервера

Хостинг оказывает одно из самых критических влияний на сайт. Плохое программное обеспечение или низкое количество выделенных ресурсов для работы. Приведет к серьезным последствиям на сайте.

  1. Установите качественное программное обеспечение или готовый хостинг.
  2. Обеспечьте достаточное кол-во выделенных ресурсов для сайта. Объемы памяти RAM, HDD, SSD.
  3. Следите за актуальность версий, программного обеспечения хостинга — PHP,  баз данных и прочих.
  4. Абсолютно все страницы сайта, должны отдавать код ответа сервера 200 ОК.

Помочь могут следующие сервисы:

  • Google PageSpeed;
  • Инструменты Pingdom;
  • GTmetrix;
  • Яндекс веб-мастер.

Установка и настройка необходимых 301-редиректов и кодов ответа для избежания дублей страниц

Такие меры нужны для корректного указания основного зеркала сайта. Правильной обработки 404 ошибок и уменьшению дублей документов сайта в поиске.

  1. 301 — редирект  с «www» (или без «www») на основное зеркало сайта.
  2. 301 — редирект с других зеркал на основное (если таковые имеются).
  3. Настройте 301 — редиректы на URL со слешем «/» в конце или наоборот без него.
  4. Обязателен 301 — редирект с  «http» на «https» или наоборот, зависит от версии сайта. Редирект поможет избежать дублирования контента.
  5. Создание страницы 404 — для несуществующих URL. Такая страница должна передавать код ответа 404 Not Found. Страницу 404 оформляют под дизайн проекта, а также организуют удобную структуру на ней. Это позволит посетителям быстро отыскать информацию на сайте, а не покидать его.

Оптимизация скорости загрузки сайта — HTML, CSS, JS и графики

В 2019 году скорость загрузки сайта, будет также востребованной поисковиками. Влияние этого показателя на ранжирование сайта одно из самых значимых в поисковом продвижении.

  1. Оптимизируйте Html код страниц — проверьте верстку на отсутствие незакрытых тегов. Это хорошо улучшит валидность документа. Html код должен быть чистым и иметь небольшой вес.
  2. CSS и JS — значительно влияют на скорость загрузки документа. Их нужно сжать и объединить как отдельные подключаемые файлы. Так увеличится скорость их обработки и загрузки визуальных элементов в браузере.
  3. Оптимизация графики — картинки нужно с начало обработать и сжать перед загрузкой на сайт. Будьте внимательны и следите за качеством изображения после сжатия.
  4. Ответ сервера должен быть в пределах 0.200 мс.
  5. Общее время загрузки сайта не должно превышать 0.700 мс.

Организация качественной структуры сайта, навигации и правильных ЧПУ

Структура сайта и его навигация значимый фактор. Он влияет на показатели отказов, индексацию и передачу веса между страницами.

  1. Структура сайта должна быть простой и иметь глубину не более 4 кликов. Пользователю должно быть удобно перемещаться по страницам.
  2. Создайте главное меню для обеспечения доступа к основным разделам.
  3. Сделайте перелинковку между страницами.
  4. Используйте метки и постраничную навигацию.
  5. Добавьте дополнительную страничку, имеющую всю структуру проекта. Так посетитель быстро отыщет важную информацию. А ПС — бот быстро проиндексирует новый контент.
  6. Настройка ЧПУ сайта — такие url, должны полностью отображать смысл заголовка страницы и быть понятными человеку.
  7. Рекомендуется использовать rel=“canonical”, для избавления от большинства дубликатов контента сайта. Позволяет указать поисковикам на оригинал документа. Таким образом, все копии оригинала страницы не будут учитываться поисковой системой.

Файлы robots.txt, sitemap.xml и .htaccess

Инструкции прописанные в этих файлах, помогут П — боту корректно индексировать страницы проекта. Все три файла должны находится в корневой директории.

  1. Robots.txt — позволяет указать правила индексации многочисленным поисковикам. В этом файле устанавливают запреты на служебные разделы, страницы дубли, поиск и прочие.
  2. Sitemap.xml — необходим для быстрой индексации. Должен иметь полную идентичную структуру сайта. Обеспечивая быстрый обход П — ботом новых или измененных страниц.
  3. .htaccess — позволяет указать правила для сервера. Неправильно прописанные правила! Приведут к фатальным ошибкам с серверной стороны! Этот файл позволяет сделать следующее:
    • в .htaccess можно указать большинство правил переадресации на сайте;
    • настроить сжатие большого количества форматов файлов со стороны сервера;
    • установить правильное хеширование документов в браузерах;
    • установить некоторые правила безопасности;
    • и прочие.

Дополнительные рекомендации по оптимизации сайта

К таким рекомендациям можно отнести действия, которые несут второстепенный характер. Но несут не мало важную роль в оптимизации сайта. Эти дополнительные доработки, также улучшат ранжирование сайта и поведенческие факторы.

  1. Тег h2 единственный и не может повторяться на странице.
  2. h2-h6 не должны быть элементами стилистического оформления и дизайна.
  3. На страницах находятся только полностью уникальные теги Title и Description. Которые отражают суть страницы.
  4. Создайте привлекательный Favicon.
  5. Внешние ссылки, должны открываться в новой вкладке.
  6. Закройте от индексации страницы входа в админку. Директивой Disallow в файле robots.txt.
    • Также это касается служебных папок: cgi-bin, wp-icnludes.
    • Страниц регистраций, входа: register=, logout=.
    • Результаты поиска: search.
    • Rss избегая дублирования контента: feed», wp-feed.
  7. Используйте дополнительное меню в статье «Содержание», для навигации в статье.
  8. Сайт должен иметь оптимизированную мобильную версию.
  9. Необходима версия AMP — для мобильного поиска.
  10. Также рекомендуется настроить TURBO страницы, для поисковой системы Яндекс.
  11. Шрифт документа должен быть виден пользователю.
  12. Избегайте большого количества выделений в тексте.
  13. Не ставьте большое количество рекламных блоков на сайте. Поисковые системы могут негативно отреагировать на кучу рекламы, как в прочем и пользователи.

Это были все самые нужные доработки сайта. Надеюсь эта статья будет Вам полезна.


  • Читайте статьи по этой теме:

 

Насколько полезным был этот пост?

Нажмите на звезду, чтобы оценить пост!

Отправить

Средний рейтинг / 5. Подсчет голосов:

Я сожалею, что этот пост не был полезен для вас!

Давайте улучшим этот пост!

Расскажите, как я могу улучшить этот пост?

Отправить отзыв

Спасибо за ваш отзыв!

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *