SEO-чеклист по внутренней оптимизации сайта на 34 пункта
Сегодня я покажу вам как при помощи нашего чек-листа сделать полный SEO аудит сайта по внутренней оптимизации. Этот чек-лист помогает нам значительно сократить время для выполнения полного анализа сайта и не пропустить важные моменты.
Мы подробно расписали все пункты, так чтобы без глубоких познаний в технической стороне оптимизации, Вы могли справиться с процессом. Поэтому, если Вы хотите улучшить свои позиции в Google в 2020 году, Вам стоит использовать представленную информацию и чек-лист.
Также доступна версия чек-листа в формате google spreadsheet для наших подписчиков, если вы еще не подписались на наш блог, подпишитесь и получите бесплатно удобный чеклист, который сможете использовать для оптимизации ваших сайтов.
Для понимания всех задач и чем они так важны для продвижения, давайте детально рассмотрим каждый из пунктов чек-листа.
1. Для всех страниц задать Title, Description, H1
Рассмотрим особенности каждого из тегов по-отдельности.
Title
Тег title является наиболее важным элементом ранжирования страниц. Ключевые слова в заголовках страниц могут помочь вашим страницам занять более высокие позиции в поисковой выдаче Google.
Для формирования оптимизированного и в тоже время привлекательного title рекомендуется:
- Использовать ключевые слова как можно ближе к началу.
- Использовать не более 8 слов или 55-65 символов.
- Для каждой страницы должен быть свой, уникальный title.
- Использовать название вашего бренда в конце title.
- По возможности использовать спец. символы и призыв к действию (Купить, Сравнить, Заказать, …)
- Не повторять одни и те же ключевые слова более двух раз.
Description
Тег description согласно Google не является фактором ранжирования. Однако, сформировав привлекательный description возможно значительно повысить показатель кликабельности (CTR, соотношение количества показов к количеству кликов по нашей ссылке из результатов выдачи), что в свою очередь может повлиять на рост позиции в выдаче.
Для формирования привлекательного description рекомендуется:
- Использовать не более 156 символов.
- Перечислить преимущества товара или услуги которую вы продаете.
- Использовать ключевую фразу.
- Использовать эмодзи иконки, для привлечения внимания.
- Для каждой страницы должен быть свой уникальный description.
Запомните: Формируйте description таким образом, чтобы пользователь захотел кликнуть по вашей ссылке.
H1
Тег h1 используется для того, чтобы сообщить Google главную тему вашей страницы.
Здесь достаточно будет прописать название услуги, категории, товара. Не нужно перегружать Н1 и добавлять все ключевые запросы в один заголовок, за это могут быть санкции от Google.
Тег <h1> не должен дублировать тег <title>.
Для проверки Title, Description, H1 (TDH1) мы используем Screaming Frog SEO Spider.
В этом пункте мы проверяем TDH1 сайта на наличие дублей и страниц на которых эти теги отсутствуют. Далее, формируем отдельные таблицы для автогенерации тегов, а также создаем теги для страниц, на которые необходимо внести теги вручную.
1.1. Автогенерация
Если ваш сайт содержит много страниц, например у вас интернет-магазин или сайт с большим количеством предоставляемых услуг, то в этом случае нет необходимости вносить TDH1 на все страницы вручную. Достаточно будет настроить автоматическую генерацию метатегов согласно шаблонов для различных типов страниц.
Для интернет-магазинов обычно достаточно создать шаблоны для страниц категорий, подкатегорий, товаров, новостей, статей и статических страниц.
Для наглядности мы сделали таблицу. Для того, чтобы появилась возможность редактировать файл, необходимо создать копию.
Для сайтов услуг все делается по аналогии.
1.2. Вручную
При создании TDH1 вручную воспользуйтесь рекомендациями указанными выше. Можете воспользоваться нашим шаблоном для наглядности. Он доступен по ссылке.
2. Добавить хлебные крошки для лучшей навигации
Гензель и Гретель использовали хлебные крошки, чтобы найти дорогу домой, для этой же цели их применяют на сайтах. Они помогают пользователям понять где они находятся и упрощают навигацию по сайту.
Хлебные крошки могут улучшить опыт использования сайтом для пользователя и помочь поисковым системам сформировать четкую картину структуры сайта.
Еще одним их преимуществом является то, что они уменьшают количество действий и кликов, которые пользователь должен выполнить на странице. Вместо того, чтобы ходить туда, обратно, пользователь может сразу перейти на интересующую его категорию.
3. Внести изменения в файл robots.txt
Файл robots.txt используется для частичного управления индексированием сайта поисковыми роботами. Этот файл состоит из набора инструкций для поисковых машин, при помощи которых можно задать файлы, страницы или каталоги сайта, которые не должны индексироваться.
Инструкции по оформлению файла от Google по ссылке.
Для формирования файла robots.txt для сайта мы сканируем сайт используя Screaming Frog SEO Spider и смотрим в пункте “Internal>All” найденные страницы, каталоги, файлы. Далее закрываем:
- административную часть сайта
- страницу результатов поиска по сайту
- страницы с дублирующем контентом (страницы фильтров категорий товаров)
- страницу корзины
- динамические страницы товаров и услуг
Для сайтов услуг, в большинстве случаев, достаточно будет закрыть админ часть сайта и страницу результатов поиска.
Важно: Файлы стилей (.css), скриптов (.js), изображения (.jpg, .png) должны быть не заблокированы в robots.txt, иначе поисковый робот не сможет проиндексировать заблокированные элементы, что в свою очередь может негативно отразится на позициях в выдаче.
4. Закрыть от индексации ссылки на сторонние сайты
После сканирования сайта Screaming Frog SEO Spider в разделе “External” мы сможем увидеть все внешние ссылки находящиеся на сайте. Мы рекомендуем добавлять тег rel=”nofollow” ко всем внешним ссылкам.
Мета тег rel=”nofollow” сообщает поисковым системам не переходить по ссылке (и тем самым не передавать pagerank), к которой он добавлен.
Справка от Google по данной теме.
5. Удалить из индекса ненужные страницы
Если сайт добавлен в Google Search Console (GSC), переходим в раздел “Индекс-Покрытие”
Далее выбираем “Страница без ошибок” и нажимаем “Экспортировать данные”
В полученном списке ищем страницы, которые мы не хотим видеть в индексе. Это могут быть страницы админ части сайта, страницы результатов поиска, динамические страницы товаров и услуг.
Есть еще один способ получить список страниц находящихся в индексе, даже если нет доступа в GSC.
Заходим в Google необходимо в поисковой строке вводим site:site.ua, где site.ua меняем на имя вашего сайта.
Для того, чтобы “достать” все страницы, находящиеся в индексе необходимо:
- Добавить &num=100 в конец адресной строки (для того, чтобы выводилось не 10 результатов, а 100)
- Скопировать код:
javascript:var b=window.open("","w"+String(Math.random()).slice(-6));b.document.writeln("<pre>");[].forEach.call(document.querySelectorAll(".g:not(#imagebox_bigimages)"),function(a){(a=a.querySelector(".r > a"))&&(a.hasAttribute("data-href")?b.document.writeln(a.getAttribute("data-href")):a.hasAttribute("href")&&b.document.writeln(a.getAttribute("href")))});
И добавить в закладки
- Находясь на странице выдачи нажать на только что сохраненную закладку.
- Должна открыться новая вкладка со списком страниц.
- Если страниц больше 100, необходимо будет переходить на следующие страницы выдачи и повторять пункт 3.
Если сайт небольшой и страниц в индексе не много, можно пройтись глазами по списку для проверки наличия ненужных страниц в индексе.
Если страниц много, можно скопировать все ссылки и вставить их в эксель, где намного проще возможно будет определить нужные и ненужные страницы.
В индексе должны быть только те страницы, которые потенциально могут приносить трафик на сайт.
6. Устранить возможные аффилиаты
Могут возникнуть такие ситуации когда Вы или Ваш клиент решили, например, когда основной сайт уже достаточно хорошо ранжируется, сделать копию или похожий сайт для того, чтобы вывести и его в ТОП и получать дополнительный трафик. Такие сайты называются аффилиатами (от английского affiliate – филиал, отделение), являются собственностью одного владельца.
Так как такие сайты по мнению Google не предоставляют пользователям каких-либо новых сведений, то к ним применяют специальные фильтры. В итоге могут пострадать оба сайта.
Мы проверяем наличие сайтов аффилиатов в индексе по 3 основным критериям.
6.1. Найдены в индексе по номеру телефона
Смотрим результаты выдачи по номерам телефонов.
6.2. Найдены в индексе по адресу
Смотрим результаты выдачи по адресам, указанных в контактных данных.
6.3. Находятся на одном и том же IP что и продвигаемый сайт
Для того, чтобы узнать IP адрес сайта переходим по ссылке, вводим имя домена, нажимаем “Узнать”.
Полученный IP адрес копируем и вставляем в адресную строку. Если при переходе по IP адресу отображается ваш сайт, добавляем задачу в ТЗ для программистов для настройки 301 редиректа с IP адреса на основной сайт.
7. Исправить структуру URL и уровня вложенности
По URL пользователь должен понимать, где находится, а поисковая система должна видеть вложенность страниц между разделами и принадлежность страницы к определенному типу.
Распределение страниц по уровням вложенности играет важную роль в управлении статическим весом.
Самыми оптимальными вариантами формирования URL будут следующие варианты:
{Домен}/{Раздел}/{Подраздел}/{Товар} — если товары не повторяются в разных категориях
{Домен}/{Родительская категория}/{Товар} — если товары повторяются в разных категориях
8. Оптимизировать изображения
Оптимизация изображений сократит время загрузки страниц. Скорость загрузки является фактором ранжирования страниц в выдаче для мобильных устройств.
В этом пункте предоставляем программистам список адресов картинок (а также где они находятся), размер которых превышает 100 кб. Для того, чтобы они максимально их ужали с минимальной потерей качества.
Список получаем из Screaming Frog. В верхнем меню выбираем “Bulk Export>All Images”
В полученном файле столбец D сортировать по убыванию и копируем данные столбцов B, C, D.
где в столбце B — адрес страницы на которой находится изображение, в столбце C — адрес изображения, в столбце D — размер изображения.
9. Оптимизировать скорости загрузки страниц
Скорость загрузки важна для всех сайтов, в особенности для мобильных. Медленная загрузка отрицательно влияет на эффективность сайта – на показатель отказа, коэффициент конверсии и уровень удержания. Также увеличивается число пользователей, которые покидают страницу. Кроме того, медленная загрузка снижает эффективность поискового робота Google, поэтому на индексирование веб-страниц уходит больше времени. Это плохо как для владельца сайта, так и для пользователей.
В этом пункте используя сервис от Google https://developers.google.com/speed/pagespeed/insights/ мы проверяем основные типы страниц сайта. если это интернет-магазин — проверяем главную страницу, страницу категории, страницу товара. Для сайтов услуг проверяем — главную страницу, страницу услуги.
Здесь достаточно будет провести замеры скорости основных конкурентов и вывести сайт на их уровень. Не обязательно требовать от программистов выводить сайт на показатель 100%.
10. Исправить ошибки адаптивности
Ситуация аналогична пункту оптимизации скорости загрузки.
Используя сервис https://search.google.com/test/mobile-friendly проверяем основные типы страниц. Тут важно исправить все ошибки выдаваемые сервисом.
11. Исправить иерархию и структуру заголовков h1, h2, h3 и т. д.
Для того, чтобы поисковик лучше понимал о чем наша продвигаемая страница, текст в заголовках Н1, Н2, Н3, … должен быть релевантен содержанию страницы.
11.1. Несколько Н1
На каждой странице должен быть только один заголовок Н1. Существует мнение, что Google не обращает внимание на количество заголовков Н1 на странице, но для того, чтобы не вводить поисковую систему в заблуждение рекомендуем использовать только один заголовок Н1 на странице.
Наличие нескольких заголовков покажет нам Screaming Frog SEO Spider.
11.2. В заголовках Н2, Н3, Н4 и т.д. нерелевантный текст
Часто разработчики при создании сайтов заголовки различных блоков оформляют в заголовках Н2, Н3, Н4, … Это могут быть заголовки форм обратной связи, названия товаров на страницах категорий, …
Для проверки текстов в заголовках Н2, Н3, Н4, … мы просматриваем основные типы страниц (главная, страница категории, страница товара) и указываем в ТЗ, что в таких то заголовках нерелевантный текст и их необходимо вместо заголовков Н2, Н3, Н4, … оформить стилями.
12. Добавить сайт в Google Search Console
Google Search Console (GSC) незаменимый инструмент. Покажет, сколько и какие страницы в индексе, ошибки, ключевые слова по которым показывается сайт, ссылки на сайт, …
Добавить сайт в GSC достаточно просто. У вас должен быть Google профиль (если нету создать его тоже не составит труда), переходит по ссылке и далее по подсказкам добавляете сайт.
13. Перевод динамики в статику (ЧПУ)
На сайте не должно быть:
- динамически генерируемых страниц.
- страниц, URL адреса которых для пользователей не информативны.
Данные URL адреса должны быть приведены к человекопонятному виду.
ЧПУ адреса должны быть:
- приведены к статическому или псевдо-статическому виду;
- содержать четкое и лаконичное название разделов/подразделов сайта;
- иметь максимально естественное вхождение ключевых запросов;
- приведены к логическому структурному виду.
Самым оптимальным вариантом формирования ЧПУ URL адресов будет следующий вариант:
{Домен}/{Раздел}/{Подраздел}/{Товар}
Пример: https://site.ua/notebooks/gamer/asus-x570ud/
14. Настройка https протокола (Просмотреть в индексе урлы с http и https)
В этом пункте мы смотрим нет ли в индексе страниц как с http так и с https протоколами. Если сайт использует http протокол, то в индексе должны быть только страницы с http протоколом, если использует https протокол — только страницы с https протоколом должны быть в индексе.
Проверить урлы в индексе возможно при помощи команд:
- site:domain.com -inurl:https
- site:domain.com inurl:https
заменяем domain.com на имя вашего домена. Первая команда для сайтов, которые используют https протокол, второй — для сайтов, которые используют http протокол.
Если такие страницы есть в индексе создаем полный список таких страниц и передаем программистам для настройки 301 редиректа на нужную версию.
15. Задать региональную принадлежность
Если сайт не в доменной зоне .ua (например, .com), то задаем региональную принадлежность к Украине в Google Search Console.
Для этого переходим в старую версию GSC, выбираем пункт Поисковый трафик-Таргетинг по странам и языкам и на вкладке “Страна” задаем страну под которую планируем продвигать сайт.
16. Настройка страниц пагинации
Для корректной индексации сайта и для дальнейшего избежание проблемы с дублированным контентом, на страницах пагинации (постраничной разбивки) необходимо использовать атрибуты rel=»next» и rel=»prev».
Цель – указать поисковой системе на то, что на сайте дублируется контент ввиду специфики внутренней структуры сайта.
161. Добавить next prev
Справка от Google по этому вопросу https://support.google.com/webmasters/answer/1663744?hl=ru
16.2. Добавить noindex, follow
Для страниц начиная со второй добавить:
<meta name=»robots» content=»noindex, follow»/>
17. Удаление атрибута keywords
Google официально заявляет, что не использует мета тег keywords (<meta name=»keywords» content=»…»>) при ранжировании сайтов. По данному вопросу существует множество дискуссий и споров. Мы не заполняем это тег, а также проверяем на сайте его наличие. Если на страницах сайта этот тег заполнен, мы ставим задачу программистам убрать мета тег keywords со всего сайта.
Наличие тега keywords покажет программа Screaming Frog SEO Spider.
Выгружаем список страниц с тегом и передаем программистам для того, чтобы они его убрали.
18. Исправить 4хх ошибки
По ряду причин на сайтах могут возникать ошибки с кодами ответов 4хх (403, 401,…). Наличие таких ошибок негативно сказывается на поведенческих факторах, которые влияют на ранжирование. Также больше количество страниц с 4хх ошибками сигнализирует поисковику, о качестве сайта, что впоследствии может привести к понижению позиций в результатах поиска.
Находим страницы с 4хх ошибками при помощи программы Screaming Frog SEO Spider.
Это могут быть, например, внутренние ссылки на несуществующие страницы, страница удалена с сайта, некорректно работает сервер, ..
Далее идем в GSC и выгружаем данные по 4хх ошибкам. Переходим по пути “Сканирование-Ошибки сканирования” и выгружаем данные.
В зависимости от характера ошибки необходимо будет прописать варианты исправления ошибок. Варианты могут быть следующие:
- Исправить “битые ссылки”. Поправить код страницы на правильный URL адрес.
- Заменить 404 код ошибки на 410. При удалении страниц товаров или услуг, которые не будут возвращены на сайт необходимо настроить 410 ответ сервера при переходе по адресам таких страниц. Таким образом Google быстрее удалит такие страницы из индекса.
- Настроить 301 редирект при смене структуры URL или при смене движка. Без настройки 301 редиректов со старых страниц на новые появится много 404 ошибок.
19. Исправить 5хх ошибки
5хх ошибки — это ошибки сервера. При обнаружении таких ошибок поисковый робот замедлит сканирование всего сайта, а в худшем случае, если ошибки долго не устранять, Google может и вовсе удалить страницу с ошибкой из индекса.
Наличие 5хх ошибок смотрим в GSC Индекс — Покрытие.
Или в Screaming Frog
Если такие ошибки присутствуют передаем список программистам для устранения ошибок.
20. Исправить внутренние 3хх редиректы
При наличии внутренних редиректов на сайте поисковый робот будет тратить больше ресурсов для обхода вашего сайта. В связи с этим некоторые страницы могут обходится роботом реже, а в худших случаях никогда. Поэтому важно избавляться от внутренних редиректов.
После сканирования сайта Screaming Frog-ом выгружаем данные по редиректам Bulk export — Response Codes — Redirection (3xx) Inlinks. Таким образом в выгруженном файле мы получим данные о том, на каких страницах находятся ссылки с редиректами.
Достаточно будет просто поправить ссылки, заменив их на те ссылки куда вел редирект.
21. Оптимизация укр/рус/eng версий (проверка на полные дубли страниц разных языковых версий)
Бывают случаи на сайтах с несколькими языковыми версиями, когда попросту страницу не перевели на другой язык и на разных языковых версиях один и тот же контент.
Определить такие страницы можно в Screaming Frog по дублях тегов title или h1.
Для устранения таких ошибок достаточно перевести контент на нужный язык.
22. Сделать информативную страницу 404 ошибки
Страница с 404 ошибкой должна быть оформлена в стиле самого сайта. Она должна содержать сообщение о неверно запрашиваемой странице:
«Извините, запрашиваемая Вами страница не найдена. Воспользуйтесь, пожалуйста, меню или перейдите на главную»
Текст «на главную» сделать ссылкой на главную страницу.
Это необходимо для того, чтобы не потерять пользователя в случае если он попал на страницу 404 ошибки.
23. Прописать hreflang
Атрибут hreflang поможет Google правильно идентифицировать языковые версии страниц и соответственно в результатах поиска выдавать подходящую страницу.
Правильно настроить вывод этого атрибута не так уж просто. Рекомендуем в качестве помощника использовать справку от Google по данному вопросу.
24. Закрыть от индексации дублирующие страницы
Google очень негативно относится к дублям страниц. Важно страницы на которых дублируется контент закрывать метатегом noindex.
В основном с такой проблемой сталкиваются интернет-магазины, в которых для удобства пользователей существуют варианты сортировок вывода товаров на страницах категорий.
Ниже список типов страниц для которых необходимо в коде страницы настроить вывод <meta name=»robots» content=»noindex, nofollow»/>
24.1. К-во элементов на странице
24.2. Порядок сортировки
24.3. Страницы фильтров
24.4. Страницы результатов поиска
25. Настройка канонических страниц
На всех страницах сайта должен быть прописан атрибут rel=»canonical». Пример:
<link rel=»canonical» href=»http://site.com/landing»/>
где landing — это статическая целевая страница, на которой размещается каноникал.
Очень важно прописать именно в секции <head>, так как если вы случайно пропишите данный атрибут не в этой секции, то данная инструкция будет проигнорирована поисковыми системами.
При указании канонических ссылок всегда необходимо прописывать абсолютные ссылки.
Рекомендуем также ознакомится со справкой от Google по данному вопросу.
25.1. Каноникал с динамических страниц
Если страница дублируется при добавлении в конце URL-адресов любых get-параметров, необходимо прописать тег каноникал на корневую страницу.
Например, страница одного и того же мероприятия доступна по адресам:
http://mysite.ua/events/
http://mysite.ua/events/?id=123
На всех динамических страницах, для устранения дублей, внутри тега необходимо указать атрибут rel=»canonical».
Так, для страниц:
http://mysite.ua/events/
http://mysite.ua/events/?*
где * — любые знаки или символы, следует добавить в код:
<link rel=»canonical» href=»http://mysite.ua/events/»/>
Аналогичные настройки нужно сделать для всех динамических страниц проекта.
25.2. Каноникал с дублирующих страниц
Часто бывает, что для интернет-магазинов существуют дубли товаров за счет разных цветов этого товара. В итоге на сайте могут появляться практически одинаковые товары.
Если возникают подобные случаи, выбираем единый вариант страницы на которую будет стоять каноникал.
25.3. Каноникал «сам на себя»
На всех страницах сайта должен присутствовать тег canonical. Если это ни динамическая, ни дублирующая страница, то на ней должен быть установлен каноникал “сам на себя”.
Пример: На странице http://site.com/landing должен быть указан следующий каноникал
<link rel=»canonical» href=»http://site.com/landing»/>
26. 301 редирект для 404 страниц с входящими внешними ссылками
Для составления списка страниц понадобится сервис показывающие обратные ссылки на ваш сайт. Мы используем для этого ahrefs.
Переходим в отчет “Best by links” и экспортируем результаты.
В полученном файле фильтруем данные по столбцу “Code”, где оставляем только ответы 4хх и 5хх.
Далее необходимо составить список постраничных редиректов на релевантные страницы. Итоговый список URL передаем программистам для настройки 301 редиректов.
27. Создать автоматически генерируемый сайтмап
Используя файл sitemap возможно оптимизировать сканирование сайта поисковым роботом. Желательно настроить динамически генерируемый сайтмап, т.е., чтобы при добавлении новых страниц на сайт они автоматически добавлялись в карту сайта и, соответственно, при удалении страниц с сайта — автоматически удалялись бы из карты сайта.
В файле sitemap должны присутствовать только страницы открытые для индексации поисковым роботом. Более подробные рекомендации доступны в справке от Google.
28. Исправить ошибки sitemap.xml
Для проверки на наличие ошибок в файле sitemap мы используем Screaming Frog SEO Spider.
28.1. Есть в sitemap.xml, но не доступны для индексации
Смотрим есть ли в карте сайта страницы закрытые от индексации.
Экспортируем список и передаем программистам для того, чтобы они исключили такие страницы из карты сайта.
28.2. Разрешённые для индексации, но нет в sitemap.xml
Проверяем на предмет отсутствия открытых для индексации страниц в карте сайта.
Экспортируем список и передаем программистам для того, чтобы они добавили такие страницы в карту сайта.
29. Устранение дублей страниц
Ниже мы привели список вариантов при которых могут создаваться дубли страниц. Для проверки на такие дубли мы используем сервис https://apollon.guru/duplicates/. Он покажет корректно ли настроен наш сайт.
Для проверки вставляем страницы основных типов: главная, страница категории, страница товара.
В результатах проверки все что будет выделено красным цветом необходимо передавать программистам на исправление.
29.1. 301 редирект с http на https
Если сайт работает на https протоколе, то для каждой страницы сайта должен быть настроен 301 редирект с http версии на https.
29.2. 301 редирект с www на без www (либо наоборот)
Если главное зеркало сайта настроено с www вначале, то при переходе на версию без www должен срабатывать 301 редирект на версию с www.
Аналогично необходимо настроить в случае если главное зеркало без www вначале. При переходе по ссылке с www должен срабатывать 301 редирект на версию без www.
29.3. 301 редирект с множества / на один /
Часто случается, что при добавлении множества / в URL адрес (например https://site.ua/notebooks//////) страница доступна, т.е. мы имеем полный дубль, так как для Google это будут две разные страницы, но с одинаковым контентом.
В этом случае необходимо настроить 301 редирект со страницы с множеством / на страницу с одним /.
Есть один нюанс — если на странице с множеством / в URL выводится canonical на страницу с одним /, тогда редирект можно не настраивать.
29.4. 301 редирект с разных расширений страниц
При переходе по адресам с разными расширениями https://site.com/index.php или https://site.com/index.html должен срабатывать 301 редирект на основную версию.
29.5. 301 редирект со слеша на без него (либо наоборот)
Для Google страницы http://site.com/page (без /) и http://site.com/page/ (с /) — это две разные страницы, поэтому необходимо, чтобы была доступна только одна версия, а вторая редиректила на первую
29.6. 404 ошибка при добавлении любых символов в урл
При добавлении любых символов в URL должен выдаваться 404 ответ сервера. Если выдается ответ 200 ставим задачу программистам на исправление ситуации.
29.7. 301 редирект с дублей пагинации
Существует такая проблема, когда при переходе на вторую страницу сайта, а потом при возврате на первую, URL адрес отличается от исходного.
Пример:
http://www.site.ua/landing/
http://www.site.ua/landing/page-1/
Это происходит из-за неверно настроенной пагинации страниц. В таком случае, необходимо настроить 301-й редирект и склеить такие страницы.
29.8. 301 редирект с дублей по IP
Если сайт доступен при переходе по IP адресу на котором размещен, то необходимо поставить задачу программистам по настройке 301 редиректа с IP адреса на основной сайт.
29.9. Исправить туннели редиректов
Туннели редиректов или циклические редиректы — это когда одна страница редиректит на вторую, а вторая опять на первую. Такую ситуацию необходимо устранить и корректно настроить 301-й редирект.
Туннели редиректов определяем с помощью программы Screaming Frog. После сканирования выгружаем отчет на наличие тоннелей Reports — Redirect & Canonical Chains.
Передаем этот список программистам для исправления.
30. Устранить страницы сироты
Страницы сироты — это страницы, на которые не ведет ни одна внутренняя ссылка и соответственно поисковый робот не сможет их найти обычным обходом.
Обычно робот находит такие страницы:
- Перейдя по ссылке с другого сайта
- Ссылка находится в карте сайта
В Screaming Frog SEO Spider есть возможность перед сканированием подключить Google Analytics и Google Search Console. Таким образом мы сможем найти страницы сироты на нашем сайте.
Тут будут показываться страницы сироты найденные в карте сайта.
Тут — найденные при помощи Analytics и GSC.
Для устранения таких страниц сначала смотрим, что это за страницы. Если он важны для продвижения и получают трафик, тогда нужно будет добавить внутренние ссылки на эти страницы. Если же мы определили эти страницы как ненужные, тогда их необходимо удалить с сайта предварительно настроив 301 редирект на релевантную страницу либо настроить 410 ответ сервера при переходе на такую страницу.
31. Удалить поддомены
Бывают случаи когда причиной низких позиций сайта является его поддомен. Например, когда разработчики забывают закрыть от индексации поддомены, на которых содержатся неактуальные версии сайта, копии текущей версии и прочая служебная информация. Происходит захламление поискового индекса, что может негативно отразится на позициях. Поэтому важно выявить подобные случаи и закрыть для индексации.
Для поиска всех поддоменов находящихся в индексе мы используем следующую команду:
site:domain.com -inurl:https://www.domain.com -inurl:https://domain.com -inurl:http://www.domain.com -inurl:http://domain.com
domain.com меняете на имя вашего домена.
В результате мы получим все поддомены находящиеся в индексе. Передаем список ненужных поддоменов программистам для настройки запрета индексации.
32. Настроить перелинковку между товарами (услугами)
Для настройки перелинковки между товарами (услугами) мы настраиваем вывод блока “Похожие товары (услуги)” внизу страницы.
Таким образом во первых мы сможем улучшить поведенческие факторы, так как при правильной настройке посетители будут переходить на другие страницы сайта. А во вторых улучшим обход внутренних страниц сайта поисковым роботом, что может позитивно сказаться на позициях.
Здесь важно правильно настроить вывод похожих товаров (услуг). Т.е. показывать товары (услуги) из той же категории, что и товар (услуга) на которой находится посетитель.
33. Добавление микроразметки
Микроразметка Schema помогает поисковикам лучше понимать ваш контент, а также может улучшить отображение вашего сайта (отображение звезд, цен) в поисковой выдаче.
Ниже мы приводим список возможных разметок для добавления на сайт в зависимости от типа вашего сайта. Также рекомендуем ознакомится со справкой от Google касательно разметки.
33.1. Разметка навигации (хлебных крошек)
Большинство сайтов для упрощения навигации по сайту используют хлебные крошки. Добавив разметку хлебных крошек возможно значительно упростить работу поисковому роботу в отношении понимания структуры вашего сайта. Подробнее по ссылке.
33.2. Разметка для отзывов
Если на сайте есть возможность оставлять отзывы, то желательно добавить разметку к отзывам. Справка от Google.
33.3. Разметка диапазона цен категорий
На страницы категорий товаров рекомендуем добавлять разметку диапазона цен. Таким образом в выдаче будет выводится диапазон цен вашего сайта, что будет выделять ваш сайт среди конкурентов.
33.4. Разметка «Контактные данные»
В данном типе разметки мы рекомендуем добавить как можно больше информации касательно вашей организации. Телефоны, адреса, ссылки на социальные профили, график работы, гео координаты, логотип, … Подробнее читайте по ссылке.
Такую разметку желательно выводить либо на странице контактов либо на главной странице. Мы не рекомендуем выводить такую разметку на всех страницах сайта.
33.5. Разметка страницы товара
Для страниц товаров также рекомендуем размечать как можно больше доступной информации. Справка от Google вам в этом поможет.
34. Задать alt у картинок
Содержимое атрибута alt влияет на ранжирование изображения. Для крупных сайтов нет необходимости задавать alt картинок вручную. Достаточно создать шаблон генерации alt для различных типов страниц.
Например, для страниц товаров интернет-магазина можно настроить вывод в alt название товара и его артикул + порядковый номер изображения (в случае если изображений товара несколько).
Скачать чек-лист по внутренней оптимизации в Гугл-таблицах
Для получения ссылки на чек-лист в Гугл-таблицах, подпишитесь на наш блог.
После перехода по ссылке, чтобы появилась возможность редактировать файл, необходимо создать копию у себя на диске.
Как использовать этот чек-лист
В столбце А нашей таблицы расположен перечень задач. В столбце В — статусы задач.
Для упрощения работы с файлом мы реализовали возможность выбора статуса в виде выпадающего списка.
При изменении статуса в столбце В автоматически добавляется дата изменения в столбец С. Таким образом легко контролировать сроки выполнения задач.
Столбец D предназначен для внесения комментариев необходимых для выполнения задачи.
Желательно выполнять пункты по порядку, начиная с первого, так как они расположены в порядке приоритета (от самых важных, к менее важным).
Спасибо за внимание, желаем больше ТОП-ов и роста трафика!