seo-check-list-po-auditu-saita
SEO чек-лист — Основные параметры для анализа сайта

Ссылки на ваш сайт

Проверьте качество ссылок: если это ссылки с форумов, с профилей неизвестных лиц, с комментариев, то ценность таких ссылок грошь-цена. Данные ссылки nofollow, и они практически никак не влияют на позиции сайта.

Если ссылки ведут с нетематических сайтов, с дешевых статей — это токсичные ссылки.

Если ссылки арендные с непродолжительным сроком размещения (к примеру 1-2 месяца), то по окончанию срока аренды таких ссылок позиции сайта могут резко просесть и сайт получить санкции от поисковых систем. Это называется ссылочным мерцанием. Нельзя закупать арендные ссылки.

HTTPS Протокол 

HTTPS является серьезным фактором ранжирования.

Robots.txt

Проверка наличия файла robots.txt и анализ на ошибки

Sitemap 

Проверка наличия файла Sitemap и анализ на ошибки

HTTP-headers 

Проверка ошибок сервера при отдаче заголовков:

https://www.webconfs.com/http-header-check.php

Кеширование, CDN, gzip

Быстрая отдача контента пользователю улучшает поведенческие факторы на сайте. Сайт должен загружаться быстро. Следует воспользоваться технологиями сжатия изображений, кеширования, облачным сервисом CDN для быстрой отдачи контента.

https://developers.google.com/speed/pagespeed/insights/

Ссылки с главной вашего сайта

Есть ли ссылка с главной на сторонние (не ваши) ресурсы? Такие ссылки должны быть закрыты от индексации.

Проставье rel=”nofollow”, а еще лучше используйте конструкцию “<a href=»#» class=»link» rel=»https://site.ru/»target=»_blank«>Link</a>

Если SEO-компания, которая ведет ваш сайт использует такие ссылки на вашем сайте, и ссылается на себя, это плохой знак. Получается, что они продвигают свой сайт за ваш счет.

Ссылки на соц-сети лучше также закрыть для индексации.

Мобильная оптимизация сайта

Для Google мобильная версия сайта является серьезным фактором ранжирования: Mobile Index First.

https://search.google.com/test/mobile-friendly

Тестирование Schema.Org

По последней информации от сотрудников Google (упоминание на FB у Dr.Max), наличие разметки Schema.Org в 2021 году будет являться фактором ранжирования.

Проверьте качество разметки через:

https://search.google.com/structured-data/testing-tool/u/0/

Основные ключевые слова

Довольно часто SEO-компании показывают в своих отчетах, что вывели в ТОП какой-то запрос. Но при детальном изучении оказывается, что данный запрос не имеет конкуренции, по нему нет или мало трафика, и ценность такого продвижения равна нулю.

Продвигать нужно прежде всего высокочастотные запросы, по которым есть трафик. Вывести сайт по низкоконкурентному запросу вы можете даже сами, просто добавив более качественный текст на страницу.

В отчете должны быть:

1. Высококонкурентные запросы

2. Коммерческие запросы по которым реально есть клиенты

3. Региональные запросы с указанием города заказчика

Расширенный анализ сайта

Отчет ahrefs Обратите внимание на динамику по ссылочному, динамику по росту рейтинга сайта

http://ahrefs.com/site-explorer/overview/v2/subdomains/live?target=site.com

Битые ссылки

Большое количество битых ссылок на вашем сайте (404-страница) существенно понижают рейтинг сайта в Yandex.

Проведите аудит ссылок через программу Screaming Frog SEO Spider

Аудит входящих ссылок на сайт

Анализ по ahrefs входящих ссылок: ссылочный профиль наиболее значительный фактор ранжирования в поисковых системах.

Продвижение под Яндекс

Основные факторы ранжирования в Яндекс

Яндекс сильно обращает внимание на ПФ. Конкуренты могут скликать ваш сайт в выдаче достаточно легко в Яндексе.

  • Ссылочное также влияет, но меньше чем в Google.
  • Наличие сайта в Яндекс.Справочник
  • Региональная разбивка сайта на поддомены для регионов
  • Региональные телефоны (495 для Москвы, 812 для Санкт-Петербурга)
  • Телефон, режим работы и адрес в шапке сайта
  • При клике по номеру телефона должен начинаться звонок
  • Страница “Контакты”: адрес, режим работы
  • Наличие юридической информации в подвале сайта (ООО, ИП)
  • Форма обратной связи
  • Сертификаты качества
  • Социальные ссылки на Youtube, Facebook, Vk
  • Условия оплаты, Условия доставки
  • Страницы с Политикой конфиденциальности, Пользовательским соглашением и Согласием на рассылку. Такие сайты вызывают больше доверия 

Товарные категории:

Сортировка по названию, рейтингу, популярности; наличие alt у изображений

Региональное продвижение под яндекс

Если ваш интернет-магазин или проект представлен в разных регионах России, настоятельно рекомендуется создавать региональные поддомены, типа spb.site.ru

Данное продвижение касается только Яндекс, для Google такие поддомены рекомендуется блокировать через robot.txt

Хороший пример регионального продвижения — сайт narcology.clinic, для каждого региона указан разный номер телефона, адрес, поддомен.

Регионы:

https://ekb.narcology.clinic/

https://krasnoyarsk.narcology.clinic/ 8 391 290 24-61 / 8 (800) 511-39-56 Красноярск, Крайняя улица, 2А

https://krasnoyarsk.narcology.clinic/kontakty/

https://krasnoyarsk.narcology.clinic/robots.txt — указано User-agent: googlebot Disallow: /

Продвижение под Google

Факторы ранжирования в Google

Google это прежде всего качественный контент и ссылки. ПФ накручиваются сложнее. Страницы без ссылок плохо лезут в ТОП.

Основные факторы:

  • Наличие сайта в Google My Business (GMB) и отзывов
  • Возрат домена, возрат URL
  • Ссылочное: тематические, региональные ссылки, ссылки с трастовых ресурсов. Если вы покупаете ссылки с индийских сайтов, то не удивляйтесь, если у вас пойдет индийский трафик. Для продвижения в UAE, нужно закупать ссылки с арабских блогеров.
  • Прокачка ссылок через существующих ссылок Tier-2. Читаем про “Удар Шершня” Михаила Шакина.
  • Частота обновления страниц на сайте, актуализация информации.
  • Cookie Policy / GDPR
  • Разметка страниц и контента Schema.org:
  • Хлебные крошки — добавьте ключевые слова в разметку, и добавьте разметку на главную страницу
  • Отзывы
  • Разметка FAQ 

На продвижение в Google негативно влияют такие факторы как:

Неинформативные страницы (thin content), большое количество однотипных страниц (затрудняют индексацию), маленькие изображения, copy-paste с других источников, битые ссылки, переспам в заголовках.

Чек-лист на самостоятельный аудит

Закупка ссылок Сколько нужно ссылок? Смотрите у конкурентов — не меньше.

Чек лист по ссылочному:

  • 10% анкорных ссылок, 30% смешанных и 60% безанкорных.
  • Добавляйте сайты в тематические каталоги
  • Добавляйте сайты в региональные каталоги и СМИ
  • Закажите размещение на известных крупных изданиях (РБК, Forbes и пр.). Стоимость ссылки высокая, но вес
  • такой ссылки в 10-100 раз выше обычной ссылки.
  • Заказывайте ссылки на ссылки (tier-2).
  • Избегайте резкого роста или падения ссылочной массы
  • Постарайтесь отдать линкбилдинг на аутсорс и контролируйте процесс
  • При размещении внешних ссылок на сайт не используйте контент сайта
  • Для размещения каждой внешней ссылки следует составлять уникальный контент
  • Ссылки равномерно распределите на Главную и на основные и популярные страницы
  • Ссылки размещайте на ресурсах, близких к вашей тематике или вашему региону
  • Околоссылочный текст и анкор ссылки должны соответствовать контенту страницы, на которую ведет ссылка
  • Закупайте ссылки только на проверенных биржах: gogetlinks.net, miralinks.ru, rotapost.ru
  • Закупайте только вечные ссылки
  • Важно покупать ссылки только с тематических сайтов, или сайтов СМИ с высоким рейтингом
  • 1 качественная ссылка лучше 3-х некачественных
  • О размещении гостевого поста с вашей ссылкой на тематическом сайте договаривайтесь напрямую
  • Покупайте ссылки на сайтах с возрастом от года и более
  • Обращайте внимание на юзабилити сайта. Избегайте сайтов, которые заточены только на продажу ссылок.
  • Обращайте внимание на возраст домена
  • У сайта-донора должен быть https-протокол
  • Смотрите на количество страниц в индексе Google и Яндекс, разница не должна превышать 30%
  • Проверьте соотношение исходящих ссылок и входящих. Входящих должно быть больше
  • Смотрите, постит ли сайт обычный контент (не с бирж, без ссылок)
  • Потенциальный донор должен быть “активный” (публикуются новые материалы, пользователи оставляют
  • комментарии)
  • Проверьте посещаемость сайта (>=100 в сутки)
  • DR >= 30 (по Ahrefs), ИЦ >= 100 (по Яндекс)
  • Количество проиндексированных страниц должно быть более 90%
  • Потенциальные доноры для внешних ссылок должны быть максимально разнообразными (новостные сайты,
  • блоги, порталы и т.д.)
  • Большинство доноров должны быть из вашей страны (в целевом регионе).
  • Ресурс “живой” – активное обсуждение идет во всех разделах площадки.
  • В крауде — только безанкорные ссылки. Анкор только с качественных статей/сайтов.
  • Внутренняя
  • перелинковка
  • Делайте на сайте перелинковки между категориями и статьями/товарами
  • Не делайте с одной страницы на другую больше 1 ссылки в контенте
  • С одной страницы не должно быть больше 50 ссылок (без учета меню сайта)
  • Анкор ссылки должен быть релевантен содержанию страницы-акцептора (при перелинковке используйте текст
  • ссылки, который напрямую указывает на тематику страницы, на которую вы ссылаетесь)
  • С главной страницы ссылайтесь только на основные и наиболее приоритетные для продвижения категории
  • Все страницы сайта должны ссылаться на главную страницу: через “хлебные крошки” или через ссылку на логотипе
  • На главной странице логотип должен быть неактивным. На остальных – должен вести на главную
  • На сайте не должно быть циклических ссылок (ссылок, которые ведут на эту же страницу)
  • Все ссылки должны визуально отличаться от остального текста
  • Ссылки должны быть достаточно длинные, чтобы по ним было легко кликнуть
  • Ссылки для скачивания файлов визуально отличаются от ссылок на другие страницы (например, иконками)
  • Добавьте сайт в Google Search Console и Яндекс.Вебмастер, это позволит получать информацию о том, как сайт представлен в результатах поиска Google, оптимизировать контент и устранять возможные неполадки
  • Чем меньше уровень вложенности у страницы, тем легче ее продвигать.
  • Старайтесь на сайте не допускать дублирование частей контента, страниц и мета-тегов
  • Месторасположение сервера может повлиять на ранжирование сайта по географическим регионам

Если у вас новый сайт

Если вы запускаете новый сайт, то рекомендуется купить старый домен с историей на бирже доменов (Godaddy, Nic.Ru). Это серьезно облегчит его продвижение.

  • Чем старше домен, тем больше шансов попасть в ТОП.
  • История домена влияет на продвижение. Не покупайте домены, у которых часто менялись владельцы
  • Привязывайте домен к региону, в котором Вы будете вести продвижение (Google Search Console и Яндекс.Вебмастер)

Meta-title 75. 

  • Используйте в Title ключевой запрос, по которому ведете продвижение на данной странице всего 1 раз
  • Начинайте Title со своего ключевого запроса
  • Title должен быть уникальным по всему сайту
  • Не копируйте Title у конкурентов 🙂
  • Длина Title не более 60-70 символов с учетом пробелов
  • В самом конце Title каждой страницы следует указывать название компании для продвижения по брендовым запросам

Meta-description 

  • Description в основном используется для того, чтобы поднять CTR. Используйте в нем призывы к действию («Заходите», «Жмите», «Не упустите»)
  • Указывайте в Description основные ключевые преимущества, цифры и спецсимволы
  • Используйте в Description ключевой запрос, по которому ведете продвижение на данной странице всего 1 раз
  • Начинайте Description со своего ключевого запроса
  • Description должен быть уникальным по всему сайту на каждой странице.
  • Делайте уникальный Description по всей сети интернет. Не копируйте его у конкурентов
  • Указывайте длину Description не более 130 символов с учетом пробелов

Заголовок H1 

  • Заголовок H1 должен быть на всех страницах сайта
  • Используйте заголовок H1 только 1 раз на 1 странице
  • Заголовок H1 не может дублироваться на разных страницах
  • Заголовок H1 не должен совпадать с Title 1 в 1
  • Используйте ключевой запрос страницы в заголовке H1 всего 1 раз
  • Располагайте основной запрос в начале H1 в удобочитаемом варианте. Если нужно добавить предлоги или изменить окончания, сделайте это
  • H1 должен быть на сайте в 1 строку. В большинстве случаев мы используем точное вхождение основного запроса продвигаемой страницы, без разбавления
  • Обязательно используйте подзаголовки H2 и H3 в текстах
  • Разбавляйте ключевой запрос дополнительными словами при написании подзаголовков H2 и H3
  • Не используйте слово “купить” в заголовках H1, H2 и H3, а также синонимы этого слова
  • H1, H2 и H3 не должны совпадать в рамках одной страницы. Делайте их уникальными, используя разные запросы
  • Используйте теги H2 и H3 исключительно внутри статей
  • Соблюдайте вложенность H1, H2 и H3
  • Не используйте теги H2 и H3 в названиях товаров, меню и т.д.

Написание статей 

  • Правильно оформленная статья позволяет вывести сайт в ТОП по ВЧ ключевым запросам и собирать хороший трафик.
  • Авторство статей (фактор YMYL), ссылка на автора, ссылки на источники do-follow, цитаты из источников
  • Наличие видео, инфографики, изображений размера более 1500 пикселей в ширину.
  • Наличие оглавления статьи (TOC) со ссылками внутри статьи
  • Оптимизированный первый абзац текста (ключевые слова)
  • Проверка текстов на грамматические ошибки и опечатки.
  • Google любит факты, статистику по годам, подкрепление источниками, сравнения.
  • Статьи должны обновляться. Есть мысль, что каждое обновление прибавляет PageRank.
  • Даже самая крутая статья без ссылок на неё не особо ранжируется. Строим ссылки.
  • Чем старше URL статьи, тем лучше ранжирование
  • Не используйте дату в URL страниц, старайтесь не менять URL страниц
  • Если статья под ВЧ-запрос, не используйте вложенные каталоги. Т.е. /article.html лучше чем /dir1/dir2/article.html

Экспертность сайта

На сайте должны быть: видео обзоры, отзывы, комментарии специалиста, PDF со спецификацией. Чем больше графической, технической и полезной информации тем больше доверие к сайту, тем выше рейтинг сайта.

Продвижение сайта с минимальными бюджетами

Принцип SEO: двигать то, что уже продвинуто, смотреть отчет по CTR от ahrefs ниже, так как трафик начинает идти только когда сайт в ТОП выдаче. Пока сайт не в топе, трафика нет.

  • В начале работ следует выделять 1-3 высокочастотных запроса и двигать по ним сайт.
  • При продвижении основного запроса, другие запросы также будут постепенно подрастать.
  • Двигать свой регион (заказ ссылок с региональных блогов, форумов и директорий)
  • Нужно работать с отзывами, Google.Карты. Чем больше активность на данных сервисах, тем выше доверие к сайту.
  • Продвигать нужно прежде всего высокочастотные запросы, по которым есть трафик. Вывести сайт по низко-конкурентному запросу вы можете даже сами, просто добавив более качественный текст на страницу.

Расширенное тестирование

  • Поиск каннибализации в выдаче (серьезно влияет на позиции по ВЧ-запросам)
  • Orphan pages: страницы на сайте, на которые не ведут ссылки (снижает сайт в выдаче)
  • Если на страницу нет трафика, подумайте, нужна ли она?
  • Анализ страниц с низким CTR, и с высоким Bounce Rate (через Google Search Console)
  • Анализ контента. Чем больше на сайте хорошего контента, тем сайт себя чувствует лучше.

Анализ сайта на SILO-структуру

  • Проверка сниппетов в выдаче Яндекс/Google: оптимизация для улучшения CTR
  • Наличие сайта в Featured snippets — это блок с быстрыми ответами, который выводится в специальном окне и располагается на нулевой позиции органической поисковой выдачи Google. Достигается оптимизацией статей на сайте.
  • Симуляция атаки на сайт, проверка сайта на XSS-уязвимости
  • Анализ сайта через Screaming Frog (пустые страницы, 404, 301, дубликаты title и пр)
  • Отмена токсичных ссылок через Disavow Tool (результат будет виден через 2 недели)
  • Конкурировать надо с топом: анализ ТОПа в выдаче это наше всё.

Полезная информация

Ссылки как фактор ранжирования

Какие ссылки можно покупать? Качественные ссылки на сайт должны постоянно увеличиваться, тем самым увеличиваться ссылочный вес сайта и его рейтинг. Только с качественных площадок, вечные, do-follow. Крайне желательно закупать бизнес-обзоры компании на профильных СМИ.

Нужны ли ссылки для продвижения?

https://backlinko.com/link-building
https://ahrefs.com/blog/google-ranking-factors/
https://www.seonews.ru/events/faktory-ranzhirovaniya-v-sfere-nedvizhimosti-2020/

Аналитика от Ahrefs

Ahrefs собрали статистику для SEO-отрасли от разных команд. Среди интересных данных:

Поиск:

• Только 0,78% пользователей поиска Google нажимают на результаты со 2-й страницы,

• 53,3% всего трафика сайты получают из органического поиска,

• 92,96% мирового трафика приходится на поиск Google, Google Images и Google Maps,

• 69,7% поисковых запросов содержат четыре слова или более,

• Около 8% поисковых запросов сформулированы как вопросы,

• 90,63% страниц не получают органического поискового трафика от Google,

• Первый результат в выдаче Google имеет средний CTR 31,7%.

Выдача:

• Только 5,7% страниц попадают в топ-10 результатов поиска в течение года после публикации,

• 25,02% страниц из ТОПа не имеют description,

• У 40,61% страниц Google урезает description,

• Средняя страница в топ-10 старше 2 лет.

• 66,31% страниц не имеют обратных ссылок.

Мобильные:

• 52,2% всего трафика веб-сайта в мире приходится на мобильные телефоны,

• 30% всех запросов с мобильных устройств связаны с местоположением,

• 28% поисков чего-то поблизости приводят к покупке.

Больше данных и всякие графики вы можете увидеть в оригинальной статье Ahrefs (англ.) — https://ahrefs.com/blog/seo-statistics/ 

Пример разметки Schema.Org Главная страница

{«@type»: «ListItem»,»position»: 1, «item»: { «@id»: «https://site.com», «name»: «Main Keyword»} },

{«@type»: «ListItem»,»position»: 2, «item»: { «@id»: «https://site.com#services», «name»: «Another Keyword»} },

{«@type»: «ListItem»,»position»: 3, «item»: { «@id»: «https://site.com#office», «name»: «One More Keyword»} }

Анализ логов
Анализ логов сервера для SEO — Как анализировать logs файлы

Анализ логов сервера – важный инструмент поисковой оптимизации. Серверные журналы access_log содержат самую точную информацию о том, как поисковые системы сканируют ваш сайт. Помогите поисковым роботам выполнять их работу, и ваши усилия по продвижению намного упростятся.

Если в техническом состоянии сервера и сайта есть проблемы, то другие усилия по продвижению сайта будут напрасны. Техническая оптимизация – ключ к тому, чтобы поисковые системы могли сканировать, индексировать и анализировать сайт. Все вопросы в этом отношении должны быть закрыты до того, как вы начнете заниматься поисковым маркетингом.

анализ серверных логов для поисковой оптимизации

Что такое логи

Что такое лог-файл? – Это список любых действий, которые происходят на сервере, в операционной системе, сетевом устройстве или программе. Нас интересует access_log, своего рода журнал посещений, содержащий список всех запросов, сделанных к серверу.

Помимо access_log есть и другие логи, например, перечень серверных ошибок, но в рамках поисковой оптимизации нам надо оценить, кто, откуда и с какой периодичностью обращается к серверу.

Как это работает

Когда пользователь вводит URL в браузер (или кликает по ссылке), браузер разделяет URL на три компонента:

  • протокол (http или https)
  • имя сервера (домен или IP)
  • имя файла

Доменное имя преобразуется в IP через сервер доменных имен (DNS), и устанавливается соединение через один из портов сервера, где находится запрошенный файл.

Затем http-запрос методом GET отправляется на веб-сервер через заданный протокол, браузер получает соответствующий html-код, и вы видите на своем мониторе запрошенную страницу.

Каждый запрос записывается в лог как «хит».

Каждый раз, когда пользователи или боты посещают сайт, в лог-файл вносится множество записей, ведь единственная страничка в интернете может подразумевать десятки запросов к серверу. Логи можно использовать для технического аудита и обработки ошибок. Проанализировав лог, вы можете понять, какие ресурсы сканируют боты, как часто и с какой периодичностью, обнаружить аномалии и найти проблемы, которые никаким другим способом обнаружить нельзя.

Из чего состоит лог-файл

серверный лог в текстовом редакторе

ПРИМЕРНО ТАК ВЫГЛЯДИТ ЛОГ-ФАЙЛ, ОТКРЫТЫЙ В ТЕКСТОВОМ РЕДАКТОРЕ. СОГЛАСИТЕСЬ, РАБОТАТЬ С НИМ В ТАКОМ ВИДЕ МОЖНО, НО ОЧЕНЬ УЖ СЛОЖНО, И СТОИТ ИСПОЛЬЗОВАТЬ СООТВЕТСТВУЮЩЕЕ ПРОГРАММНОЕ ОБЕСПЕЧЕНИЕ.

Структура лога определяется типом сервера и многими настройками, но в любом логе можно найти следующее:

  • IP клиента (посетителя)
  • Отметку о времени визита
  • Метод передачи данных (GET/POST)
  • Запрошенный URL
  • Код состояния HTTP
  • Использовавшийся User-Agent (браузер)

В некоторых случаях в журнале фиксируются загруженные байты, время, необходимое для загрузки ресурса на сервере для клиента, и т.п.

Как получить доступ к логам

Как уже было сказано, всё определяется вашим сервером и его настройками. Место хранения логов зависит от конфигурации сервера. Часто они сохраняются в корневой папке вашего сайта, если журналирование вообще включено. Вот адреса логов по умолчанию в зависимости от серверной операционной системы:

  • Debian, Ubuntu
    /var/log/apache2/access.log
  • CentOS, Red Hat, Fedora
    /var/log/httpd/access_log
  • FreeBSD
    /var/log/httpd-access.log

Чаще всего используются три типа веб-серверов: Apache, NGINX, IIS. Если запись логов включена, вы можете зайти в заданную папку вашего сайта и просто скачать нужный журнал, используя FTP-клиент или файловый менеджер панели управления хостингом. Некоторые хостеры позволяют заказать лог за заданный период, вы просто получите ссылку на архив.

как получить логи сервера

НЕКОТОРЫЕ ХОСТЕРЫ ПОЗВОЛЯЮТ ЗАКАЗАТЬ ЛОГИ ЗА ЗАДАННЫЙ ПЕРИОД

Сложнее, если вы используете CDN. В этом случае вам нужно обратиться к провайдеру CDN и получить логи с ближайшей конечной точки между сервером, обслуживающим ваши ресурсы, и клиентом. В случае использования CDN логи с вашего веб-сервера ничего не дадут, поскольку к нему обращаются только в случае очистки кэша. И запрашивать логи нужно со всех серверов, входящих в CDN.

Основные проблемы с получением логов

  • Сервер может быть совсем старым или нетипичным, и вам придётся читать техническую документацию чтобы узнать, как включить запись логов, а потом ждать, когда соберется достаточный объём информации.
  • Хуже, если вы, SEO-специалист, не имеете полноценного доступа к серверу, а клиент не понимает, зачем всё это, или не доверяет вам. В таком случае осваивайте искусство дипломатии и красноречия, чтобы убедить клиента.
  • Другой случай: клиент опасается за персональную информацию своих посетителей. А вдруг вы по IP соберете базу клиентов и сольёте её на сторону? Это опять вопрос доверия. Кроме того, ваш клиент может удалить все IP из журнала, если только эти IP не относятся к поисковым ботам.
  • Но хуже всего – если запись логов отключена, потому что владельца сайта журнал посещений не интересует, и ему жалко места на сервере. Да, архивы с логами могут занимать много места.

Какой объём данных необходим

Всё зависит от анализируемого сайта и поставленных задач. В некоторых случаях достаточно журнала за неделю, чтобы диагностировать важные ошибки. В других случаях понадобятся данные за квартал или даже за полгода.

В любом случае, даже данные за прошлый год могут быть вам полезны для понимания общей картины в исторической перспективе. А некоторые системные закономерности можно выявить только на очень больших выборках, за период от года и больше.

Имейте в виду: обработка логов – ресурсоемкий процесс. Если для анализа вы используете какие-то десктопные приложения, и загружаете огромные журналы, это может «положить» вашу машину. Например, только загрузка логов в 2 ГБ размером в программу-анализатор у меня как-то заняла 30 минут (на 4 ГБ оперативной памяти). Если есть возможность – используйте внешние сервисы и облачные решения, или машину помощнее.

Чем анализировать логи

В принципе, можно попытаться открыть лог даже в обычном Notepad++, или переименовать в csv и открыть в Excel. Только будет это долго, не наглядно и трудно, поэтому лучше использовать специализированный софт или сервисы.

  • Screaming Frog Log File Analyzer – условно-бесплатная десктопная программа, мой выбор. Главный минус – это необходимость загружать логи вручную. Зато есть всё, что нужно для комфортной работы. Вы можете выбрать, какие боты вас интересуют, и даже проверить, не фейковые ли они.
  • GamutLogViewer – достаточно старая уже десктопная утилита для работы с логами множества форматов. А значит, умеет фильтровать, сортировать, искать, но не задумана изначально для нужд оптимизатора.
  • JetOctopus – веб-сервис. Платный. Есть бесплатный тестовый период на неделю.
  • Oncrawl – веб-сервис, есть двухнедельный бесплатный период.
  • SEOLYZER – веб-сервис, есть бесплатный тариф с ограничением в 10 тысяч URL.
  • ELK Stack – бесплатный пакет из трёх платформ с открытым кодом. Если хотите поработать ручками, ELK может стать отличным инструментом для решения многих задач, в том числе и для обработки логов большого объёма.

Разумеется, это далеко не полный набор инструментов. Если вы никогда раньше не работали с логами, начните со Screaming Frog. Дополнительно можно посмотреть инструментарий для анализа логов тут, но для нужд поисковой оптимизации это уже лишнее.

Почему анализ логов важен для SEO

У вас может быть прекрасный (с вашей точки зрения) сайт: красивый, быстрый, удобный, с уникальным контентом, большим ссылочным профилем. И при этом плохо ранжируемый, медленно индексируемый. Причины могут крыться во взаимодействии сайта с другими объектами в интернете. Понять это можно только с помощью анализа логов.

Например, может оказаться, что на сайте есть изолированные от роботов разделы, появившиеся в результате технических ошибок или взлома. Или весь краулинговый бюджет расходуется на системные папки, которые сканировать вообще не надо. Или роботы заходят по внешним ссылкам на давно несуществующие разделы и страницы. Или по каким-то причинам поисковые роботы считают наиболее важными вовсе не те страницы, которые считаете важными вы.

Пример из практики

Сайт компании, занимающейся ремонтом квартир, офисов и частных домов. Отличные позиции в Яндекс – и отсутствие трафика из Google. Аудит показал, что по непонятным причинам множество страниц сайта роботам Google известны, но не сканируются, и потому не в индексе. Search Console никакой внятной информации на этот счёт не предоставляет. Возраст сайта – 4 года, ссылочный профиль в порядке.

После анализа логов, собранных за месяц, была обнаружена своеобразная ловушка для ботов, куда гуглобот заходил и уже не возвращался: до крайности кривой плагин WordPress, предназначенный, формально, для улучшения быстродействия, работал как чёрная дыра для роботов.

После внесения корректировок и добавления запрещающих директив гуглобот потерял интерес к плагинам и начал методично вносить в индекс целевые странички. Надеюсь, рост продолжится и дальше.

скачок трафика на сайт после исправления ошибок сканирования

Варианты использования логов для SEO

Вот основные задачи, решаемые с помощью анализа логов.

  • Управление краулинговым бюджетом (лимитами сканирования сайта)
  • Исправление серверных ошибок
  • Расстановка приоритетов для сканирования сайта поисковыми роботами
  • Устранение из списка сканирования ненужных страниц
  • Выявление больших или медленных страниц

Разберем эти вопросы более подробно.

Анализ краулингового бюджета

Краулинговый бюджет – это количество страниц, которые бот может просканировать за заданный период времени. В случае с Яндекс об этом можно не беспокоиться, но если речь идёт о ботах Google – это может быть проблемой.

Важно, чтобы лимит сканирования тратился на правильные страницы, а не на скрипты, страницы под редиректами, битые ссылки, дубли и т.п.

Проанализировав логи, вы можете понять, какие URL надо закрыть от сканирования с помощью robots.txt или метатегов и каких поисковых систем это касается. Ниже – пример: бот Яндекс самое пристальное внимание уделяет тегам на моём сайте, которые я использую в основном для вывода контента в некоторых блоках, а сами страницы тегов никакой уникальной информации не содержат. Следовательно, мне стоит прикрыть эти страницы от Яндекса.

Screaming Frog Lof File Analyzer

ЯНДЕКС УДЕЛЯЕТ ЧРЕЗМЕРНОЕ ВНИМАНИЕ ТЕГАМ МОЕГО САЙТА. СЛЕДОВАТЕЛЬНО, СТРАНИЧКИ НАДО ОПТИМИЗИРОВАТЬ ИЛИ ЗАКРЫТЬ ОТ ИНДЕКСИРОВАНИЯ, ЧТОБЫ НЕ РАСХОДОВАТЬ ЛИМИТЫ ОБХОДА ВПУСТУЮ.

Правка ошибок серверных кодов состояния

С помощью программ для технического аудита сайта (типа Screaming Frog SEO Spider) вы можете получить список ошибок кодов состояния и получить список перенаправлений. Однако с помощью локального поискового робота вы не узнаете, с какими ошибками сталкивается реальный поисковый бот.

Серверные ошибки могут влиять как на производительность вашего сайта, так и на его ранжирование. Например, получив ошибки типа 500 (сервер не может обработать запрос по непонятной причине), поисковая система может выбросить страницы из индекса, а сайт понизить в выдаче на уровне хоста как некачественный.

В этом случае нужно попробовать настроить сервер так, чтобы вместо 500-х он отдавал 503, что означает временную недоступность сервера. Тоже ничего хорошего, но всё же лучше, чем деиндексация важных страниц.

Если вы видите большое количество 404-х – надо понять, с чем они связаны. Обычно речь идёт о битых ссылках либо на самом сайте, либо на внешних ресурсах. И если битые ссылки на своем сайте нужно просто исправить или удалить, то для внешних ссылок проще настроить постоянные (301) редиректы на существующие актуальные URL.

Рядовая ситуация. Владелец решил обновить свой сайт, структура URL не была сохранена, а редиректы никто не настраивал. В результате все старые ссылки на сайт ведут на несуществующие страницы. Конечно, найти такие ссылки можно и с помощью внешних сервисов, если они успели попасть в базы. Анализ логов намного точнее покажет вам, откуда по старым ссылкам приходят роботы или люди, и вы решите, куда их стоит перенаправлять, чтобы сохранить ссылочный вес.

Расстановка приоритетов сканирования

Может оказаться так, что значительная часть вашего сайта не сканируется вообще. А значит, вы теряете трафик, а с ним и конверсии. Этих страниц просто нет в индексе.

Причины могут быть самыми разными: отсутствие входящих ссылок, технические проблемы.

Другая распространенная проблема: второстепенным URL боты уделяют намного больше внимания, чем основным страницам. Например, на сайте интернет-магазина роботы могут заходить в блог, но игнорировать коммерческие страницы.

С помощью анализа логов за достаточно продолжительный период вы можете выяснить, каким разделам роботы отдают приоритет, и попытаться сменить акценты. Задача это непростая, для её решения вы можете использовать как масштабирование и корректировки ссылочной массы, так и настройки приоритетов сканирования в XML-карте сайта. А может быть, стоит внести правки в контент страницы? – Вам решать в каждом конкретном случае.

Выявление больших или медленных страниц

Никто не будет спорить, что быстродействие сайта влияет на ранжирование и конверсию. Если пользователь не может дождаться загрузки страницы – он уйдёт, а если и останется, то едва ли решится что-то покупать. Если сайт ощутимо «тормозит», как-то страшно проводить денежные транзакции. В логах вы можете выявить самые большие по объему и самые медленные страницы.

Не надо думать, что большая страница – обязательно медленная. Однако в любом случае стоит оптимизировать изображения, избавиться от ненужных веб-шрифтов, отключить автовоспроизведение видео, включить GZIP-сжатие для текстовых ресурсов.

Блокировка спам-ботов и парсеров

Даже чрезмерно активный поисковый робот может создать серьезную нагрузку на ваш сайт. А теперь представьте, что вашему сайту создают проблему зловредные боты, парсящие ваш контент или ищущие дырки в безопасности.

Анализ логов поможет выявить подозрительную активность, частоту визитов фейковых поисковых ботов, изучить их поведение. А потом заблокировать их, если нужно.

Но имейте в виду: в robots.txt директивы писать не надо, потому что они их проигнорируют. Используйте htaccess.

На что обращать особое внимание во время анализа логов

Всё определяют цели и задачи вашего проекта, но есть несколько общих мест, которые должны стать частью регулярного аудита.

  • Периодичность заходов роботов целевых поисковых систем. Если ваша приоритетная поисковая система – Google, и вот он ходил-ходил, да пропал – повод бить тревогу. Возможно, вы влетели под фильтр. А если и не ходил – надо думать, почему.
  • Соответствие продвигаемых страниц наиболее часто сканируемым. Большинство программ и сервисов позволяет сопоставить список целевых страниц сканируемым и выяснить, есть ли проблемы. Для этого достаточно просто загрузить табличку с URL.
  • Оценка характера 404-х. Это страницы, которые вы удалили, или кто-то поставил на вас “кривую” ссылку? Или это ссылка ведёт ещё на старую версию сайта, и по ней пытаются переходить посетители? – Тогда надо настраивать редирект на соответствующий контент.

Заключение

Анализ лог-файлов – важная часть технического SEO, предоставляющая уникальную информацию о взаимодействии вашего сайта с поисковыми роботами. Несмотря на кажущуюся «шумность» этих данных, оптимизатор может получить как точные сведения, так и ресурсы для инсайтов, позволяющих составить общую картину с использованием других источников данных: панелей вебмастеров и аналитических систем.

Screaming-Frog_update-versia-15
Обновление Screaming Frog SEO Spider версия 15.0

Вышло обновление моего любимого инструмента Screaming Frog SEO Spider, версия 15.0, которую разработчики назвали «disparity», что при адаптации на русский язык переводится как «различие».

Как заявляют разработчики, в этом обновлении основное внимание уделяется важной функции, которую они уже давно хотели представить и постепенно развивали её. Давайте разберемся что имели ввиду разработчики и что нового.

Сравнение данных сканирований

Теперь вы можете сравнить несколько сканирований и увидеть, как с течением времени изменялись данные сайта, ошибки и рекомендации во вкладках и фильтрах инструмента.

Эта функция помогает увидеть прогресс в исправлении технических проблем в оптимизации сайта, предоставляя подробные данные об изменениях.

Для сравнения перейдите в «File > Crawls», выделите два файла сканирования и нажмите «Select To Compare».

Также сравнить сканирования можно через меню «Mode > Compare» нажав на кнопку «Select Crawl» для выбора файлов сканирования. Также можно настроить конфигурацию сканирований (подробнее об этом — далее) или просто нажать «Compare».

Это запустит сравнительный анализ сканирований, и правая вкладка Overview заполнится, показав текущие и предыдущие данные сканирования, а также то, как они изменились.

Также в Overview показано, были ли ранее отсканированные URL-адреса, найденные при предыдущем сканировании, перемещены из вкладки или фильтра («Added» — добавлены и «Removed» — удалены) или они полностью новые («New») или пропали при последнем сканировании («Missing»). Это может помочь отследить динамику и выявить проблемы с URL которые уже были ранее на сайте.

Вы можете посмотреть конкретные URL, которых коснулись изменения, для этого в отчете выберите интересующий фильтр: «Added», «Removed», «New» или «Missing».

Функция сравнения доступна только в лицензионной версии инструмента и в режиме памяти «Database Storage». Если у вас всё ещё не настроен данный режим памяти, то перейдите в «Configuration > System > Storage Mode» и в выпадающем меню выберите «Database Storage».

Сравнение структуры сайта

Вкладка Site Structure позволяет посмотреть на изменение структуры каталога. Тут показано в каких разделах сайта есть новые страницы или в каких разделах страниц стало меньше. Например, на следующем скриншоте видно что в разделах /sites/, /fanzone/, /fixture/ и /news/ стало больше страниц.

Это может помочь получить больше информации о том, как сайт изменился между сканированиями.

Вы можете кликнуть по интересующему разделу и посмотреть, какие конкретные URL-адреса были изменены.

Также можно построить диаграмму позволяющую отследить как изменилась глубина сканирования, что ещё лучше помогает оценить изменения во внутренних ссылках и структуре.

Обнаружение изменений

Хотя на вкладке Overview можно отследить большинство важных изменений между сканированиями, на ней не посмотреть изменились ли важные для оптимизации элементы или показатели, например: тег title, количество слов документа, глубина сканирования, внутренние ссылки, микроразметка и т.д.

Но, на ней можно посмотреть, например, что в заголовке страницы теперь указано слишком много символов «Over X Characters» или заголовок вообще отсутствует «Missing», все то что использовалось в фильтрах Screaming Frog SEO Spider. Быть в курсе таких изменений важно, так как они могут повлиять на ранжирование страниц сайта в поиске.

Посмотреть все это можно в новой вкладке «Change Detection».

Это может пригодиться для проверки выполнения рекомендации по оптимизации (внедрил ли клиент ваши рекомендации по мета-тегам) или при мониторинге сайта, ведь теперь можно получать уведомления об изменениях!

Ещё одна возможность использования — это проверки на соответствие мобильной и десктопной версии сайта, также проверка сайта с учетом JavaScript и без учета JavaScript на предмет различий.

Находясь в режиме сравнения «Compare», вы можете перейти в настройки сравнения кликнув по шестеренке сверху (или в меню «Configuration > Compare») и выбрать, по каким показателям вам нужно отслеживать изменения.

После нажатия кнопки «Compare» и выполнения сравнения становится доступной вкладка «Change Detection», на которой показана подробная информация об изменениях.

Вы можете нажать на элемент и просмотреть изменения во вкладке с данными, например, вы можете видеть рядом текущие и предыдущие теги Title страниц и понять, как они изменились.

Внутренние ссылки важны для продвижения, и функция сравнения может предупредить вас о страницах, которые внезапно потеряли некоторые внутренние ссылки.

Вы также можете следить за страницами, контент которых был расширен.

Или изменилась глубина вложенности страниц при сканировании.

На этом полезности не заканчиваются, мы также можем использовать фильтр сравнения в нижнем окне. Например, если в верхнем окне мы видим что глубина вложенности страницы стала «2» вместо «3», то в нижнем окне мы можем посмотреть какие появились внутренние ссылки на эту страницу выбрав фильтр «Added» во вкладке «Inlinks».

В приведённом на скриншоте выше примере текущее сканирование было сканированием с включенным JavaScript, а предыдущее сканирование выполнялось без JavaScript (только базовый HTML). А это значит, что на главной странице сайта есть ссылки на страницу с портфолио, которые выводятся с использованием JavaScript (и тот же Яндекс эти ссылки не увидит).

Для обнаружения изменений контента «Content» необходимо чтобы HTML-код страниц сохранялся при сканировании («Configuration > Spider > Extraction > Store HTML & Store Rendered HTML»). Данный анализ занимает чуть больше времени из-за использования алгоритма minhash, но позволяет приблизительно понять процент изменения контента страницы от предыдущего к текущему сканированию на основе вашей настроенной области основного контента («Configuration > Content > Area»).

В примере на скриншоте выше контент сообщения разработчиков Screaming Frog в их блоге о версии SEO Spider 14.0 изменился на 1% между сканированиями.

Вы можете щелкнуть вкладку «View Source» в нижнем окне, выбрать сравнение «Compare» и показ различий «Show Differences», чтобы изменения в HTML были подсвечены.

Сопоставление URL-адресов разных доменов

В рамках сравнения сканирования была добавлена функция сопоставления URL-адресов, которая позволяет сравнивать URL различных доменов. Это полезно при сравнении действующего сайта с тестовым или мобильной версии сайта на поддомене, с его основной версией (для компьютеров).

Для настройки сопоставления URL, перейдите в настройки сравнения («Crawl Comparison Configuration») и «URL Mapping». Затем введите регулярное выражение заменяющее вычленяющее из URL тестовый домен и введите сам действующий домен. Например, команда Screaming Frog недавно перешли на хостинг Kinsta и протестировали размещенный на новом хостинге сайт перед переездом с использованием этой новой функции.

В результате тестовый домен Kinsta перезапишется на основной сайт, и эквивалентные URL-адреса будут сравниваться друг с другом для получения данных во вкладки Overview, Issues и Opportunities, Site Structure и Change Detection.

Вы можете переключаться между текущим и предыдущим сканированием, чтобы изучать различные структуры URL.

Эта функция также отлично подходит для вычисления глобальных изменений в URL вроде настройки редиректа со страниц со слэшем на конце (на страницы без слэша).

Что ещё нового

В версию 15.0 также вошли небольшие обновления и исправления ошибок. Все они перечислены далее:

  • Стала поддерживаться микроразметка «Math solvers», используемая Google.
  • На вкладке «Internal» появился новый столбец «Crawl Timestamp» со временем сканирования URL.
  • Папки проекта в меню «File > Crawls» теперь свернуты по умолчанию.
  • В адресной строке теперь по умолчанию будет использоваться HTTPS, если вы не укажете протокол.
  • Исправлена проблема размытия интерфейса на экранах с высоким разрешением как в Windows, так и в Linux (при любых настройках масштабирования).
  • Исправлено множество ошибок, которые довольно скучные и не стоят подробного описания (по словам разработчиков).

На этом пока все. С пожеланиями по доработке инструмента или исправлению ошибок, то можно обратиться к разработчиками инструмента на странице поддержки.

poisk-drop-domains
ТОП 5 сервисов для поиска дроп-доменов в зоне UA

У многих вебмастеров есть запрос на дропы под Украину. И часто возникает вопрос, где можно найти списки освобождающихся доменов.

Какие площадки или сервисы использует Никола Кодий, seo специалист и автор телеграмм канала https://t.me/mypbn разбор плюсов и минусов каждой.

1. https://hostmaster.ua/

 (https://hostmaster.ua/UAstat/deleted/epp.php) Сайт реестра зоны .UA. У них наиболее полные списки освобождающихся доменов Украины. Сортировки нет, параметров тоже, просто списки. По каждой доменной зоне нужно делать свою выгрузку.

Плюсы:

— наиболее полные списки.

Минусы:

— нет сортировки,

— нет общего списка,

— нет параметров.

2. https://nic.ua/

 (https://nic.ua/ru/domains/expired) Данный сервис появился у nic.ua относительно недавно. Домены добавляются относительно свежие, есть из чего выбрать. Странная и непонятная сортировка. Я в целом понимаю логику ее работы, но не представляю, чтобы этим можно было удобно пользоваться.

Параметры, которые указаны возле каждого домена тоже очень странные. Такое чувство, что они просто генерируются рандомно, очень часто там огромное несоответствие, если сравнивать с Ahrefs или Serpstat.

Плюсы:

— свежие домены,

— возможность сразу купить нужный домен.

Минусы:

— очень странная и неудобная сортировка,

— список нужно постоянно подгружать,

— часть параметров сайтов вообще не соответствует реальным.

3. https://www.ukraine.com.ua/

 (https://www.ukraine.com.ua/domains/expired/) Хороший сервис, я когда-то начинал свои поиски именно с него. Есть поиск по вхождению и есть выбор даты освобождения, чего в целом уже хватает для поиска. Сортировка по параметрам такая же, как в nic.ua. Особо пользы от нее нет, так как есть много несоответствий и все равно нужно смотреть актуальные данные.

Плюсы:

— фильтрация по вхождению,

— выбор даты освобождения,

— есть выгрузка всего списка.

Минусы:

— параметры доменов не всегда актуальны.

4. https://www.ukrnames.com/

 (https://www.ukrnames.com/user/backordered_domains.jsp) Этот сервис является так же и бэкордером. Это значит, что здесь можно поставить ставку по принципу аукциона на освобождающийся домен.

Есть удобная сортировка по датам освобождения и регистрации, это бывает полезно. Еще есть проверка ТИЦ и наличие в DMOZ.

На бесплатном тарифе можно выгрузить освобождающиеся домены за 2 дня.

Плюсы:

— удобный список доменов,

— возможность выгрузки в .csv.

Минусы:

— нет параметров, кроме ТИЦ и DMOZ.

Еще один минус относится больше к сервису бэкордера. Здесь нужно делать фактическую ставку на домен с блокировкой средств на счете. Учитывая, что пополнения счета занимает какое-то время, можно упустить какой-то жирный домен, на который просто не хватило денег на балансе.

5. https://voodoo.domains/

 (https://voodoo.domains/ru) Еще один сервис бэкордера. Здесь уже много разных параметров, которые могут помочь выбрать нужный домен. Списки освобождающихся доменов видно на 5 дней, статусы доменов обновляются вполне оперативно.

Плюсы:

— удобная сортировка,

— есть списки на следующие 4 дня,

— много разных параметров.

Минусы:

— не обнаружил.

Выводы

Для поиска дропов можно использовать любой из сервисов в зависимости от ваших потребностей. Но не нужно полагаться на параметры, которые есть в любом из этих сервисов.

Рекомендую каждый домен проверить через сервис анализа беклинков самостоятельно. И потом само-собой сделать детальную ручную проверку.

Если вам интересна тема дропов и PBN, то подписывайся на канал Николая Кодия (https://t.me/mypbn), чтобы получать всю годную информацию первым.

seolib-google-traffic-analyzer
Google Traffic Analyzer — инструмент для анализа скачков трафика с Google

Когда вы сталкиваетесь с просадкой трафика из Google (резкой или постепенной), первое, что нужно сделать для понимания причин — определить, какие именно страницы и запросы пострадали больше всего.

Если весь сайт просел равномерно, для восстановления трафика нужны одни действия, если просел один из разделов — другие, если вылетели конкретные страницы — третьи. Пытаться проводить по сайту какие-либо работы для возвращения посещаемости без понимания, что именно просело — все равно, что тыкать пальцем в небо.

Инструмент Google Traffic Analyzer в несколько кликов определяет список страниц и запросов, за счет которых изменился трафик.

00

По умолчанию страницы сортируются по количеству потерянных кликов — от максимально пострадавших к менее пострадавшим.

Для каждой страницы показывается список запросов, которые просели. Он сортируется в таком же порядке — от более пострадавших к менее:

02

По всем страницам и запросам выводятся изменения (разница и значение до/после скачка) следующих показателей:

  • Клики из поиска
  • Показы в поиске
  • Средний CTR
  • Средняя позиция

Над таблицей выводятся общие данные, которые позволяют оценить “масштаб бедствия” с первого взгляда:

03

Инструмент группирует данные как по страницам, так и по запросам.

Вариант группировки по страницам (см. первое изображение) позволяет быстро определить:

  • коснулись изменения трафика всего сайта, или только отдельных страниц/разделов;
  • у каких разделов сайта изменился трафик больше всего (например, просел только информационный раздел, а каталог товаров — в норме);
  • у каких типов страниц изменился трафик (например, просели только карточки товаров, а категорийные страницы — в норме).

Для быстрой оценки изменений трафика по поисковым фразам можно переключиться на группировку по запросам:

04

Такой формат отчета позволяет сходу увидеть, какие типы запросов просели:

  • ВЧ, НЧ или СЧ;
  • коммерческие или информационные;
  • категорийные или товарные и так далее.

Как работает инструмент

Для получения данных необходимо:

  • предоставить инструменту доступ к Google Search Console;
  • указать два периода для сравнения показателей (для минимизации погрешности рекомендуется указывать одинаковые периоды).

Инструмент берет данные из консоли по API и выводит их в виде таблицы. В текущей версии для анализа берется 5000 строк (выгрузить из GSC вручную можно только 1000 строк).

Настройка скрипта и получение данных занимают 2-3 минуты.

Для чего можно использовать

Инструмент экономит массу времени, когда нужно быстро оценить изменения трафика, например:

  • при анализе трафика после Google Core Update;
  • при анализе плавной просадки трафика с Google;
  • при аудитах сайтов под Google и т.д.
NaZapad-15-online-conferece-seo
NaZapad 15 — Онлайн конференция по SEO пракатикам, выдержки о главном

Это практически единственная и максимально концентрированная конференция по SEO на западных рынках, которая проходит онлайн. В прошлые разы там было много про линкбилдинг и PBN, в этот раз упор на onPage оптимизацию, аналитику и конверсии.

Вас ждут Бондарь, Карпенко, Шакин, Сохач и другие мастодонты SEO.

Читать далее
ALL-SEO-MYTHS
16 популярных мифов о SEO продвижении сайтов

Сколько существует SEO, столько вокруг него и ходят различные мифы. Они передаются из уст в уста. И озадачивают многих владельцев сайтов, ведь не понятно, что из услышанного правда, а что вымысел. 

Для этой статьи мы отобрали 16 наиболее популярных мифов о SEO о которых поговорим ниже и покажем, почему в них не стоит верить

Читать далее
teh-seo-audit-saita-title
Пошаговая инструкция по самостоятельному техническому SEO при помощи инструментов SEMrush

Гайд состоящий из 19 пунктов по технической оптимизации от Robbie Richards, seo специалиста и автора блога robbierichards.com. 

Итак, начнем.

Читать далее
keys-seoprofy-email-software-seo
Кейс от SEOProfy: Как за 2 года увеличить органический поисковый трафик в 14 раз. Ниша программного обеспечения электронной почты B2B на рынке США

Ребята из SeoProfy рассказали в своем блоге об успешном кейсе увеличения поискового трафика в 14 раз, за 2 года. Пример очень достойный, поэтому решил написать о нем

В этой статье описан пошаговый процесс, которому следовала команда SeoProfy чтобы увеличить органический поисковый трафик клиента с 4000 до 58000 посетителей в месяц всего за 2 года. , и который я рекомендую всем оптимизаторам.

Читать далее
drop-site-link
Ссылка или 301 редирект? Как лучше передать ссылочный вес дропа

Николай Кодий рассказал как лучше передать ссылочный вес дропа на сайт. Сравнения методом линковки и 301 редиректа.

Очень часто мне в личку задают вопрос типа этого: «Почему некоторые советуют создать сайт на тематическом дропе и проставить с него ссылку на мой, а другие говорят, что можно создать тематический сайт и потом сделать 301 редирект на мой? Как лучше поступить?»

Для начала разберемся в чем разница между ссылкой с сайта и 301 редиректом.

Читать далее
seo-day-2020
SEO Day — бесплатная онлайн-конференция для сео специалистов

SEO Day  — бесплатная онлайн-конференция, посвященная самому эффективному инструменту привлечения целевых посетителей на сайт — SEO-оптимизации​.

Онлайн трансляция и видео записи в статье

Читать далее
Ahrefs-Webmaster-Tools-AWT
Ahrefs анонсировал бесплатный инструмент для веб-мастеров, Ahrefs Webmaster Tools ( AWT ) прямой конкурент Google Search Console

Компания Ahrefs запустила бесплатный инструмент для web-мастеров Ahrefs Webmaster Tools ( AWT ) , бесплатный аналог и прямой конкурент прямой конкурент Google Search Console.

Более подробно про анонс сервиса рассказала Ребекка Бек

официальный представитель Ahrefs и автор блога о SEO контенте и маркетинге.

Читать далее
sem-pro-conference-2020
Обзор и видео онлайн трансляции SEM PRO конференции 17.09.2020

SEO специалистам и веб-мастерам посвящается. Запись онлайн трансляции ежегодной конференции по сео SEMPRO, которая состоялась 17 сентября 2020 года и проходила в 6-й раз.

https://youtu.be/XIMZmZAYMD0

Начало конференции с 36-й минуты

По данным топовых специалистов по SEO это была лучшая конференция по оптимизации сайтов за последние три года.

Рассматривались примеры продвижения сайтов по тематикам:

  • нутры
  • гемблинг
  • бэттинг
  • pdl

Спикеры, которые выступали

  • Александра Хилова
  • Владимир Лучанинов
  • Иван Боговик
  • Сергей Аникушин
  • Андрей Капельцев
  • Владислав Панасюк
  • Денис Нарижный
  • Сергей Безбородов
  • Денис Дементиенко

Темы по SEO, которые рассматривали спикеры

  1. Корпоративные битвы SEO против Development. Как наладить работу департаментов внутри Gambling компании.
  2. Прикладной линкбилдинг построение ссылок на потоке.
  3. Пошаговая интрукция по подклейке доменов. 3 совета Нарижного.
  4. Буст SEO/SERP стратегии с уникальными подходами в крауде. Кейсы и секретный ингридиент
  5. Техническое SEO больших сайтов не вслепую.

Также, было много докладов по Арбитражу, в т.ч. и про гемблинг тематику, тизерки, ROI и фриланс. Если интересно, напишите в комментариях, сделаю обзор и добавлю видео онлайн трансляции SEM PRO арбитраж конференции.

SEO-Tools-and-services
Лучшие SEO инструменты и сервисы, по мнению Мэтью Вудворда

Если вы хотите увеличить обычный поисковый трафик на свой сайт…

Вам нужно вооружиться лучшими инструментами SEO для работы.

В мире SEO жесткая конкуренция …

… И практически невозможно конкурировать без правильных инструментов.

Итак, я собираюсь показать вам все инструменты SEO, которые мы используем, чтобы уничтожить конкурентов.

Мэтью Вудворд

Это лучшие инструменты по SEO

Хотя я использую широкий спектр инструментов SEO в зависимости от поставленной задачи …

… Это 9 инструментов SEO, которые я использую наиболее часто (и вы тоже должны!) .

1. Surfer SEO аудит

Surfer SEO поможет вам найти возможности оптимизации для повышения вашего поискового рейтинга.

Вы можете проанализировать любой веб-сайт или URL-адрес, и после завершения анализа вы получите список действий, которые необходимо немедленно выполнить.

SEO инструмент

Но это не все! Наши райтеры используют Content Editor, чтобы каждый раз создавать идеально оптимизированный контент на основе данных.

2. Rank Math

Rank Math — это бесплатный плагин SEO для WordPress, который поможет вам оптимизировать ваш сайт за несколько кликов.

Он также включает в себя множество функций, которые в противном случае вы могли бы найти только в плагинах премиум-класса.

ранг математика бесплатный инструмент SEO

Мы используем RankMath для обеспечения работы всех наших сайтов и автоматического создания всех наших структурированных данных.

3. AccuRanker

AccuRanker не зря является ведущим в мире трекером рангов.

Accuranker

У него масса функций:

  • Обновления рейтинга по запросу — с обновлением ключевых слов каждые 24 часа и обновлением вручную всего за несколько секунд.
  • Углубленный анализ — с широким набором доступных метрик и фильтров данных.
  • Пользовательский шаблон отчетов — персонализируйте свой отчет, добавив свой логотип, и автоматизируйте отчетность с помощью функции расписания.
  • Корпоративные функции по невысокой цене — с доступными данными, расширенными метриками и подробными данными и анализом.
  • История поисковой выдачи — просмотрите историю поисковой выдачи для отслеживаемых ключевых слов.

… И отличная поддержка клиентов.

Мы не зря попадаем в личный кабинет AccuRanker несколько раз в день!

Бонус: у AccuRanker есть два бесплатных инструмента, которые вы можете использовать без подписки.

Первый — Google Grump . Он отслеживает изменения в алгоритме Google. Это важно, потому что обновление Google может серьезно повлиять на ваше SEO.

Второй называется SERP Checker . Он показывает вам, где и как вы появляетесь в поиске Google — мгновенно.

4. URLProfiler 

URLProfiler — мощный инструмент, который можно использовать для:

  • Аудит контента
  • Аудит обратных ссылок
  • Поиск ссылок
  • Диагностика штрафов SEO
  • Поиск социальных данных
  • Поиск контактных данных

И многое другое!

Он интегрируется с рядом инструментов, таких как Majestic, Moz, Ahrefs, Google Analytics, Google Search Console, Copyscape, SEMRush и uClassify.

Профилировщик URL

На первый взгляд он может показаться не таким уж мощным, но все эти маленькие флажки означают, что его можно настроить для выполнения ряда задач.

Это очень удобно для поиска огромных объемов данных для тысяч URL всего за 1 щелчок.

5. IPVanish VPN

IPVanish VPN сервис не является строго инструментом SEO, так как обеспечивает подключение и шифрует все ваши просмотры, это позволяет легко сменить ваше местоположение практически из любой точки мира с помощью быстрого щелчка мыши.

ипваниш

Вы можете надежно проверять результаты поиска из других стран или точно тестировать геотаргетинг, одновременно повышая безопасность.

Он работает на Windows, Mac, iOS, Android, Chromebook, Windows Phone, Ubuntu, и одну учетную запись можно использовать на любом количестве устройств! 

6. Spamzilla

SpamZilla позволяет вам покупать мощные просроченные домены с отличными профилями обратных ссылок за несколько кликов.

Мы строим все наши новые сайты на доменах с истекшим сроком действия, которые уже имеют профили обратных ссылок.

spamzilla

SpamZilla автоматически:

  • Находит доступные домены с истекшим сроком действия
  • Учитывает все показатели, необходимые для принятия правильных решений
  • Анализирует каждый домен на предмет спама
  • Включает расширенные фильтры для поиска любого домена для любой ниши в любой стране

Таким образом, вы получите только чистые и надежные домены, которые сэкономят вам время и деньги.

SpamZilla имеет удобный интерфейс, поэтому вы можете быстро и легко просматривать данные. Он имеет более 80 фильтров, включая фильтры на основе обратных ссылок, языка, спама и авторитетных источников.

Это один из самых простых способов начать работу с новыми сайтами!

7. LinksThatRank

Создание ссылок важно, если вы хотите ранжироваться, но многим людям сложно создавать высококачественные ссылки, которые приносят результаты, потому что это непросто и требует много времени, чтобы получить правильные результаты.

Однако есть такие сервисы, как LinksThatRank, которые могут вам помочь.

Это простой в использовании. Единственное, что вам нужно сделать, это ввести URL-адрес и целевое ключевое слово, по которому вы хотите ранжироваться, а команда LinksThatRank сделает все остальное!

SEO сервис

Они отличаются от своих конкурентов, потому что предлагают превосходный контроль качества, который имеет решающее значение.

Это то, что ты получаешь:

  • Релевантные места размещения (на реальных сайтах)
  • Контент (более 1000 слов) с соответствующими внутренними и внешними ссылками
  • Нет биографии автора
  • Нет страницы «Напишите нам»
  • Нет существующих ссылок
  • Строгий контроль качества
  • Черный список бесплатно

Как только это будет сделано, вы получите полный отчет. Создание ссылок не может быть намного проще.

8. Ahrefs

Ahrefs начал свою жизнь как простая база данных обратных ссылок много лет назад.

Но с годами он превратился в доминирующую силу в исследованиях ключевых слов и контента, а также предоставляет инструменты для аудита сайтов и отслеживания рейтинга.

Ahrefs

Хотите ли вы лучше взглянуть на свой сайт или узнать, чем занимаются ваши надоедливые конкуренты — лучшего инструмента для этого, чем Ahrefs, нет, и мы используем его несколько раз в день.

9. Pitchbox

Pitchbox — лучший информационный инструмент, который можно купить за деньги.

Я не шучу, этот инструмент абсолютно безумный и необходим, если вы хотите создавать ссылки в большом масштабе.

смола

Это может помочь вам:

  • Найдите блогеров, издателей и влиятельных лиц в своей нише в рекордно короткие сроки.
  • Создавайте настраиваемые, персонализированные информационные кампании и последующие кампании — так что вы будете полностью контролировать свои сообщения.
  • Принимайте решения на основе данных. Отслеживая каждый этап информационного процесса, вы можете уточнить / улучшить свою стратегию для оптимизации эффективности и получения максимальных результатов.
  • Упрощает создание масштабируемой команды по созданию ссылок
  • Автоматизируйте задачи, которые вам потребуется нанять нескольких сотрудников для обработки вручную

Его также рекомендуют многие известные представители отрасли, и он является нашим предпочтительным инструментом распространения информации внутри компании. Нет даже близкой секунды.

Другие инструменты SEO, которые я использую

10. Инструмент Quick Win SEO

Конструктор SEO-стратегий — это эксклюзивный инструмент, который я выпустил ранее в этом году.

Мы запускаем его каждые 90 дней на каждом сайте, чтобы всегда максимально эффективно использовать текущие возможности SEO.

бесплатный инструмент быстрого поиска

Бесплатный инструмент также включает серию видеороликов, которые шаг за шагом научат вас, почему, что и как.

Мы обучаем этому процессу всех наших новых младших SEO-специалистов, потому что он прост в освоении, прост в исполнении и быстро дает результаты!

11. SEMRush

Перед Ahrefs, был SEMRush — это был один из пионеров исследования ключевых инструментов для SEO на мой взгляд.

Они включают в себя набор инструментов, которые помогут увеличить ваш поисковый трафик, включая исчерпывающую базу данных обратных ссылок, ключевых слов и объявлений PPC.

Инструменты SEO SEMRush

У них также есть несколько уникальных функций, которые вы не найдете больше нигде.

Кроме того, если у вас ограниченный бюджет, команда SEMRush предоставляет моим читателям эксклюзивную 14-дневную бесплатную пробную версию, чтобы вы могли получить доступ к данным мирового класса без дорогой платы.

12. WP Rocket

Скорость веб-сайта — один из самых важных факторов, который необходимо учитывать.

Зачем?

  1. Потому что Google подтвердил, что скорость веб-сайта является фактором ранжирования.
  2. Потому что это тоже фактор ранжирования для ваших посетителей.

WP Rocket — это плагин WordPress, который поможет вам быстро и легко ускорить работу вашего сайта, чтобы вы могли сосредоточиться на привлечении трафика и продаж!

WP ракета

Он предлагает вам все инструменты, необходимые для увеличения времени загрузки веб-сайта в одном пакете, и имеет несколько замечательных функций, таких как:

  • Быстрая установка
  • Расширенное кеширование страниц
  • Оптимизация базы данных
  • Оптимизация Google Fonts
  • Оптимизация Google Analytics
  • Оптимизация пикселей Facebook
  • Минификация
  • Отложить загрузку JS
  • Оптимизация сердцебиения
19dcff255ab91592521455-optinmonster4-600.gif

13. ShortPixel

ShortPixel — это простой в использовании и легкий плагин для оптимизации изображений.

Этот плагин позволяет:

  • Сжимайте изображения, которые уже есть на вашем сайте
  • Сжимайте PDF-документы за несколько кликов
  • Автоматически оптимизируйте все новые загружаемые изображения

Другими словами, он улучшает производительность веб-сайта за счет уменьшения размера изображения при сохранении его качества.

короткий пиксель

И эта экономия была получена после того, как изображения уже были оптимизированы с помощью бесплатной версии WPSmush.

Вы также можете использовать его для создания изображений WebP И вы можете использовать одну и ту же учетную запись ShortPixel на любом количестве веб-сайтов!

14. SEO Powersuite

SEO PowerSuite занимает особое место в моем сердце, потому что я использовал его уже десять лет.

И даже по сей день это один из самых недорогих инструментов на рынке. Вы получаете очень много за свои деньги!

seo powersuite

Даже при бесплатной загрузке вы можете получить доступ к этим замечательным инструментам:

  • Отслеживание рейтинга: отслеживайте ваши (или конкуренты) результаты по различным ключевым словам для любой поисковой системы и страны.
  • Аудитор веб-сайта: помогает выполнять аудит за секунды и показывает, как исправить обнаруженные проблемы.
  • SEO SpyGlass: исследуйте свои профили обратных ссылок или профили конкурентов.
  • Помощник по ссылкам : управляйте всеми своими ссылками и создавайте партнерские отношения под одной крышей.

Практически любой может реализовать надежную стратегию SEO с помощью этого набора инструментов, который не сломает банк. 

15. BuyProxies

Я использую Buy Proxies с 2012 года.

В частности, я использовал их более дешевые полу-выделенные прокси, в основном для операций на базе Google.

buyproxies

Они предлагают как частные, так и общие прокси из множества мест по всему миру и обеспечивают практически мгновенную настройку.

Если вы планируете использовать общие прокси (за полцены!) Для задач, связанных с Google / SEO, обязательно сообщите им об этом при регистрации.

16. DripRevolution

DripRevolution панель позволяет легко строить социальные сигналы на любую страницу вы хотите.

А поскольку мне нравятся собаки и алгоритмы, мне нужна вся помощь, которую я могу получить во всех социальных сетях.

капельница

Подписка на бесплатный план дает вам 100 бесплатных социальных сигналов , просто добавьте свои URL-адреса в проект и вуаля!

Вы можете легко получить доступ к своим отчетам и управлять своей компанией через панель управления.

Если вы обратитесь в службу поддержки DripRevolution и назовете мое имя, они также бесплатно предоставят вам дополнительные 50 социальных сигналов.

17. LinkWhisper

LinkWhisper — это плагин WordPress, который помогает вам преодолеть различные проблемы, связанные с развертыванием эффективной стратегии построения внутренних ссылок .

добавление внутренних ссылок с шепотом ссылок

Он делает автоматические и интеллектуальные предложения внутренних ссылок, которыми легко управлять.

И он автоматически обнаруживает контент, который может быть связан со статьей / сообщением, которое вы в настоящее время пишете, поэтому вы получаете качественную внутреннюю ссылку.

Плюс также находит старые сообщения, на которые нужно больше внутренних ссылок, чтобы привлечь к ним трафик и повысить рейтинг за пару кликов.

18. PerfMatters

PerfMatters — это плагин WordPress, который помогает вам контролировать JavaScript и CSS ваших сайтов.

Возможно, вы этого не знаете, но большинство плагинов WordPress добавляют javascript и CSS на каждую страницу вашего сайта, даже если вы не используете этот плагин на этой странице.

Например, если вы используете плагин контактной формы, такой как Contact Form 7, он добавляет javascript и CSS на каждую страницу вашего сайта, даже если вы используете форму только на своей странице контактов.

PerfMatters позволяет вам очень легко контролировать это на странице за страницей.

Они часто обновляют и выпускают новые функции, чтобы постоянно улучшать плагин и производительность ваших сайтов.

Если ваш сайт построен на WordPress, уверяю вас, вам понадобится этот плагин.

19. FindThatLead

FindThatLead может помочь вам найти всех людей и адреса электронной почты, которые существуют для определенного домена.

Поэтому, если вы хотите связаться с кем-то в любой компании, просто введите его домен, чтобы найти все соответствующие контактные данные.

найти

Он также имеет базовый инструмент для работы с электронной почтой, который автоматизирует и настраивает ваши почтовые кампании.

В основном мы используем его для поиска адресов электронной почты, но вы также можете использовать его для связи с лицами, принимающими решения, и поиска новых талантов.

20. Screaming Frog

Screaming Frog — это король технических SEO-аудитов в реальном времени.

Независимо от того, проводите ли вы ежегодное техническое обслуживание или пытаетесь диагностировать проблему с поиском, лучшего инструмента для этой работы нет.

кричащая лягушка

Он просматривает целые веб-сайты в поисках проблем с SEO, а также может использоваться для поиска дублированного контента, проблем со структурированными данными, визуализации карты сайта и многого другого.

Вы также можете использовать его для получения данных из Google Analytics, Google Search Console, Ahrefs и множества других инструментов для комплексного SEO-аудита.

22. Batch Speed

Batch Speed — отличный инструмент для всех, кто хочет получить снимок скорости сайта по всему своему сайту.

Просто введите свою домашнюю страницу, карту сайта или список URL-адресов, и он запустит массовые тесты Google Page Speed:

скорость партии

Вы можете видеть все, начиная от времени First Content Paint (FCP) и заканчивая тем, сколько CSS или Javascript загружается.

Это особенно важно в связи с недавним объявлением Google Core Web Vitals.

Batch Speed ​​позволяет вам протестировать до 500 URL-адресов бесплатно, и вы можете экспортировать все результаты в CSV для дальнейшей диагностики.

23. Инструмент Panguin

Думаете, на ваш поисковый трафик могло повлиять обновление Google?

Что ж, есть простой способ узнать!

Инструмент Panguin накладывает известные обновления алгоритмов на ваш обычный поисковый трафик.

пангвин

Если после крупного обновления вы видите резкое падение …

… Он дает вам нить, которую вы должны начать тянуть, чтобы выяснить, в чем проблема и как вы можете вернуться к благосклонности Google.

24. Плагин мгновенного индексирования

Instant Индексация Плагин разработан Rank Math команды, чтобы помочь получить ваш новый или обновленный контент индексируется практически мгновенно.

В отличие от других плагинов индексирования, это ПЕРВЫЙ плагин WordPress, который напрямую использует Google Indexing API.

плагин мгновенного индексирования

Плагин сделает за вас грязную работу, автоматически отправляя запросы индексации в фоновом режиме для нового и обновленного контента.

К сожалению, вы можете использовать его только для индексации контента на принадлежащих вам доменах.

25. Расширение Keyword Surfer

Новое расширение Keyword Surfer для Chrome увеличивает объемы поиска в результатах поиска!

Подпишитесь на мой канал YouTube сейчас ->

И не только данные об объеме поиска, но и вы сможете увидеть-

  • Связанные ключевые слова плюс их поисковые объемы
  • Среднее количество слов на страницах с самым высоким рейтингом
  • Оценка посещаемости страниц
  • Стоимость клика по ключевым словам

Кроме того, он доступен на большинстве языков в более чем 70 странах, что совершенно безумно бесплатно.

26. WebPageTest

WebPageTest — отличный инструмент для бесплатного тестирования производительности вашего сайта.

Это инструмент, на который я больше всего полагаюсь, пытаясь получить данные реальных испытаний, и он прост в использовании!

тест веб-страницы

После завершения теста можно легко выяснить, что замедляет работу вашего сайта, чтобы вы могли это исправить.

Иногда удивительно то, что вы находите, но вы можете запускать столько тестов, сколько хотите, бесплатно!

27. Google Search Console

Никто не знает о вашем сайте больше с точки зрения SEO, чем сам Google, так почему бы не воспользоваться их бесплатной консолью вебмастера Google ?

Он дает вам полный обзор вашего сайта и уведомит вас о любых ошибках —

ошибки сканирования консоли поиска google

Внутри вы можете найти множество полезных данных, включая обратные ссылки на ваш сайт, аналитику вашей производительности, если у вас есть какие-либо ручные штрафы, и многое другое.

Они всегда добавляют новые функции, такие как отчет Core Web Vitals, поэтому убедитесь, что вы подключены.

28. Google Analytics.

Google Analytics — необходимый инструмент.

Данные здесь настолько исчерпывающие, и как только вы пройдете мимо тщеславных показателей, у вас появится тонна действенных данных, с которыми вы можете работать.

Данные отслеживания событий

Каждая кампания, каждое усилие по наращиванию ссылок и каждое изменение, которое вы вносите на сайт, отражаются в Google Analytics. В настоящее время сделать маркетинг без этого — непростая задача.

Убедитесь, что у вас есть настройка отслеживания событий Google Analytics , чтобы оптимизировать вашу прибыль.

29. Инструменты Bing для веб-мастеров

Большинство людей игнорируют Bing, потому что они сосредоточены на Google.

Но если вы не видели обновлений, которые они внесли в Bing Webmaster Tools в 2020 году, вам нужно взглянуть еще раз.

инструменты для веб-мастеров Bing

Теперь вам дают (бесплатно) —

  • Отличный инструмент для исследования ключевых слов
  • Инструмент глубокого анализа обратных ссылок
  • Возможность сравнивать ссылочные профили с профилями конкурентов
  • SEO сканирование по запросу

И многое другое!

Команда Bing обычно довольно открыта для работы с сообществом SEO, поэтому я не удивлен, увидев такой набор инструментов.

⋙ Какой лучший инструмент для анализа ссылок?

Самый лучший инструмент для анализа ссылок это Ahrefs, для закрытия большинства задач по ссылкам его хватает

⋙ Каким инструментом лучше собирать поисковые запросы?

Для сбора ключей лучше использовать не один а несколько инструментов: Google Ads, Ahrefs, SemRush, Keywordtool. Если мне надо быстро собрать ключи, то я использую Ahrefs + Google Ads + поисковые подсказки.

⋙ Что лучше Screamin Frog или SEO Power Suit

С точки зрения парсинга и технической оснащенности, то Screamin Frog, безусловно, лидирует. SEO Power Suit также имеет ряд удобных функций, например по анализу сайта сразу выдает отчет об ошибках и рекомендациях.

core-web-vitals
Фактор ранжирования сайта поисковой системой Google — Core Web Vitals

Основные показатели для здорового сайта

Оптимизация качества взаимодействия с пользователем — ключ к долгосрочному успеху любого сайта в Интернете. Независимо от того, являетесь ли вы владельцем бизнеса, маркетологом или разработчиком, Web Vitals может помочь вам оценить впечатления от вашего сайта и определить возможности для улучшения.

Читать далее
hreflang-rukovodstvo-po-nastroyke
Руководство по внедрению Hreflang: как добавить и реализовать теги Hreflang

Если вы работаете с многоязычными и / или многостраничными сайтами, вы можете помочь Google распознавать разные языки страниц ваших сайтов с помощью различных конфигураций, которые рекомендуется применять на ваших страницах сайта, чтобы дать Google последовательные сигналы о ваших языковых версиях сайта.

Поскольку теги hreflang позволяют указать значение языка и страны для каждой из страниц с различными версиями веб-сайта и отношения между ними (какой URL-адрес является «альтернативной» версией другого для данного языка и страны, также называемый «альтернативными URL-адресами»), это позволяет напрямую сообщить в Google о таргетинге ваших страниц для того или иного региона. 

Давайте посмотрим, что такое аннотации hreflang, как они работают и как их эффективно реализовать, избегая ошибок:

Читать далее
ctr
ТОП лучших методов повышения CTR на странице сайта

Какие существуют рычаги влияния на CTR-страницы? 

Что сможет заставить потенциального клиента кликнуть именно по ссылке на ваш сайт из всей выдачи? Ответ очевиден: привлекательный сниппет! 

Читать далее
pribelnye-nishy
9 Самых прибыльных ниш в 2020 году: список самых продаваемых рынков

Разница между нишами, которые приносят прибыль, и теми, которые не приносят прибыли, может составлять миллионы долларов в месяц.

Если вам нужна помощь и вы хотите стать лучше в построении прибыльного онлайн-бизнеса, это руководство пошагово расскажет вам, как построить свой партнерский онлайн бизнес на сайтах. Независимо от того, являетесь ли вы новичком в партнерском маркетинге (или просто ищете новый подход), вы обязаны сосредоточиться на возможностях, которые принесут большую прибыль.

Здесь, в этой статье описаны наиболее прибыльные ниши в 2020 году. По каждому из них вы узнаете, какие продукты определяют их и какие комиссионные вы можете ожидать от некоторых типовых рекламодателей.

Читать далее
freelancer
Фриланс — Какие этапы заработка проходят фрилансеры?

Сначала давайте договоримся, что у всех эти этапы и поведение на них могут отличаться. Люди разные — это нормально. Но общие начертания поведения будут схожими у большинства исполнителей. 

Читать далее
301-redirect-prodvijenie
301 РЕДИРЕКТ — ПРОДВИЖЕНИЕ РЕДИРЕКТАМИ В ВЫСОКОКОНКУРЕНТНОЙ НИШЕ
  • Нужны трастовые ссылки ( wiki edu gov и тп )
  • Их надо сразу и много. Где их взять?
  • Надо дешево. Как не потратить на этот over дофига бабла?

не ребята, есть выход.

Читать далее
principy-raboty-poiskovyh-system
Принципы работы поисковых систем Google и Yandex и др

Сбор данных (краулинг)

Это процесс сбора данных с сайта поисковыми и другими роботами. Происходит с определенной регулярностью в зависимости от важности сайта с точки зрения поисковых систем.

Этот процесс можно ускорить:

Для успешного сбора данных нужно, чтобы:

  • сайт всегда был доступен
  • бот не тратил мощность сервера на “мусорные” и некачественные страницы
  • все нужные страницы были легко доступны
  • не было много 404-ых страниц (удаленных)
  • было минимум интерактивных элементов — flesh, javascript
  • не было сильно высокого уровня вложенности страниц

Эти проблемы решаются техническим SEO-аудитом, в частности — файлами robots.txt и sitemap.xml, а также тэгом meta robots

Индексация

Это внесение страниц сайта в базу поисковых систем, а также составление для каждой страницы файла-индекса, по которому поисковая система будет производить поиск. Состоит из списка слов и информации о них — позиции, частоты, контекста

Происходит практически сразу же после сбора данных с сайта

Кеширование

Сохранение поисковыми системами (и не только) копии страниц сайта за определенное число. Как правило это дата последнего посещения сайта поисковыми системами.

Такой принцип сохраненных копий позволяет поисковым системам экономить мощности. А для SEO-специалистов означает необходимость отправления сайта на переиндексацию при внесении изменений.

Поиск информации

Анализ запроса, который ввел пользователь. Производится по индексам, сохраненным в кеше.

Отбираются документы (страницы), наиболее схожие с запросом пользователя

Результат для пользователя

Ранжирование

Процесс постройки рейтинга, в котором верхние результаты будут отданы

  • сайтам, которые дадут наиболее полный и релевантный ответ на запрос пользователя
  • наиболее качественным сайтам

Формула ранжирования имеет >200 факторов, наиболее значимые из них:

  • вес страницы
  • авторитетность домена
  • релеватность контента запросу

количество и качество внешних ссылок на документ и сайт в целом

Google-Ads
Полный чек лист по добавлению сайта в Google Ads

Команда Monetizator.pro подготовила мануал/чек лист для повышения шанса добавления сайта в Google AdSense. Это будет наиболее полный и подобный мануал для повышения шанса добавления сайта в систему AdSense.

Читать далее
factors-ranking
Разрушение мифов о SEO: что не является фактором ранжирования в поиске Google

Google заявил, что не использует эти сигналы для информирования о том, какое место занимает ваш сайт в обычных результатах поиска.

Специалисты по поисковой оптимизации и владельцы сайтов любят говорить о различных факторах ранжирования в Google. Хотя мы знаем, что контент и ссылки по-прежнему являются важными сигналами, всегда ведутся разговоры об элементах, которые, как неоднократно заявлял Google, на самом деле не влияют на рейтинг.

Читать далее
poisk-drop-domenov
5 лучших способов искать дроп домены

Строите сетки PBN? Работаете с заполнением выдачи аффилиатами? Если вы постоянно мониторите выдачу в поисках дропов, то я могу облегчить вашу задачу. Не нужно придумывать велосипед. Есть готовые методики, которые я описал в данной статье.

Итак, как искать дропнутые домены. 5 самых лучших способов

Читать далее
ppc-click
ТОП 6 Лучших инструментов для PPC-специалиста!

Инструменты PPC-специалиста!

Так как РРС-специалисты в основном работают с рекламой в Google, может показаться, что какого-то дополнительного, непродуманного самим Google софта может и не понадобиться. Однако это далеко не так. В своей работе специалисты по контекстной рекламе нередко прибегают к дополнительным инструментам, которые сильно упрощают работу.

Читать далее
Filtry-google
Фильтры Google — Алгоритмы пессимизации сайтов в поисковой системе

Имхо, полезные мысли об алгоритмических фильтрах Google от автора телеграмм канала SEO inside Далее от имени автора.

Читать далее
seolib-service-analis-google
Как посмотреть историю история, при помощи сервиса Seolib?

Анализ конкурентов – очень важный процесс в работе специалиста по продвижению.

Анализ состояния выдачи – обязательный этап в ситуациях с негативным окрасом (просадка), при оценке новой для себя ниши, во время постоянного продвижения проекта. 

По каким параметрам анализировать топовые сайты – читайте в нашей обновленной статье. 

Читать далее
asessors_google
Google рассказал про степень участия асессоров в поиске

Как выглядит задача для асессора? Они генерируют выборку по группам запросов (скажем, несколько сотен).

Группа рейтеров получает список запросов и им показывается 2 версии результатов поиска: текущая и одна из версий поиска с некоторыми улучшением. Которые они оценивают по пулу параметров о которых речь пойдет ниже.

Читать далее
kraulingovyj-budget-seo-legend-martin
Краулинговый бюджет: Новый выпуск разрушителей SEO-легенд от Мартина Сплита

Google записал новый выпуск разрушителей SEO-легенд, в котором Мартин Сплит рассказал про краулинговый бюджет.

Читать далее
kak-sozdat-i-nastrioit-robots.txt
Расширенная инструкция по настройке файла robots.txt

ROBOTS.TXT — файл, который является инструкцией, для поисковых роботов и указывает им где и куда рекомендуется переходить по сайту. 

Все основные поисковые системы функционально поддерживают директивы robots.txt, но некоторые из них требуют указывать дополнительные правила, которые также могут быть полезны. Все эти правила мы рассмотрим в данной статье.

В этом руководстве вы узнаете все способы использования robots.txt на вашем веб-сайте. Это очень просто, но, несмотря на простоту, любые ошибки, которые вы допускаете в файле robots.txt, могут нанести серьезный вред вашему сайту. 

Поэтому, обязательно, прочитайте и детально изучите эту статью, до того, как будете редактировать файл robots.txt.

Читать далее