* РБК — новости

* *

SEO лучшие практики для JavaScript

  1. SEO лучшие практики для сайтов на основе JavaScript
  2. Отображение страниц в поиске Google
  3. Структура URL
  4. Внутренняя ссылка
  5. Загрузка контента
  6. Заключение

Я не знаю о вас, но здесь, в Catalyst, мы все еще взволнованы по поводу удивительных спикеров и проницательного контента, который вышел из TechSEO Boost 2017 , TechSEO Boost, организованная Catalyst, стала первой в отрасли конференцией, полностью посвященной техническому SEO. Он объединил ведущие умы отрасли, чтобы обсудить последние технические тренды SEO, тактику и инновации.

Не было недостатка в удивительном контенте для обсуждения, но в этом посте я сосредоточусь конкретно на презентации JavaScript Макса Принса, главы отдела технической оптимизации, в Merkle.

SEO лучшие практики для сайтов на основе JavaScript

Мы все знаем, что сканеры поисковых систем могут испытывать трудности при сканировании сайтов на основе JavaScript. В результате многие оптимизаторы пытаются вывести бренд-менеджеров, разработчиков и маркетологов из платформ на основе JavaScript. Но, давайте посмотрим правде в глаза, некоторые веб-сайты на основе JavaScript довольно приятные и обеспечивают отличный пользовательский опыт. Пришло время, чтобы оптимизаторы стратегически работали с JavaScript и помогали клиентам и веб-сайтам использовать лучшее, что может предложить технология. Макс Прин , Руководитель технического SEO в Merkle присоединился к составу TechSEO Boost, чтобы поделиться некоторыми тактиками и стратегиями, которые поисковые маркетологи могут использовать, чтобы помочь веб-сайтам на основе JavaScript получить больше видимости от поисковых систем.

Отображение страниц в поиске Google

Поисковые системы начинают сканировать отображаемые страницы вместо исходного кода. Они знают, что многое можно упустить, просто взглянув на исходный код, но также знают, что сканирование отображаемой страницы может занимать много времени и обеспечивать небольшую ценность, если информация отображается неправильно.

Мы будем использовать Google в качестве примера поисковой системы для остальной части этого поста. Google часто сканирует веб-сайт по исходному коду, но в некоторых случаях сканирует отображаемую страницу перед индексацией. В ходе своей сессии Макс объяснил, что Googlebot использует сервис веб-рендеринга, основанный на Chrome 41, и, хотя это старая версия Chrome, он говорит, что это хорошее место для старта, и рекомендовал всегда оптимизировать его до последней версии Chrome.

Структура URL

Структуры URL - это первое, что сканеры видят при доступе к странице. Учитывая это, важно, чтобы ваш URL был доступен для поисковых систем. Тем не менее, URL-адреса страниц на основе JavaScript могут быть довольно уродливыми и затруднять сканирование поисковыми системами.

Используя Ajax, по умолчанию вы получаете URL, похожий на приведенный ниже:

Идентификатор фрагмента: example.com/#url

Это не идеально, потому что все после хэша не отправляется на сервер. Поисковые системы читают его как example.com, а не example.com/#url. Исправление к этому - hashbang (#!), Который был введен Google много лет назад. Хэш-банг был там, чтобы сообщить Google, что им нужно запросить другой URL, и этот URL является URL-адресом фрагмента с пробелом. Увидеть ниже:

Hashbang: example.com/#!url

Google и Bing запросят Example.com/?_escaped_fragment_=url

_escaped_fragment_=url

Идея заключается в том, что URL-адрес экранированного фрагмента должен возвращать HTML-снимок страницы, которую поисковые роботы могут индексировать, но они все равно будут отображать URL-адрес hashbang. Тем не менее, hashbang в конечном итоге вызывает много взад и вперед и путаницы. Ожидается, что Google в конечном итоге перестанет поддерживать URL-адрес фрагмента с пробелами.

Учитывая эти недостатки и изменения, в настоящее время рекомендуется использовать чистые URL-адреса и использовать функцию pushState History API. Таким образом, все боты и сканеры смогут следить за URL, и они будут выглядеть абсолютно чистыми.

Внутренняя ссылка

Это может показаться немного очевидным, но при создании внутренних ссылок используйте классическую <a href=veloperlink.html книг>. Это лучший способ, которым поисковые системы смогут сканировать и переходить по этим ссылкам. Внутренние ссылки очень важны на вашем сайте. Это дает вам возможность продвигать контент на вашем сайте. Если поисковые системы не смогут перейти по этим ссылкам, вы потеряете капитал.

Загрузка контента

Разработчики и маркетологи могут ускорить время загрузки контента сайта. Одна из этих тактик - использование мегаменю. Это также отлично подходит для пользователей, поскольку предоставляет много информации в одном месте и может упростить навигацию.

Проблема мегаменю заключается в том, что поисковые роботы не могут получить к ним доступ на сайтах на основе JavaScript. Все усилия, затраченные на создание этого великолепного меню ссылок для улучшения внутренних ссылок, напрасны, так как меню не доступно поисковым роботам и значение SEO теряется. Одним из обходных путей для мегаменю является использование навигационной структуры на основе HTML.

Содержание с вкладками испытывает аналогичные проблемы. Может показаться хорошей идеей добавить контент с вкладками, потому что это ускорит время загрузки. Содержимое на вкладках 2, 3 и 4 может загружаться, пока пользователь перемещается по первой вкладке. Это похоже на отличный способ распространения загрузки контента. ОДНАКО, когда Google попадает на эту страницу и контент скрывается на этих вкладках, он будет утерян поисковыми сканерами. Даже если Google найдет контент на этих более глубоких вкладках, он будет обесценен, потому что это не показанный контент на странице. Лучше всего создавать отдельные страницы для каждой из этих вкладок.

Лучше всего создавать отдельные страницы для каждой из этих вкладок

Заключение

В конце концов, главная рекомендация Макса для аудитории заключалась в том, чтобы поисковые системы могли получать доступ к вашему контенту и читать его. Существует множество замечательных технологий, которые можно использовать, чтобы веб-сайт выглядел великолепно, но если поисковые системы не могут получить доступ к этому контенту, видимость обязательно снизится. SEO должны адаптироваться и обходить ограничения технологии, чтобы максимизировать видимость и трафик независимо от технологии. Вы можете посмотреть полную презентацию Макса, а также другие презентации TechSEO Boost Вот , И вы всегда можете написать нам на [email protected] чтобы научиться поднимать свое техническое SEO на новый уровень.

Com/?

Реклама

Популярные новости


Реклама

Календарь новостей

Реклама

Архив новостей

Реклама