на какой контент будет спрос?
В этой подборке расскажем, что нового появилось на YouTube в четвертом квартале 2022 и какой контент будет востребован в 2023 году. Читать
В этой подборке расскажем, что нового появилось на YouTube в четвертом квартале 2022 и какой контент будет востребован в 2023 году. Читать
Если у вас есть свой блог на WordPress, то вы наверняка знаете, что такое SEO-плагины, и понимаете, как важна их правильная и грамотная настройка. Yoast SEO – великолепный плагин с огромным количеством различных функций и возможностей. Я и сам его использую для этого и других проектов, отдавая предпочтение из-за удобного интерфейса и некоторых возможностей, коих нет в аналогах.
В этой статье я расскажу о том, как правильно настроить плагин Yoast SEO, не забывая и про инструкции для дальнейшего взаимодействия с ним. Начать, пожалуй, стоит с азов – то бишь установки. Читайте также: “WordPress SEO by Yoast больше не поддерживает meta keywords”.
Данный плагин, как и большинство других, доступен для установки прямо из админки. Вам достаточно перейти в Плагины -> Добавить новый, где далее ввести название в поиск.

Вероятнее всего вам не придется даже вводить название и искать плагин, как правило, он красуется прямо на первой странице, т.к рекомендован к установке самими разработчиками ВП. И тем не менее, надо помнить, что после установки плагин нужно еще и активировать, и сделать вы это сможете прямо в том же окне (кнопка появится, заменяя “Установить”).
Безусловно, я считаю нужным упомянуть и о нем, однако, несмотря на это, рекомендую пользоваться, все же, первым способом. Что же, суть заключается в ручном скачивании zip-архива с официального сайта, и дальнейшей установке этого самого плагина через всю ту же админку. Не думаю, что это будет кто-то делать, но, как говорится, чем черт не шутит.
Итак, переходим на официальную страницу плагина. Там мы сразу видим предложение по покупке премиум-версии, но это (пока) нас не интересует. Чуть правее видна менее красивая ссылочка, которая-то нам и нужна.

Как только мы кликнем на ссылку – начнется автоматическая загрузка zip-архива. Это и есть наш плагин, который мы будем инсталировать. Сразу после загрузки архива мы переходим в админку, также в Плагины -> Добавить новый, где кликаем на кнопку “Загрузить плагин”.

Далее нам необходимо будет просто выбрать файл, и также установить его. Абсолютно ничего сложного. Кстати говоря, не забудьте, после установки, активировать свой плагин.
И вот теперь мы можем перейти к самому сладкому – настройке. Делается это, к слову, не так уж и долго. Достаточно просто разобраться с возможностями, предоставляемыми нам этим плагином, и не навредить, при этом, своему сайту.
Что нам нужно сделать сразу – так это включить расширенные настройки плагина. Именно с ними мы будем работать в большинстве случаев. Однако, должен предупредить, что в этом плагине есть нативный “Мастер настройки”, вы можете попытаться настроить работу Yoast SEO и с его помощью.
Итак, в левом меню, внизу, мы находим вкладку SEO. Перейдя в нее мы увидим консоль нашего плагина, и верхнее меню. В этом самом меню нам необходимо переключиться во вкладку “Возможности”, где далее найти пункт “Дополнительные настройки страницы”. По-умолчанию он будет выключен, нам же нужно его включить.

После сохранения изменений подменю (где Консоль, Консоль поиска и Премиум) расширится. Вместе с ним расширятся и наши возможности по SEO-оптимизации ресурса.
Теперь, помимо вышеперечисленных, в подменю добавятся новые пункты:
Кстати говоря, именно с помощью последнего инструмента, в дальнейшем, вы будете настраивать robots.txt. Важно сделать это максимально правильно, поэтому я рекомендую ознакомиться с материалом: “Правильная настройка Robots.txt для WordPress”.
Теперь же, я думаю, нам стоит остановиться на каждом из новых пунктов в отдельности. Стоит отметить, что некоторые из них уже настроены, но я об этом еще скажу.

Как я уже говорил, именно здесь мы будем настраивать мета-теги, отображение разделителей, а также отображение названий тех или иных элементов сайта. Здесь у нас имеется 6 вкладок, где в каждой есть свои настройки и возможности.
Вкладка, где есть одна единственная настройка – разделитель для заголовка. Как это реализовано вы можете видеть выше.

Вкладка, где мы можем настроить шаблон заголовка, а также шаблон мета-описания (и ключевых слов, если они у вас включены) для главной страницы.

Здесь мы можем настроить все те же шаблоны заголовков и мета-тегов для записей, страниц и медиафайлов. Тут же доступны три переключаемые кнопки. Лучше их не трогать, оставив все как есть.

Настройки шаблонов, но уже для рубрик, меток и форматов.

Настройки шаблонов для архивов авторов и архивов по датам.

Вот мы и добрались до самого интересного. По-умолчанию пункт “Использовать метатег keywords” будет отключен. Я же рекомендую вам включить его, в том случае, если вы ориентируетесь на продвижение в Яндексе. Данный поисковик до сих пор может учитывать их, в отличие от того же гугла.
Итак, если вы понятия не имеете о том, что писать в них, то это весьма печально. В этих самых полях указываются ключевые фразы, которые призваны помогать в продвижении сайта по тем или иным запросам. Все они, вместе с семантическом ядром, составляются, как раз-таки, на основе запросов в поисковиках.
Вы можете самостоятельно изучить принципы составления семантики, чтобы в дальнейшем правильно заполнить эти шаблоны. Или же, в том случае, если вы не хотите напрягаться, вы можете нанять для этого постороннего человека.
Фрилансеры на той же Ворк-Зилле без особого труда подберут, и возможно даже впишут, все мета-теги. Стоить такое удовольствие будет в районе 1000-1500 рублей.
Заказать семантику на Work-Zilla
Как я уже говорил, это зависит от того, делаете ли вы акцент на Яндексе при продвижении. Он учитывает этот тег, и об этом прямо говорится в “Помощи Вебмастеру”:
Робот Яндекса учитывает содержание следующих мета-тегов:
<meta name="Keywords" content="..."/>— может учитываться при определении соответствия страницы поисковым запросам;
<meta name="Description" content="..."/>— содержание данного тега может использоваться в сниппетах (описаниях сайтов на странице результатов поиска);

Тут прямо в описании говорится о назначении этого раздела: указываются ссылки на профили в соц.сетях для соотнесения их с сайтом в лице поисковиков.

Настройка карты сайта, которая доступна по адресу: вашсайт.ру/sitemap_index.xml. Как я уже говорил, по-умолчанию здесь все настроено и включено. Трогать только в исключительных случаях.

Дополнительные настройки плагина Yoast SEO. Здесь можно включить/отключить Хлебные крошки, а также настроить постоянные ссылки (например, рубрик). По описанию, думаю, итак многое понятно.
Здесь я рекомендую убрать префикс рубрик (/category/). Это укоротит ваши ссылки и сделает их более лаконичными. Да и индексироваться они будут лучше, но это не точно.

Инструменты для работы с файлами и настройками. В принципе, везде есть описание, и вполне понятно, какой инструмент за что отвечает.
Прежде чем приступать к настройке того robots.txt, я рекомендую ознакомиться с обучающими материалами. Например, в статье правильная настройка Robots.txt для WordPress я рассказал о том, каким образом лучше настроить этот файл. То же касается и других СЕО-файлов, лучше сначала ознакомиться с обучающими материалами, прежде чем изменять в них что-то. Кстати говоря, по-умолчанию они настроены вполне сносно.
Собственно, вот так выглядят настройки в плагине Yoast SEO. Надеюсь, что данная статья поможет вам разобраться в нем, чтобы в дальнейшем самостоятельно проводить настройку. Данный плагин действительно отлично помогает в продвижении. Если вы правильно заполните шаблоны мета-тегов, настроите роботс, и будете следовать рекомендациям этого плагина, при составлении статей и страниц, то все у вашего проекта будет хорошо. Кстати, рекомендую к ознакомлению материал: Выбор подходящей CMS: WordPress vs Ucoz.
Robots.txt – играет очень важную роль в индексации. Правильный robots.txt – вообще очень важен. А насколько он правильный? А кто так сказал? А точно ли это поможет в продвижении ресурса в поисковых системах? Масса подобных вопросов возникала и у меня, когда я оптимизировал этот блог и искал информацию в интернете об этом. В принципе, роботсом я заинтересовался еще когда у меня был сайт на Ucoz (возможно, кстати, вам понравится статья про выбор подходящей CMS: WordPress vs Ucoz), благо там его можно было настроить, и я постиг основы.
Стоит отметить, что после правильной настройки robots.txt дела у моих проектов пошли лучше. Что в том, что в этом случае. Обусловлено это, конечно же, избирательным подбором страниц и материалов, которые нужно индексировать. Также я грамотно настроил остальные SEO-аспекты сайта с помощью плагина Yoast SEO. Рекомендую прочитать статью о правильной настройке плагина Yoast SEO для WordPress.
Если говорить совсем уж просто: для правильного представления вашего ресурса. Например, поисковые роботы, при посещении и индексации вашего сайта, могут взять, да и проиндексировать ненужные системные элементы. Как правило, такие страницы не слишком пригодны для восприятия роботами, и потому они будут считаться плохо оптимизированными. Если этих самых страниц будет слишком много, поисковик может понизить ваш проект в выдаче.
В абсолютно противоположном случае, что не менее прискорбно, может оказаться так, что ваш сайт и вовсе будет закрыт для индексации. Такое случается не так уж часто, но вам все равно следует учитывать это.

Чтобы не лить воду, сразу скажу, что здесь есть два способа. Вы можете: либо настроить robots.txt через редактор плагина Yoast SEO (который ОЧЕНЬ рекомендован к установке), либо создать такой файл вручную (в блокноте, например), и разместить в корне сайта. Во втором случае, кстати говоря, стоит помнить, что размещать файл нужно так, чтобы он был доступен по адресу: site.ru/robots.txt.
Хотя, я думаю, что с этими мелочами вы итак разберетесь. Сосредоточимся на содержимом этого файла.
User-agent: *
Disallow: /cgi-bin
Disallow: /?
Disallow: /search/
Disallow: /author/
Disallow: /users/
Disallow: */trackback
Disallow: */feed
Disallow: */rss
Disallow: /wp-
Disallow: *?s=
Disallow: *&s=
Disallow: */embed
Disallow: /xmlrpc.php
Disallow: *utm=
Disallow: *openstat=
Disallow: /tag/ # Закрываем для того, чтобы не индексировалось слишком много дублей.
# Если вы хотите, чтобы метки индексировались, удалите это правило.
Allow: */uploads
User-agent: GoogleBot
Disallow: /cgi-bin
Disallow: /?
Disallow: /search/
Disallow: /author/
Disallow: /users/
Disallow: /wp-
Disallow: *?s=
Disallow: *&s=
Disallow: */trackback
Disallow: */feed
Disallow: */rss
Disallow: */embed
Disallow: /xmlrpc.php
Disallow: *utm=
Disallow: *openstat=
Allow: */uploads
Allow: /*/*.js
Allow: /*/*.css
Allow: /wp-*.png
Allow: /wp-*.jpg
Allow: /wp-*.jpeg
Allow: /wp-*.gif
Allow: /wp-admin/admin-ajax.php
User-agent: Yandex
Disallow: /cgi-bin
Disallow: /?
Disallow: /wp-
Disallow: *?s=
Disallow: *&s=
Disallow: /search/
Disallow: /author/
Disallow: /users/
Disallow: */trackback
Disallow: */feed
Disallow: */rss
Disallow: */embed
Disallow: /xmlrpc.php
Allow: /wp-*.jpg
Allow: /wp-admin/admin-ajax.php
Allow: */uploads
Allow: /wp-*.jpeg
Allow: /wp-*.gif
Allow: /*/*.js
Allow: /*/*.css
Allow: /wp-*.png
Clean-Param: utm_source&utm_medium&utm_campaign
Clean-Param: openstat
Sitemap: https://site.ru/sitemap.xml
Sitemap: https://site.ru/sitemap.xml.gz # Указываем, если для создания карты использовали Google XML Sitemap
Host: https://site.ru # Указываем с протоколом
Несколько очень важных моментов:
Host: НЕ нужно. Директива будет выглядеть как Host: www.site.ru или Host: site.ru.
Благодаря такому подходу, по мнению некоторых оптимизаторов и вебмастеров, можно добиться куда больших результатов в продвижении сайта. И ведь это логично: если в правилах есть прямые указания для каждого робота, то и индексировать они будут активнее и чаще.
Кто-то, кстати говоря, и вовсе расписывает огромное полотно для роботов всех мастей. Там и роботы, которые индексируют картинки (от гугла и яндекса), и роботы других поисковых систем, коих очень и очень много.
Собственно, вот так должен выглядеть правильно составленный robots.txt для WordPress в 2018 году. Безусловно, есть еще масса всевозможных вариантов, однако я рекомендую остановиться именно на этом. Я и сам его использую, в чем вы можете убедиться лично (добавьте /robots.txt к адресу моего сайта).
Контекстная реклама — один из самых популярных способов монетизации информационного веб-сайта, который, по сути, ничего не продает, а создан в качестве тематической рекламной площадки. Достоинство контекстной рекламы — это простота. Владельцу сайта нужно лишь разместить код объявлений в теле страниц или шаблона сайта, а объявления подбираются автоматически в зависимости от содержимого страницы и/или интересов посетителя.
Гигантами на рынке контекстной рекламы являются две рекламные сети — Рекламная сеть Яндекса (РСЯ) и Google Adsense. Именно о них и пойдет речь в этой статье. Читать
Автор: Guest Rooms «Varnaflats.eu»
Как известно, алгоритмы работы в современном мире постоянно изменяются, появляются новые функции и это повторяется снова и снова. А уследить за обновлениями очень сложно, но если у вас есть ваш сайт это совсем другое дело. Его вы можеет полностью контролировать. Сайт поддерживает почти все доступные форматы файлов и формы медиа, например, видео и инфографику. Вы можете легко добавить на свой сайт даже функцию виртуального тура или гифографику. Читать