Прописал Пользовательском файле robots.txt
Вообще-то у меня есть основная работа, и я не освобождён от
неё из-за Короновируса.
Сегодня отработал до пяти вечера, завтра заступаю на
сутки.
Но время зря не теряю. На работе почитал книжицу о
сайтостроении. Строить их не собираюсь, но общее представление иметь не
помешает.
Нужно хоть немного разбираться в XTML коде.
Вчера, например, поставил защищённое соединение и у меня
слетели все настройки в Пользовательском файле robots.txt.
В общим они все там пропали.
Вбил его туда, а он мне ошибки указал. Как их исправлять и стоит ли не знаю.
Вот так эта картинка выглядит. Может, кто подскажет?
А вот то, что я прописал в Пользовательском файле robots.txt:
Disallow:
User-agent: *
Disallow: /search
Disallow:
/p/search.html
Allow: /
Sitemap: http://имя
вашего
сайта/feeds/posts/default?orderby=updated
User-agent: Yandex
Disallow: /search
Disallow:
/p/search.html
Allow:
/
Вставил иконки поделиться
Также сегодня поставил кнопки поделиться от Яндекса. Был
вариант более крупных и красочных, но в них не работает иконка на
Одноклассники.
Кстати, можете кнопочки обновить, поделитесь моей статьёй.
Время уже восемь вечера, я ещё не ужинал, завтра рано
вставать. Поставлю эту статью на таймер публикации и пойду ужинать.
Всем пока до новых встреч в эфире.
С робот текст все по разному советуют. Не понятно как на самом деле правильно.
ОтветитьУдалить