robots.txt – blokada informacji o stronie
-
Witam serdecznie
Z góry bardzo przepraszam jeżeli podobne pytanie się już pojawiło. Jednak bardzo zależałoby mi na polskojęzycznej odpowiedzi, a nic takiego wyszukiwarka mi nie znalazła.
Od 3 dni temu stworzyłem sitemap dla wyszukiwarek. Wszystkie strony są tam indeksowane. Używam wtyczki SEO All in one. Jednak gdy próbuje znaleźć stronę przez googla wyskakuje mi komunikat pod linkiem do strony:
Opis tego wyniku jest niedostępny z powodu robots.txt – Więcej informacji.
Treść pliku robots.txt wydaje mi się poprawna:
User-agent: *
Disallow: /wp-admin
Disallow: /wp-includesSitemap: http://pomyslowypandomu.eu/sitemap.xml.gz
Bardzo proszę o pomoc w rozwiązaniu tego problemu.
Może coś powinienem jednak zmienić w pliku robots?
I jeszcze jedno nie mogę go znaleźć na serwerze, więc też nie mogę go usunąć.Z góry bardzo dziękuję za pomoc
Sz.
Jeszcze na wszelki wypadek może podam link do strony
pomyslowypandomu.eu
Temat ‘robots.txt – blokada informacji o stronie’ jest zamknięty na nowe odpowiedzi.