• szczepan69

    (@szczepan69)


    Witam serdecznie
    Z góry bardzo przepraszam jeżeli podobne pytanie się już pojawiło. Jednak bardzo zależałoby mi na polskojęzycznej odpowiedzi, a nic takiego wyszukiwarka mi nie znalazła.
    Od 3 dni temu stworzyłem sitemap dla wyszukiwarek. Wszystkie strony są tam indeksowane. Używam wtyczki SEO All in one. Jednak gdy próbuje znaleźć stronę przez googla wyskakuje mi komunikat pod linkiem do strony:
    Opis tego wyniku jest niedostępny z powodu robots.txt – Więcej informacji.
    Treść pliku robots.txt wydaje mi się poprawna:
    User-agent: *
    Disallow: /wp-admin
    Disallow: /wp-includes

    Sitemap: http://pomyslowypandomu.eu/sitemap.xml.gz
    Bardzo proszę o pomoc w rozwiązaniu tego problemu.
    Może coś powinienem jednak zmienić w pliku robots?
    I jeszcze jedno nie mogę go znaleźć na serwerze, więc też nie mogę go usunąć.

    Z góry bardzo dziękuję za pomoc

    Sz.
    Jeszcze na wszelki wypadek może podam link do strony
    pomyslowypandomu.eu

Temat ‘robots.txt – blokada informacji o stronie’ jest zamknięty na nowe odpowiedzi.