1.8k Aufrufe
Gefragt in Webseiten HTML von petra65 Experte (1.8k Punkte)
Hallo,

so langsam bekomme ich die Kriese .... seit über 1 Woche muss ich täglich die sitemap.xml neu bei Google einreichen, da es täglich zu einer Fehlermeldung kommt.

Ich habe z. B. heute morgen die sitemap erneut gesendet .... ich weiss aber jetzt schon, dass morgen früh der Status von OK auf FEHLER steht, mit dem Hinweis "... auf die Datei konnte nicht zugegriffen werden .."

So geht es mir JEDEN TAG !!!

Ich weiss aber nicht woran das liegen könnte, die HP läuft bei Strato - kann es damit zusammen hängen?? Aber ich habe noch eine HP, die bei Strato ist, dort bekomme ich keine Fehlermeldung.

Ich habe explizit in der robots.txt den Zugriff auf die sitemap.xml erlaubt... ohne Besserung.

Hat jemand eine Idee wo ich den Fehler suchen muss???
Ist es möglich, dass beim nächsten Zugriff von Google auf die Datei der Status automatisch von FEHLER auf OK wechselt???

Dankbar für jede Hilfe ;-)

Gruss - Petra

5 Antworten

0 Punkte
Beantwortet von supermax Experte (4.8k Punkte)
kannst du die sitemap.xml denn in deinem Browser anzeigen, indem du die URL direkt in die Adresszeile eingibst? Eventuell stimmt mit den Zugriffsrechten am Server etwas nicht, oder der Dateiname ist falsch - die meisten Webserver unter Linux/BSD oder einem anderen Unix-artigen OS unterscheiden zwischen Groß- und Kleinschreibung, d.h. Sitemap.XML ist eine andere Datei als sitemap.xml
0 Punkte
Beantwortet von kjg17 Profi (34.4k Punkte)
Hallo Petra,

bei der o.a. Meldung fällt mir auch eine fehlerhafte Pfadangabe als mögliche Ursache ein. Hast du DAS mal überprüft?

Gruß
Kalle
0 Punkte
Beantwortet von petra65 Experte (1.8k Punkte)
Hallo,

die Sitemap wird ordnungsgemäss gefunden

www.med-beauty-paderborn.de

bzw.

www.med-beauty-paderborn.de/sitemap.xml

Die grundsätzliche Pfadangabe gibt Google ja vor, und die sitemap ist ja auch erstmal 1 Tag lang OK ;-(

Was allerdings auch auffällig ist, ist dass angeblich 4 Links in der sitemap nicht gefunden werden (Diagnose -> Crawling-Fehler) - (Fehler 404). Diese Seiten sind aber da, und werden über Google auch geöffnet !!

Die robots.txt sieht so aus:
# robots.txt for http://www.med-beauty-paderborn.de/
# Zugriff auf alle Dateien erlauben
User-agent: *
Disallow: /sitemap.xhtml
Allow: /sitemap.xml


Gruss - Petra
0 Punkte
Beantwortet von kjg17 Profi (34.4k Punkte)
Hallo Petra,

du hast dem User-agent * mit 'Disallow' den Zugriff auf eine Datei 'sitemap.xhtml' untersagt. 'Allow' ist nicht definiert, da alles, was nicht verboten ist, als erlaubt gilt und diese Angabe nicht ausgewertet wird. Mit etwas Pech hast du in dieser Konstellation den Zugriff auf deine 'sitemap.xml' regelrecht unterbunden. Wenn nichts für die Robots zu sperren ist, braucht du dazu auch keine Angaben zu machen.

Was du jedoch machen könntest und nichts mit den User-agent-Angaben zu tun hat, den vollständigen Pfad zu deiner sitemap.xml eintragen. --> KLICK

Gruß
Kalle
0 Punkte
Beantwortet von petra65 Experte (1.8k Punkte)
so, habe die robots.txt geändert - und warte mal ab was morgen früh zu sehen ist .....

Vielen Dank schonmal und viele Grüße

Petra
...