Wie kann ich doe Fehlermeldung verhindern?
vielen Dank
Wie kann ich doe Fehlermeldung verhindern?
vielen Dank
Indem du per htaccess den Zugriff auf den common Ordner unterbindest. Denn dort hast Du sicherlich keine Inhalte angelegt - der Ordner wird lediglich für die Darstellung Deiner Webseite benötigt.
Wenn Du mir den Code dafuer verraten wuerdest dann waere ich Dir sehr dankbar :))) oder wo kann ich diesen finden? Danke
Ja das mache ich. Muss aber noch eines korrigieren. Es geht hier nicht um die htacess sondern um die robots.txt.
Hier musst du Suchmaschinen, Crawlern, Seo Programmen usw. verbieten diesen Unterordner zu lesen. Die robots.txt musst du manuell erstellen (einfache text Datei) und auch manuell in dein Hauptverzeichnis hochladen
User-agent: * Disallow: /common/
Hallo deek
Hallo deekay,
den Beitrag davor habe ich versehentlich zu schnell abgeschickt. Seobility meldet das siehe Snapshot. Ein technisches Problem und wichtiger Fehler der nach dem Analysetool behoben werden sollte.
https://www.agentur-9.de/common/ Dieser Ordner existiert gar nicht in meiner Historie von Sinquando Web 5.0 - es handelt sich offenbar um eine Seite die nur über Fehlerseiten redaktionell angepasst werden kann. Aber man kann sie weder ausblenden noch offline schalten?
Was würdet Ihr unternehmen und ist der Fehler den Seobility da anzeigt überhaupt relevant für den Google Crawler zur Bewertung der Seite?
Ich habe gerade festgestellt dass du ja eigentlich im falschen Unterforum gelandet bist. Die Seite um die es geht ist ja mit "pro" erstellt weorden. Ist aber auch egal. Wenn du mit der robots txt den Zugriff auf den common Ordner verbietest, verschwindet der Fehler... ganz einfach.
Ich habe das Thema im richtigen Unterforum verschoben.
Gruß,
Marjorie
Hilfe ist nicht selbstverständlich. Deshalb halte ich ein "Dankeschön", nachdem jemandem geholfen wurde, für überaus angebracht und höflich.
Sorry fürs falsche Forum. Bin ich jetzt hier richtig?
Wenn ich das Sperre: SEO Tool meldet Fehler 404 bei dieser Seite: https://www.agentur-9.de/common/ hat der Crawler auch keinen Zugriff mehr auf folgendes oder weil diese Datei ja auch zu Common zählt.
https://www.agentur-9.de/common/info/sitemap.xml
Dann habe ich eine Problem, weil der Crawler die Sitemap nicht mehr findet...oder?
Habe übrigens noch etwas entdeckt. Das SEO Tool Seobility meldet:
Auf 70 Seiten fehlen bei eingebundenen Bildern die Alt-Attribute - ich habe aber auf allen Bilder im Sinquando Pro Web 5.0 mit ALT und TITLE Attributen versehen. Wie kann das denn sein?
Hoffentlich darf ich die Frage hier stellen. Wenn nicht, bitte kurzen Hinweis. Ich bin neu und kenne mich mit solchen Foren wenig aus. Falls ich falsch bin entschuldige ich mich schon im Voraus.
Wenn du die Sitemap woanders "unterbringst" nicht. Am besten legst Du sie dort ab wo die robots txt auch ist
Okay - ich versuch das mal...danke Dir vielmals.....:)