Sinn und Zweck von Indexierung ist bekannt. Meine eigentliche Fragen:
- Über die google seach console habe ich herausgefunden, dass über 500 Seiten nicht indexiert sind. Wie kann das sein, wenn sie doch alle Kriterien erfüllen?
- Manche Seiten die nicht indexiert sind, finde ich aber trotzdem bei google. Wie geht das?
- Wirkt es sich mittelfristig auf die Zugriffszahlen aus, wenn z.B. 250 Seiten wieder indexiert werden?
- Bei einem Beitrag steht: "noindex im Meta-Tag robots erkannt? Wie kann man das ändern? Ich bin Betreiber also Redakteur der Seite, von Programmierung habe ich keine Ahnung und mit der Agentur, welche die Seite programmiert hat, habe ich kaum noch Kontakt (ist etwas kompliziert)