Sul pannello del webmaster di google la sitemap del sito risponde bene nessun errore, mentre nelle scansione del web da parte di google è un disastro...
14 Errori HTTP
104 Errori relativi agli URL delle Sitemap
15 Non trovato
218 URL limitati da robots.txt
1 URL non raggiungibili
la cosa strana e alcuni di questi errori sono assurdi e non congrui
i 14 errori http riguardano link che in realtà ci sono ma che sono protetti da pw che da come Errore 4xx, mentre altri sono link non so da dove li tira fuori e lo da come Nome di dominio non trovato......
104 errori di sitemap sono alquanto strani perchè riguardano file che non esistono e non esiste una site map con quei link che oltretutto alcuni riguardano link durante la costruzione del sito online e la cartella non esiste più..... come non esiste più le cartelle del vecchio sito.....
15 non trovati che invece ci sono.... o meglio puntano su una vecchia cartella che non esiste piu e non capisco come faccia a tirarli fuori.......
218 url da robot.... forse non ho capito bene come funziona un robot ma visto queste pagine fantasma che appaio dal nulla ho creato un robot con Disallow su tutto il vecchio sito che appare ancora sulla ricerca di google e su altre cartelle che non esistono piu ma che continua a scandagliare....
1 non raggiungibile... in effetti non c'e'....
per fortuna che mi aiuta un pò xmap con la possibilità di eliminare dalla sitemap le pagine che non interessano o danno fastidio a google, ma il resto come lo risolvo?