Buongiorno a tutti...
qualche giorno fa sono intervenuto nel file robots.txt, seguendo istruzioni trovate in rete, con il comando Disallow: /*? per evitare l'indicizzazione di link "strani".
Il risultato che google webmaster tools mi indica ora sono 10 url "soggetti a restrizioni da parte di robots.txt". E' giusto? E' il risultato che dovevo ottenere, oppure mi indica un altro tipo di problema ancora?