Avete perfettamente ragione, stavo leggendo adesso nelle faq di Google:
"Non appena un utente segue un link che dal tuo server "segreto" rimanda a un altro server web, il tuo URL "segreto" potrebbe essere visualizzato nel tag referrer ed essere memorizzato e pubblicato dall'altro server web nel suo log referrer."
Una curiosità, chiarito che è necessario un bel Disallow: /sitotest/ nel file robots, ma le pagine che sono nella root principale del mio sito visibile (come configuration.php, README.txt ecc.) vengono scansionate?
Se ho capito bene se voglio che una cartelletta non venga scansionata devo mettere Disallow nel robots.txt, se voglio che una pagina non venga scansionata devo mettere il tag noindex nella pagina, ma i due esempi qui sopra (configuration.php, README.txt ecc.) non rispecchiano né una né l'altra situazione, potete aiutarmi a capire per favore?
Vi ringrazio
Francesco