Ciao Andrea2002,
il file robots.txt non ti può aiutare a "rimuovere" le URL duplicate, se mai "contenerle".
L'articolo che suggerisci è interessante e me lo sono segnato
. In realtà ti dice quello che ti ho detto anch'io puoi inibire l'indicizzazione di alcune pagine specifiche del tuo sito inserendole nel file robots con la sintassi Disallow, ma è come estirpare le erbacce a mano.
Il prossimo articolo lo faccio sul rel="canonical" che serve proprio a questo e mi pare ci sia necessità.
Maurizio ZioPal